Parlare di intelligenza artificiale senza conoscere il vocabolario tecnico è come navigare in mare senza bussola. Ogni giorno aziende, consulenti e fornitori usano termini che sembrano intercambiabili ma hanno significati precisi, con impatti diretti su costi, risultati e rischi.
Questo glossario AI definitivo contiene 47 parole chiave organizzate per aree di competenza. Non è una lista accademica: è uno strumento pratico per prendere decisioni consapevoli e smettere di annuire quando non si capisce cosa viene detto.
🏗️ TERMINI FONDAMENTALI
LLM (Large Language Model)
Modello linguistico con miliardi di parametri capace di generare testo, rispondere a domande, riassumere e ragionare. Esempi: GPT-4o, Claude 3.5, Gemini 2.0.
Token
Unità base di testo per i LLM (~4 caratteri). Ogni prompt e risposta si misura in token. Es: "Ciao mondo" = 3 token.
Context Window
Quantità massima di testo che il modello può "vedere" in una conversazione (es: 128K token Gemini, 200K Claude). Decisivo per documenti lunghi.
Prompt Engineering
Arte di scrivere istruzioni precise per ottenere risposte migliori dai LLM. La differenza tra output mediocri e eccellenti.
Hallucination
Quando un LLM inventa informazioni plausibili ma false. Problema critico per FAQ, customer care e report aziendali.
⚙️ ARCHITETTURA E TECNOLOGIA
Fine-tuning
Personalizzazione di un LLM pre-addestrato sui dati aziendali. Costa molto, richiede dati puliti, risultati incerti.
RAG (Retrieval-Augmented Generation)
Tecnica che combina LLM + database documenti aziendali. Riduce le hallucination, aumenta l'accuratezza su dati proprietari.
API Rate Limits
Limiti di chiamate/minuto all'API di un LLM. Blocca i progetti se non dimensionati correttamente.
Latency
Tempo tra richiesta e risposta. Chatbot = <2s. Report = <30s. Tuttofare = 5-10s.
Cost per Token
Prezzo per elaborare input/output. Es: Gemini Flash €0,075/1M input vs Claude €2,50/1M.
📊 QUALITÀ E PERFORMANCE
Zero-shot
Capacità del modello di eseguire un compito senza esempi nel prompt. Base per molti usi aziendali.
Few-shot
Capacità con 2-5 esempi nel prompt. Migliora risultati su task specifici.
Chain of Thought (CoT)
Tecnica prompting che chiede al modello di "ragionare ad alta voce". Migliora drasticamente compiti complessi.
Temperature
Parametro che controlla creatività vs precisione (0=certitudine, 1=creatività). Contenuti=0.7, FAQ=0.1
Top-p / Nucleus Sampling
Alternativa a temperature. Controlla la casualità delle scelte lessicali.
🔒 SICUREZZA E GOVERNANCE
Constitutional AI
Approccio di Anthropic (Claude): il modello si auto-corregge secondo principi etici predefiniti.
Data Retention
Se i tuoi dati finiscono nel training del modello. Rischio GDPR critico.
Model Guardrails
Controlli che impediscono al modello di generare contenuti pericolosi o fuori scope.
PII (Personally Identifiable Information)
Dati personali che non devono mai passare nei prompt. Automatizzare il rilevamento è essenziale.
SOC2 / ISO27001
Certificazioni sicurezza richieste per progetti enterprise.
💼 IMPLEMENTAZIONE AZIENDALE
Agentic Workflow
LLM che chiama tool esterni (calcolatrice, API, database). Es: "Analizza vendite Q1" → query SQL automatica.
Vector Database
Database per RAG (Pinecone, Weaviate). Memorizza "vettori semantici" dei documenti aziendali.
Embedding
Rappresentazione numerica del significato semantico di un testo. Base per RAG e search semantico.
LangChain / LlamaIndex
Framework per costruire applicazioni LLM complesse. Non indispensabili ma semplificano molto.
Grounding
Ancorare le risposte LLM a fonti verificate (documenti, database). Antidoto alle hallucination.
📈 METRICHE E VALUTAZIONE
BLEU/ROUGE Score
Metriche automatiche per valutare qualità testo generato vs reference.
Human Eval
Valutazione umana della qualità output. Ancora il gold standard.
Perplexity Score
Metrica tecnica della "confusione" del modello su un testo. Valuta capacità predittiva.
Cost-to-Value Ratio
Metrico aziendale: valore generato vs costo token. Fondamentale per ROI.
🚀 TERMINI AVANZATI 2026
Mixture of Experts (MoE)
Architettura futura: attiva solo parti del modello per task specifici. Più efficiente.
Multimodal LLM
Modelli che processano testo+immagini+audio (Gemini, GPT-4V). Futuro del content.
Tool Calling
Capacità LLM di invocare funzioni esterne. Es: "Invia email a Mario" → API Mailchimp.
Memory Context
Capacità LLM di "ricordare" conversazioni passate. Essenziale per assistenti personali.
Distillation
Creare modelli piccoli ma performanti da modelli grandi. Riduce costi drastici.
Come usare questo glossario
1️⃣ Per prendere decisioni: Quando senti un termine, sai cosa significa e quali sono le implicazioni sui costi/rischi.
2️⃣ Per implementare progetti: Conosci i concetti tecnici per progettare workflow efficaci.
3️⃣ Per parlare con i fornitori: Non ti fai più fregare da tecnicismi vuoti.
Conclusione
Padroneggiare questo vocabolario non ti rende un data scientist, ma ti dà il potere delle scelte consapevoli. L’AI non è più opaca: ora sai cosa significa ogni termine, ogni compromesso, ogni costo nascosto.
Nel 2026 distinguere chi parla pro forma da chi conosce davvero la tecnologia è un vantaggio competitivo decisivo.
Vuoi trasformare questo glossario in un vantaggio concreto?
Ti aiuto a tradurre questi concetti nei processi della tua azienda, con implementazioni pratiche e misurabili.
Da teoria a risultati. Parliamone.
Richiedi consulenza AI strategica