Agent (Agente AI)
Un sistema AI autonomo che pianifica ed esegue task multi-step senza intervento umano continuo.
A differenza di un chatbot (botta e risposta), un agente prende un obiettivo di alto livello, lo scompone in sotto-task, li esegue, valuta il risultato, si corregge. Claude Code e Cursor Agent mode sono esempi in ambito vibe coding.
Chain-of-Thought (CoT)
Una tecnica di prompt engineering dove chiedi all'LLM di 'ragionare passo passo' prima di dare la risposta finale.
Scrivere 'Pensa passo passo' nel prompt attiva una catena di ragionamento esplicito che migliora notevolmente la qualità su problemi complessi. I modelli 2026 (Claude Opus 4.7, GPT-5) hanno chain-of-thought implicita nel ragionamento.
Context Window
La quantità massima di testo (misurata in token) che un LLM può elaborare in una singola richiesta.
Il context window è la 'memoria a breve termine' del modello. Se il tuo prompt + la risposta superano il limite, il modello 'dimentica' parti iniziali. Claude Opus 4.7 ha 1M token di context; GPT-4 Turbo ne ha 128k. Per vibe coding su progetti grandi, un context ampio è cruciale.
Embedding
Una rappresentazione numerica (vettore) del significato di un testo, usata per ricerche semantiche.
Gli embedding trasformano parole/frasi in vettori ad alta dimensione (tipicamente 768-3072 numeri). Testi con significato simile hanno vettori vicini. Sono la base dei sistemi RAG e delle ricerche semantiche.
Fine-tuning
Il processo di addestrare ulteriormente un LLM preesistente su dati specifici, per specializzarlo.
Partendo da un modello generale (es. GPT-4), aggiungi un training supplementare con i tuoi dati (es. tutti i documenti della tua azienda). Il risultato è un modello che eccelle nel tuo dominio. Più raro nel vibe coding: spesso basta un buon prompt + RAG.
Hallucination (Allucinazione)
Quando un LLM genera informazioni plausibili ma false, come API inesistenti o nomi di librerie inventate.
Problema classico degli LLM, specie su task di codice. Claude potrebbe suggerire `import { foo } from 'bar'` quando `foo` o `bar` non esistono. Si mitiga con RAG, prompt ben scritti, e verifica sempre prima di eseguire il codice generato.
LLM (Large Language Model)
Un modello di intelligenza artificiale di grandi dimensioni addestrato sul testo per generare, capire e ragionare.
Gli LLM sono il motore dietro ChatGPT, Claude, Gemini. Vengono addestrati su enormi quantità di testo (internet, libri, codice) e imparano pattern linguistici. Nel vibe coding usiamo LLM per generare codice da descrizioni.
Esempi: Claude Opus 4.7 (Anthropic), GPT-5 (OpenAI), Gemini Ultra (Google).
MCP (Model Context Protocol)
Un protocollo standard introdotto da Anthropic per collegare LLM a fonti di dati e tool esterni.
Lanciato nel 2024, MCP permette di esporre tool (query DB, API, filesystem) in modo standard a qualsiasi LLM compatibile. Nel 2026 è diventato lo standard de-facto per agenti AI. Sia Claude che molti tool di vibe coding supportano MCP.
Prompt
L'istruzione in linguaggio naturale che dai a un modello AI per ottenere una risposta o un'azione.
Un prompt è il messaggio che invii a un LLM (come Claude o GPT) per chiedere qualcosa. Nel vibe coding, un prompt tipico descrive cosa vuoi costruire: componente, funzione, intera feature. La qualità del prompt determina largamente la qualità dell'output.
Esempio: 'Crea un bottone React con Tailwind, colore giallo #FFC800, testo nero, che mostra un'icona di caricamento quando isLoading è true.'
Prompt Engineering
L'arte (e scienza) di scrivere prompt efficaci per ottenere risultati di alta qualità dagli LLM.
Il prompt engineering è la disciplina che studia come strutturare le istruzioni per modelli AI. Include tecniche come chain-of-thought, few-shot examples, role prompting, step-by-step reasoning. È una skill fondamentale per chi fa vibe coding.
RAG (Retrieval-Augmented Generation)
Una tecnica in cui l'LLM cerca prima informazioni rilevanti (retrieval) e poi genera la risposta (generation) usando quel contesto.
Il RAG permette a un LLM di accedere a conoscenze al di fuori del training set. Esempio: un chatbot della tua azienda che risponde con documenti interni. Flusso: query → ricerca semantica su database vettoriale → LLM riceve documenti + query → genera risposta contestuale.
System Prompt
Un prompt iniziale 'nascosto' che definisce il comportamento, la personalità e i limiti dell'LLM per tutta la conversazione.
Il system prompt imposta il contesto generale (es. 'Sei un assistente esperto in Next.js. Rispondi in italiano. Non inventare API inesistenti.'). In Cursor e Claude Code, il file `.cursorrules` o `CLAUDE.md` funziona come un system prompt persistente per il progetto.
Token
L'unità base in cui gli LLM dividono il testo. Non è una parola: è una sotto-parola o sequenza di caratteri.
Un token è circa 3-4 caratteri in inglese, meno in italiano. La parola 'intelligenza' viene divisa in 3-4 token. I costi API degli LLM si misurano in token: più lungo il prompt, più costa. 1M token costa $3-75 a seconda del modello.
Tool Calling
La capacità di un LLM di invocare funzioni/API esterne per svolgere azioni oltre la generazione di testo.
Grazie al tool calling, un LLM può: cercare sul web, leggere un file, eseguire codice Python, interrogare un database. È il meccanismo base degli agenti AI moderni. Nel vibe coding, Claude Code usa tool calling per modificare file e eseguire comandi.
Vector Database
Un database specializzato per memorizzare e cercare vettori (embeddings) efficientemente.
Esempi: Pinecone, Weaviate, Qdrant, pgvector (PostgreSQL), Chroma. Permettono ricerche 'trova i 10 testi più simili semanticamente a questa query' in millisecondi. Cuore dei sistemi RAG.