Cosa sono i Prompts
Un Prompt è un input o una richiesta fornita ad un LLM (Large Language Model) per ottenere una risposta o un output specifico. Il prompt serve a guidare o “istruire” l’AI su ciò che deve fare o su quale tipo di informazione deve operare.
Un Prompt può essere costituito da una sola riga di istruzione fino ad una elencazione complessa ed esaustiva delle azioni necessarie per eseguire un intero processo, quale ad esempio l’analisi del merito creditizio di un’impresa.
Il PROMPT viene redatto in linguaggio naturale abitualmente da un esperto del business di riferimento che si trova avvantaggiato rispetto ai programmatori tradizionali poiché ha una idea anche se approssimata di cosa vorrebbe ottenere e quindi è in grado di valutare la qualità del risultato che ottiene immediatamente.
Come funziona un Prompt?
Un prompt funziona essenzialmente come un input che attiva e guida il processo di generazione dell’output in un modello di intelligenza artificiale. Il funzionamento può essere suddiviso in diverse fasi:
- Inserimento del prompt:
L’utente fornisce un testo (il prompt) al modello di AI. Questo può essere una domanda, un’istruzione, o una frase parziale. - Elaborazione del contesto:
Il modello analizza il prompt, interpretandone il significato e il contesto basandosi sul suo addestramento su vasti set di dati testuali. - Attivazione della rete neurale:
Il prompt attiva specifici “percorsi” nella rete neurale del modello, stimolando connessioni rilevanti per l’argomento o il compito richiesto. - Generazione della risposta:
Il modello utilizza algoritmi probabilistici per prevedere la sequenza più probabile di parole che dovrebbero seguire il prompt, basandosi sui pattern appresi durante l’addestramento. - Raffinamento dell’output:
Il modello continua a generare e raffinare la risposta, considerando la coerenza, la pertinenza e altri fattori di qualità. - Consegna della risposta:
L’output finale viene presentato all’utente. - Iterazione (se necessario):
L’utente può fornire feedback o prompt aggiuntivi per perfezionare ulteriormente la risposta.
È importante notare che questo processo avviene in frazioni di secondo, e il modello non “comprende” il prompt nel senso umano del termine, ma piuttosto elabora pattern statistici complessi per generare risposte appropriate.
L’efficacia di un prompt dipende da vari fattori, tra cui:
- Chiarezza e specificità delle istruzioni
- Rilevanza rispetto alle capacità del modello
- Struttura e formulazione del prompt
Il “prompt engineering” si concentra sull’ottimizzazione di questi fattori per ottenere i migliori risultati possibili dal modello di AI.
Il Prompts Engineering
Considerando la vastità delle informazioni di riferimento e la complessità delle tasks la redazione dei Prompts per un’applicazione è un compito molto complesso poiché presuppone la capacità di un individuo di conoscere la materia di business trattata e le specifiche esigenze insieme alle peculiarità del linguaggio da utilizzare per “costringere” GenAI ad eseguire esattamente le azioni che si ritiene necessarie per soddisfare le esigenze espresse.
Il Prompt Engineering è l’arte e la scienza di progettare input efficaci per i modelli di intelligenza artificiale al fine di ottenere output desiderati e di alta qualità.
La redazione di Prompts (Prompts Engineering) è la nuova frontiera dell’automazione dei processi decisionali con GenAi ed AI Agents poiché presuppone che il prompt sia dettagliato e preciso, eviti le ambiguità e sia diretto nelle richieste, fornisca informazioni di background rilevanti per ottenere risposte più accurate.
Inoltre nel Prompt è possibile indicare chiaramente come si desidera che sia strutturata la risposta possibilmente fornendo esempi di input/output desiderati per compiti complessi.
Infine è necessario verificare con attenzione che il Prompt fornisca i risultati desiderati ed introdurre le modifiche necessarie per migliorare l’output.
Analytics Translator: la figura professionale emergente
Nel Febbraio 2018 la società McKinsey scrisse un articolo per HBR dal titolo: AT the new must-have role.
Nell’articolo si trattava della necessità di introdurre una nuova figura professionale , appunto Analytics Translator, per indirizzare la emergente tecnologia dell’AI e Big Data precedente ai LLM verso la ricerca di soluzioni adeguate agli specifici fabbisogni del business piuttosto che ad ogni possibile outcome che potesse derivare dagli analytics di enormi masse di dati “sconosciuti” fino a quel momento.
La disponibilità di LLM, GenAi e Agentic AI Systems, con una enorme potenza di estrare informazioni “pertinenti” , ha enfatizzato la necessità di un AT ma ha anche risolto il problema della interazione direttamente con la tecnologia più innovativa mettendo a disposizione i PROMPTS redatti in linguaggio naturale, con i quali l’esperto esprime le proprie esigenze.
Il massimo di questo evoluzione consiste nella disponibilità di Ai Agent che sono in grado id creare Prompts adeguati da indicazioni molto generiche dell’esperto.