Mi avete spesso sentito dire che “se ChatGPT ti da una risposta sbagliata è perché gli hai fatto una domanda sbagliata”
Questa cosa è sempre più vera man mano che andiamo avanti e scopriamo nuove cose su come scrivere in maniera corretta e ottimizzata i comandi.
Il cosiddetto “prompt engineering” sta esplodendo e ci sta portando a delle scoperte incredibile.
Come, ad esempio, il prompt che vi mostro in questo tutorial.
La tecnica si chiama chain-of-thought ed è analizzata in tantissimi studi negli ultimi tempi e ho mostrato come può aumentare la qualità delle risposte dei chatbot (non solo quello di OpenAI) di tantissimo.
Vi lascio anche i riferimenti ai paper che cito in questo video:
Il benchmark tra i vari prompt: https://arxiv.org/abs/2305.02897
Il prompt Kojima: https://arxiv.org/abs/2205.11916
Il prompt Zhou: https://arxiv.org/abs/2211.01910
Ecco il prompt per chi volesse fare copia-incolla: “Let’s work this out in a step by step way to be sure we have the right answer.”
Nel video parlo di:
00:00 Introduzione
01:04 Esempio 1: trovare parole in una frase
04:48 Esempio 2: indovinelli logici
08:50 Esempio 3: calcoli sbagliati
12:40 Riferimenti bibliografici
16:00 Conclusioni
Doveroso citare due canali YouTube che sto adorando e che su questi aspetti tecnici/di ricerca mi stanno dando tantissimi spunti: @aiexplained-official e @engineerprompt
#intelligenzaartificiale #chatgpt #promptengineering #ia #ai
__________
📈 Entra nella mia academy:
https://gaito.link/y-academy
💻 Guarda i miei corsi:
https://gaito.link/y-corsi
📚 Scopri i miei libri:
https://gaito.link/y-libri
✉️ Iscriviti alla mia newsletter:
https://gaito.link/y-newsletter