Negli ultimi mesi, molti individui hanno avuto modo di interagire con chatbot come ChatGPT. Sebbene siano strumenti utili, non mancano esempi di chatbot che forniscono informazioni errate. Questa situazione ha spinto un gruppo di ricercatori dell’Università di Oxford a interrogarsi: esiste un modo legale per richiedere ai chatbot di essere veritieri?
L’ascesa dei grandi modelli linguistici
Nel contesto dell’intelligenza artificiale (IA), un settore che ha raggiunto nuovi traguardi negli ultimi anni, i grandi modelli linguistici (LLM) hanno attirato particolare attenzione. Questi modelli sfruttano l’IA generativa per produrre risposte che spesso sono sorprendentemente simili a quelle umane, coprendo una vasta gamma di argomenti. ChatGPT e Gemini di Google sono esempi di chatbot basati su modelli addestrati su enormi quantità di dati, sollevando questioni legate alla privacy e alla proprietà intellettuale. Questi chatbot sono in grado di comprendere domande in linguaggio naturale e generare risposte coerenti e pertinenti, senza la necessità di imparare una specifica sintassi per restringere i risultati.
Sebbene le capacità di questi chatbot siano indubbiamente impressionanti e le loro risposte suonino convincenti, sorge un problema: spesso mantengono la stessa sicurezza anche quando commettono errori significativi. Questa situazione potrebbe essere problematica, poiché gli esseri umani tendono ad attribuire alle macchine una certa credibilità simile a quella riservata agli esseri umani.
I grandi modelli linguistici non sono progettati per essere veritieri in senso assoluto. Nonostante possano apparire come se “pensassero” come gli esseri umani, il loro funzionamento è diverso. Gli LLM sono essenzialmente motori di generazione di testo che prevedono la sequenza di parole più probabile in un determinato contesto. La veridicità delle risposte non è la priorità principale durante lo sviluppo di questi modelli, il che può portare a semplificazioni e pregiudizi nelle risposte generate.
Un recente studio condotto da ricercatori dell’Università di Oxford ha evidenziato le problematiche legate all’affidabilità dei LLM. Alcuni esperti hanno addirittura definito questi modelli come “bugiardi”. Un esempio citato è quello del professor Robin Emsley, che ha sperimentato ChatGPT e ha riscontrato la generazione di informazioni inventate e fuorvianti.
Gli autori del nuovo studio si sono concentrati sulla necessità di ridurre le “parole superficiali” nei LLM, al fine di evitare danni derivanti da informazioni errate diffuse in conversazioni umane offline. Tuttavia, la legislazione attuale dell’Unione Europea offre pochi strumenti per imporre un obbligo legale ai fornitori di LLM di garantire la veridicità delle informazioni.
Di fronte a questa situazione, gli autori propongono l’implementazione di un nuovo quadro normativo che imponga ai fornitori di LLM, sia a uso specifico che generale, di minimizzare le informazioni fuorvianti. Questo nuovo approccio mira a bilanciare la veridicità delle informazioni con la loro utilità, spostando l’attenzione verso una maggiore trasparenza e rappresentatività delle fonti utilizzate.
Non esistono risposte semplici a queste questioni, ma è evidente che gli sviluppatori di LLM dovranno affrontare queste sfide mentre la tecnologia continua a evolversi. Nel frattempo, è importante essere consapevoli del potenziale rischio di affidarsi ciecamente alle informazioni fornite dai chatbot, poiché la priorità di questi modelli è offrire risposte convincenti e utili, indipendentemente dalla veridicità delle informazioni fornite.
Lo studio in questione è stato pubblicato sulla rivista Royal Society Open Science.
Links:
L’articolo La verità dietro i chatbot: sfide e prospettive sembra essere il primo su Scienze Notizie.