Un recente studio ha messo in discussione la capacità di ChatGPT e altri grandi modelli linguistici (LLM) di apprendere autonomamente o acquisire nuove abilità senza l’intervento umano, mettendo così in discussione la percezione che tali sistemi possano rappresentare rischi esistenziali per l’umanità.
I LLM sono versioni avanzate dei modelli linguistici preaddestrati (PLM), che vengono addestrati su enormi quantità di dati web. Questo accesso a una vasta mole di dati li rende in grado di comprendere e generare linguaggio naturale e altri contenuti utilizzabili per una varietà di compiti. Tuttavia, possono anche manifestare abilità emergenti, che sono essenzialmente risultati casuali per i quali non sono stati specificamente addestrati.
Un’abilità emergente potrebbe, ad esempio, consistere nella capacità di un LLM di comprendere situazioni sociali, dedotta dal suo comportamento superiore alla casualità nel Social IQA, una misura del ragionamento di buon senso sulle situazioni sociali.
La natura imprevedibile delle abilità emergenti, specialmente considerando che i LLM vengono addestrati su insiemi di dati sempre più vasti, solleva importanti questioni sulla sicurezza. Alcuni esperti sostengono che future abilità emergenti potrebbero includere capacità potenzialmente pericolose, come il ragionamento e la pianificazione, che potrebbero costituire una minaccia per l’umanità.
Tuttavia, un nuovo studio ha dimostrato che i LLM hanno una capacità superficiale di seguire istruzioni e di eccellere nella competenza linguistica, ma non possiedono il potenziale per acquisire nuove abilità senza istruzioni esplicite. Questo significa che sono intrinsecamente prevedibili, sicuri e controllabili, anche se possono essere utilizzati impropriamente da individui non autorizzati.
Man mano che questi modelli continuano a evolversi, è probabile che migliorino la loro capacità di generare linguaggio sofisticato e di essere più precisi di fronte a prompt dettagliati ed espliciti, ma è altamente improbabile che sviluppino un ragionamento complesso.
Il dottor Harish Tayyar Madabushi, informatico presso l’Università di Bath, ha spiegato che la narrazione predominante che questi tipi di intelligenza artificiale rappresentino una minaccia per l’umanità ostacola l’adozione diffusa e lo sviluppo di tali tecnologie, distogliendo l’attenzione dai veri problemi che richiedono il nostro focus.
Tayyar Madabushi e il team di ricerca, guidato dalla professoressa Iryna Gurevych presso la Technical University di Darmstadt in Germania, hanno condotto esperimenti per testare la capacità dei LLM di affrontare compiti mai affrontati prima, esaminando la loro propensione a generare abilità emergenti.
Attraverso oltre 1.000 esperimenti, il team ha dimostrato che la capacità dei LLM di seguire istruzioni, la loro memoria e la competenza linguistica possono spiegare le loro abilità e i loro limiti.
Il timore è che, con l’aumentare delle dimensioni dei modelli, possano emergere nuove capacità che attualmente non possiamo prevedere, con il rischio che questi modelli più grandi acquisiscano abilità pericolose come il ragionamento e la pianificazione.
Il professor Gurevych ha sottolineato che l’ipotetica emergenza di abilità di pensiero complesso associata a minacce specifiche non è supportata da prove, e che il processo di apprendimento dei LLM può essere ben controllato.
Sebbene sia importante affrontare il potenziale abuso dell’IA, come la diffusione di notizie false e il rischio di frodi, sarebbe prematuro introdurre regolamenti basati su presunte minacce esistenziali, ha aggiunto Tayyar Madabushi.
È fondamentale che gli utenti comprendano che fare affidamento sui LLM per compiti complessi che richiedono un ragionamento sofisticato senza istruzioni esplicite potrebbe essere rischioso. Fornire istruzioni chiare e esempi dettagliati ai modelli potrebbe essere la soluzione migliore per evitare errori.
Il team di ricerca sottolinea che i risultati non escludono tutte le minacce legate all’IA e invita a concentrarsi su altri rischi, come l’uso dei modelli per la generazione di notizie false.
Lo studio è stato pubblicato negli Atti della 62a Riunione Annuale dell’Associazione di Linguistica Computazionale.
Links:
L’articolo Il Futuro dei Grandi Modelli Linguistici: Rischi e Limiti sembra essere il primo su Scienze Notizie.