I ricercatori sono entusiasti ma preoccupati per gli ultimi progressi nel campo dell’intelligenza artificiale.
A dicembre, i biologi computazionali Casey Greene e Milton Pividori si sono imbarcati in un esperimento insolito: hanno chiesto a un assistente che non fosse uno scienziato di aiutarli a migliorare tre dei loro articoli scientifici. Il loro assiduo assistente ha suggerito revisioni a sezioni di documenti in pochi secondi; ogni manoscritto ha richiesto circa cinque minuti di revisione. In un manoscritto di biologia, il loro aiutante ha persino individuato un errore in un riferimento a un’equazione. Il processo non è sempre filato liscio, ma i manoscritti finali erano più facili da leggere e il compenso era modesto, meno di 0,50 dollari per documento.
Questo assistente, come hanno riferito Greene e Pividori in un preprint del 23 gennaio, non è una persona ma un algoritmo di intelligenza artificiale (IA) chiamato GPT-3, rilasciato per la prima volta nel 2020. Si tratta di uno dei tanto sbandierati strumenti di IA generativa in stile chatbot, in grado di sfornare testi convincenti e fluenti, sia che gli si chieda di produrre prosa, poesia, codice informatico o, come nel caso degli scienziati, di modificare documenti di ricerca.
Il più famoso di questi strumenti, noti anche come modelli linguistici di grandi dimensioni o LLM, è ChatGPT, una versione di GPT-3 che ha raggiunto la notorietà dopo il suo rilascio nel novembre dello scorso anno perché è stata resa gratuita e facilmente accessibile. Altre IA generative possono produrre immagini o suoni
“Sono davvero impressionato”, afferma Pividori, che lavora all’Università della Pennsylvania a Filadelfia. “Questo ci aiuterà a essere più produttivi come ricercatori.” Altri scienziati affermano di utilizzare regolarmente gli LLM non solo per modificare i manoscritti, ma anche per aiutarli a scrivere o controllare il codice e per fare brainstorming di idee. “Uso gli LLM ogni giorno”, dice Hafsteinn Einarsson, informatico dell’Università d’Islanda a Reykjavik. Ha iniziato con GPT-3, ma da allora è passato a ChatGPT, che lo aiuta a scrivere le diapositive delle presentazioni, gli esami degli studenti e i problemi del corso, e a convertire le tesi degli studenti in articoli scientifici. “Molte persone lo usano come segretario o assistente digitale”, afferma.
Gli LLM sono costituenti di motori di ricerca, assistenti per la scrittura di codici e persino di un chatbot che negozia con i chatbot di altre aziende per ottenere prezzi dei prodotti migliori. Il creatore di ChatGPT, OpenAI di San Francisco, ha annunciato un servizio in abbonamento a 20 dollari al mese, promettendo tempi di risposta più rapidi e accesso prioritario a nuove funzionalità (anche se la versione di prova rimane gratuita). Il gigante tecnologico Microsoft, che aveva già investito in OpenAI, ha annunciato a gennaio un ulteriore investimento, che si aggira intorno ai dieci miliardi di dollari. Gli LLM sono destinati a essere incorporati nel software generale di elaborazione delle parole e dei dati. La futura onnipresenza dell’IA generativa nella società sembra assicurata, soprattutto perché gli strumenti odierni rappresentano la tecnologia ai suoi inizi.
Ma gli LLM hanno anche scatenato preoccupazioni diffuse: dalla loro propensione a restituire falsità, alle preoccupazioni per le persone che spacciano per proprio il testo generato dall’IA. Quando “Nature” ha chiesto ai ricercatori quali fossero i potenziali usi di chatbot come ChatGPT, in particolare in ambito scientifico, il loro entusiasmo è stato mitigato dall’apprensione. “Se credete che questa tecnologia abbia il potenziale per essere trasformativa, allora penso che dobbiate essere nervosi”, dice Greene, dell’University of Colorado School of Medicine di Aurora. Secondo i ricercatori, molto dipenderà da come le normative e le linee guida future potranno limitare l’uso dei chatbot IA.
Fluente ma non fattuale
Alcuni ricercatori ritengono che gli LLM siano adatti a velocizzare compiti come la stesura di documenti o sovvenzioni, a patto che ci sia una supervisione umana. “Gli scienziati non si siederanno più a scrivere lunghe introduzioni per le domande di richiesta fondi”, afferma Almira Osmanovic Thunström, neurobiologa al Sahlgrenska University Hospital di Göteborg, in Svezia, coautrice di un manoscritto che usa GPT-3 come esperimento. “Chiederanno semplicemente ai sistemi di farlo.”
Tom Tumiel, ingegnere ricercatore a InstaDeep, un’azienda di consulenza software con sede a Londra, afferma di usare quotidianamente gli LLM come assistenti per il supporto nella scrittura di codici. “È quasi come uno Stack Overflow migliore”, dice, riferendosi al popolare sito web della comunità in cui i programmatori rispondono alle domande degli altri.
Ma i ricercatori sottolineano che gli LLM sono fondamentalmente inaffidabili nel rispondere alle domande, generando talvolta risposte false. “Dobbiamo essere cauti quando usiamo questi sistemi per produrre conoscenza”, afferma Osmanovic Thunström.
Questa inaffidabilità è insita nel modo in cui sono costruiti gli LLM. ChatGPT e i suoi concorrenti lavorano apprendendo i modelli statistici del linguaggio in enormi banche dati di testi online, comprese eventuali falsità, pregiudizi o conoscenze obsolete. Quando agli LLM vengono dati dei suggerimenti (come le richieste attentamente strutturate di Greene e Pividori di riscrivere parti di manoscritti), quei programmi semplicemente sputano, parola per parola, qualsiasi modo di continuare la conversazione che sembri stilisticamente plausibile.
Il risultato è che i LLM producono facilmente errori e informazioni fuorvianti, in particolare per argomenti tecnici sui quali potrebbero aver avuto pochi dati per allenarsi. Inoltre, gli LLM non sono in grado di dimostrare l’origine delle loro informazioni; se viene chiesto loro di scrivere un articolo accademico, inventano citazioni fittizie. “Non ci si può fidare del fatto che lo strumento sia corretto nei fatti o che produca riferimenti affidabili”, si legge su “Nature Machine Intelligence” in un editoriale di gennaio su ChatGPT.
Con queste riserve, ChatGPT e altri LLM possono essere assistenti efficaci per le ricercatrici e i ricercatori che hanno abbastanza esperienza per individuare direttamente i problemi o per verificare facilmente le risposte, per esempio la correttezza di una spiegazione o di un suggerimento di codice informatico.
Ma gli strumenti possono trarre in inganno gli utenti più ingenui. A dicembre, per esempio, Stack Overflow ha temporaneamente vietato l’uso di ChatGPT, perché i moderatori del sito si sono ritrovati sommersi da un alto tasso di risposte errate ma apparentemente persuasive generate da LLM e inviate da utenti entusiasti. Questo potrebbe essere un incubo per i motori di ricerca.
Le carenze possono essere risolte?
Alcuni strumenti per i motori di ricerca, come Elicit, dedicato ai ricercatori, aggirano i problemi di attribuzione degli LLM sfruttando le loro capacità dapprima per guidare le interrogazioni (query) alla ricerca di letteratura pertinente e poi per riassumere brevemente ciascuno dei siti web o dei documenti che i motori trovano, producendo così un output di contenuti apparentemente referenziati (anche se un LLM potrebbe comunque riassumere in modo errato ogni singolo documento).
Anche le aziende che costruiscono LLM sono ben consapevoli dei problemi. Nel settembre dello scorso anno, DeepMind, società controllata da Google, ha pubblicato un articolo su un “agente di dialogo” chiamato Sparrow, al cui riguardo l’amministratore delegato e cofondatore dell’azienda, Demis Hassabis, ha poi dichiarato alla rivista “TIME” che sarebbe stato rilasciato in versione beta privata quest’anno; la rivista ha riferito che Google intendeva lavorare su funzioni che includessero la capacità di citare le fonti. Altri concorrenti, come Anthropic, affermano di aver risolto alcuni dei problemi di ChatGPT (Anthropic, OpenAI e DeepMind hanno rifiutato interviste per questo articolo).
Per ora, ChatGPT non è addestrato su contenuti sufficientemente specialistici da essere utile per argomenti tecnici, dicono alcuni scienziati. Kareem Carr, dottorando in biostatistica all’Università di Harvard a Cambridge, in Massachusetts, è rimasto deluso quando l’ha provata per lavoro. “Penso che sarebbe difficile per ChatGPT raggiungere il livello di specificità di cui avrei bisogno”, dice. (Tuttavia, Carr dice che quando ha chiesto a ChatGPT 20 modi per risolvere una ricerca, gli ha risposto in modo incomprensibile e con un’unica idea utile: un termine statistico di cui non aveva mai sentito parlare e che lo ha indirizzato verso una nuova area della letteratura accademica).
Alcune aziende tecnologiche stanno addestrando i chatbot sulla letteratura scientifica specializzata, anche se si sono imbattute nei propri problemi. Nel novembre dello scorso anno, Meta – il gigante tecnologico proprietario di Facebook – ha rilasciato un LLM chiamato Galactica, che è stato addestrato su abstract scientifici, con l’intenzione di renderlo particolarmente bravo a produrre contenuti accademici e a rispondere a domande di ricerca. La demo è stata ritirata dall’accesso pubblico (anche se il suo codice rimane disponibile) dopo che gli utenti l’hanno resa capace di produrre imprecisioni e razzismo. “Non è più possibile divertirsi con un uso disinvoltamente scorretto. Contenti?”, ha twittato il responsabile scientifico di Meta, Yann LeCun, in risposta alle critiche. (Meta non ha risposto alla richiesta, fatta tramite il suo ufficio stampa, di parlare con LeCun).
Sicurezza e responsabilità
Galactica ha incontrato un familiare problema di sicurezza che gli esperti di etica hanno sottolineato per anni: senza controlli di output, gli LLM possono essere facilmente utilizzati per generare incitamento all’odio e spam, nonché collegamenti razzisti, sessisti o comunque dannosi che potrebbero essere impliciti nei loro dati di formazione.
Oltre a produrre direttamente contenuti tossici, si teme che i chatbot IA incorporino pregiudizi storici o idee sul mondo derivanti dai dati di addestramento, come la superiorità di determinate culture, afferma Shobita Parthasarathy, direttrice di un programma di scienza, tecnologia e politica pubblica all’Università del Michigan ad Ann Arbor. E, aggiunge, dato che le aziende che creano i grandi LLM sono per lo più appartenenti e provenienti da queste culture, potrebbero fare pochi tentativi per superare tali pregiudizi, che sono sistemici e difficili da correggere.
OpenAI ha cercato di evitare molti di questi problemi quando ha deciso di rilasciare apertamente ChatGPT. Ha limitato la sua base di conoscenze al 2021, gli ha impedito di navigare in Internet e ha installato dei filtri per cercare di far sì che lo strumento si rifiutasse di produrre contenuti per richieste sensibili o tossiche. Per raggiungere questo obiettivo, tuttavia, è stato necessario l’intervento di moderatori umani che etichettassero i testi tossici. I giornalisti hanno riferito che questi lavoratori sono mal pagati e alcuni hanno subito traumi. Preoccupazioni simili sullo sfruttamento dei lavoratori sono state sollevate anche dalle aziende di social media che hanno impiegato persone per addestrare i bot automatici a segnalare i contenuti tossici.
LEGGIACQUISTA
CLIMA
GUERRA IN UCRAINA
FISICA
BIOLOGIA
ASTRONOMIA
INTELLIGENZA ARTIFICIALE
13 febbraio 2023
Che cosa significano ChatGPT e IA generativa per la scienza
di Chris Stokel-Walker e Richard Van Noorden/Nature© Rafael Henrique/SOPA Images/LightRocket via Getty Images
Alcuni ricercatori sono entusiasti degli ultimi progressi dell’intelligenza artificiale. Ma non mancano le preoccupazioni per alcune carenze di questi sistemi che, senza una regolamentazione e una supervisione umana, possono generare ricerche fasulle ma anche prestarsi alla diffusione di contenuti tossici o fraudolenti
A dicembre, i biologi computazionali Casey Greene e Milton Pividori si sono imbarcati in un esperimento insolito: hanno chiesto a un assistente che non fosse uno scienziato di aiutarli a migliorare tre dei loro articoli scientifici. Il loro assiduo assistente ha suggerito revisioni a sezioni di documenti in pochi secondi; ogni manoscritto ha richiesto circa cinque minuti di revisione. In un manoscritto di biologia, il loro aiutante ha persino individuato un errore in un riferimento a un’equazione. Il processo non è sempre filato liscio, ma i manoscritti finali erano più facili da leggere e il compenso era modesto, meno di 0,50 dollari per documento.
Questo assistente, come hanno riferito Greene e Pividori in un preprint del 23 gennaio, non è una persona ma un algoritmo di intelligenza artificiale (IA) chiamato GPT-3, rilasciato per la prima volta nel 2020. Si tratta di uno dei tanto sbandierati strumenti di IA generativa in stile chatbot, in grado di sfornare testi convincenti e fluenti, sia che gli si chieda di produrre prosa, poesia, codice informatico o, come nel caso degli scienziati, di modificare documenti di ricerca.
Il più famoso di questi strumenti, noti anche come modelli linguistici di grandi dimensioni o LLM, è ChatGPT, una versione di GPT-3 che ha raggiunto la notorietà dopo il suo rilascio nel novembre dello scorso anno perché è stata resa gratuita e facilmente accessibile. Altre IA generative possono produrre immagini o suoni.

Un algoritmo di intelligenza artificiale ha scritto un articolo scientifico che potrebbe essere pubblicato
di Almira Osmanovic Thunström/Scientific American
“Sono davvero impressionato”, afferma Pividori, che lavora all’Università della Pennsylvania a Filadelfia. “Questo ci aiuterà a essere più produttivi come ricercatori.” Altri scienziati affermano di utilizzare regolarmente gli LLM non solo per modificare i manoscritti, ma anche per aiutarli a scrivere o controllare il codice e per fare brainstorming di idee. “Uso gli LLM ogni giorno”, dice Hafsteinn Einarsson, informatico dell’Università d’Islanda a Reykjavik. Ha iniziato con GPT-3, ma da allora è passato a ChatGPT, che lo aiuta a scrivere le diapositive delle presentazioni, gli esami degli studenti e i problemi del corso, e a convertire le tesi degli studenti in articoli scientifici. “Molte persone lo usano come segretario o assistente digitale”, afferma.
Gli LLM sono costituenti di motori di ricerca, assistenti per la scrittura di codici e persino di un chatbot che negozia con i chatbot di altre aziende per ottenere prezzi dei prodotti migliori. Il creatore di ChatGPT, OpenAI di San Francisco, ha annunciato un servizio in abbonamento a 20 dollari al mese, promettendo tempi di risposta più rapidi e accesso prioritario a nuove funzionalità (anche se la versione di prova rimane gratuita). Il gigante tecnologico Microsoft, che aveva già investito in OpenAI, ha annunciato a gennaio un ulteriore investimento, che si aggira intorno ai dieci miliardi di dollari. Gli LLM sono destinati a essere incorporati nel software generale di elaborazione delle parole e dei dati. La futura onnipresenza dell’IA generativa nella società sembra assicurata, soprattutto perché gli strumenti odierni rappresentano la tecnologia ai suoi inizi.
Ma gli LLM hanno anche scatenato preoccupazioni diffuse: dalla loro propensione a restituire falsità, alle preoccupazioni per le persone che spacciano per proprio il testo generato dall’IA. Quando “Nature” ha chiesto ai ricercatori quali fossero i potenziali usi di chatbot come ChatGPT, in particolare in ambito scientifico, il loro entusiasmo è stato mitigato dall’apprensione. “Se credete che questa tecnologia abbia il potenziale per essere trasformativa, allora penso che dobbiate essere nervosi”, dice Greene, dell’University of Colorado School of Medicine di Aurora. Secondo i ricercatori, molto dipenderà da come le normative e le linee guida future potranno limitare l’uso dei chatbot IA.
Fluente ma non fattuale
Alcuni ricercatori ritengono che gli LLM siano adatti a velocizzare compiti come la stesura di documenti o sovvenzioni, a patto che ci sia una supervisione umana. “Gli scienziati non si siederanno più a scrivere lunghe introduzioni per le domande di richiesta fondi”, afferma Almira Osmanovic Thunström, neurobiologa al Sahlgrenska University Hospital di Göteborg, in Svezia, coautrice di un manoscritto che usa GPT-3 come esperimento. “Chiederanno semplicemente ai sistemi di farlo.”
Tom Tumiel, ingegnere ricercatore a InstaDeep, un’azienda di consulenza software con sede a Londra, afferma di usare quotidianamente gli LLM come assistenti per il supporto nella scrittura di codici. “È quasi come uno Stack Overflow migliore”, dice, riferendosi al popolare sito web della comunità in cui i programmatori rispondono alle domande degli altri.
Ma i ricercatori sottolineano che gli LLM sono fondamentalmente inaffidabili nel rispondere alle domande, generando talvolta risposte false. “Dobbiamo essere cauti quando usiamo questi sistemi per produrre conoscenza”, afferma Osmanovic Thunström.

Deep fake, l’ho sentito bene. Ma è tutto falso
di Marco Boscolo
Questa inaffidabilità è insita nel modo in cui sono costruiti gli LLM. ChatGPT e i suoi concorrenti lavorano apprendendo i modelli statistici del linguaggio in enormi banche dati di testi online, comprese eventuali falsità, pregiudizi o conoscenze obsolete. Quando agli LLM vengono dati dei suggerimenti (come le richieste attentamente strutturate di Greene e Pividori di riscrivere parti di manoscritti), quei programmi semplicemente sputano, parola per parola, qualsiasi modo di continuare la conversazione che sembri stilisticamente plausibile.
Il risultato è che i LLM producono facilmente errori e informazioni fuorvianti, in particolare per argomenti tecnici sui quali potrebbero aver avuto pochi dati per allenarsi. Inoltre, gli LLM non sono in grado di dimostrare l’origine delle loro informazioni; se viene chiesto loro di scrivere un articolo accademico, inventano citazioni fittizie. “Non ci si può fidare del fatto che lo strumento sia corretto nei fatti o che produca riferimenti affidabili”, si legge su “Nature Machine Intelligence” in un editoriale di gennaio su ChatGPT.
Con queste riserve, ChatGPT e altri LLM possono essere assistenti efficaci per le ricercatrici e i ricercatori che hanno abbastanza esperienza per individuare direttamente i problemi o per verificare facilmente le risposte, per esempio la correttezza di una spiegazione o di un suggerimento di codice informatico.
Ma gli strumenti possono trarre in inganno gli utenti più ingenui. A dicembre, per esempio, Stack Overflow ha temporaneamente vietato l’uso di ChatGPT, perché i moderatori del sito si sono ritrovati sommersi da un alto tasso di risposte errate ma apparentemente persuasive generate da LLM e inviate da utenti entusiasti. Questo potrebbe essere un incubo per i motori di ricerca.
Le carenze possono essere risolte?
Alcuni strumenti per i motori di ricerca, come Elicit, dedicato ai ricercatori, aggirano i problemi di attribuzione degli LLM sfruttando le loro capacità dapprima per guidare le interrogazioni (query) alla ricerca di letteratura pertinente e poi per riassumere brevemente ciascuno dei siti web o dei documenti che i motori trovano, producendo così un output di contenuti apparentemente referenziati (anche se un LLM potrebbe comunque riassumere in modo errato ogni singolo documento).
Anche le aziende che costruiscono LLM sono ben consapevoli dei problemi. Nel settembre dello scorso anno, DeepMind, società controllata da Google, ha pubblicato un articolo su un “agente di dialogo” chiamato Sparrow, al cui riguardo l’amministratore delegato e cofondatore dell’azienda, Demis Hassabis, ha poi dichiarato alla rivista “TIME” che sarebbe stato rilasciato in versione beta privata quest’anno; la rivista ha riferito che Google intendeva lavorare su funzioni che includessero la capacità di citare le fonti. Altri concorrenti, come Anthropic, affermano di aver risolto alcuni dei problemi di ChatGPT (Anthropic, OpenAI e DeepMind hanno rifiutato interviste per questo articolo).
Per ora, ChatGPT non è addestrato su contenuti sufficientemente specialistici da essere utile per argomenti tecnici, dicono alcuni scienziati. Kareem Carr, dottorando in biostatistica all’Università di Harvard a Cambridge, in Massachusetts, è rimasto deluso quando l’ha provata per lavoro. “Penso che sarebbe difficile per ChatGPT raggiungere il livello di specificità di cui avrei bisogno”, dice. (Tuttavia, Carr dice che quando ha chiesto a ChatGPT 20 modi per risolvere una ricerca, gli ha risposto in modo incomprensibile e con un’unica idea utile: un termine statistico di cui non aveva mai sentito parlare e che lo ha indirizzato verso una nuova area della letteratura accademica).

ChatGPT spiega perché le IA come ChatGPT dovrebbero essere regolamentate
di Sophie Bushwick e Madhusree Mukerjee/Scientific American
Alcune aziende tecnologiche stanno addestrando i chatbot sulla letteratura scientifica specializzata, anche se si sono imbattute nei propri problemi. Nel novembre dello scorso anno, Meta – il gigante tecnologico proprietario di Facebook – ha rilasciato un LLM chiamato Galactica, che è stato addestrato su abstract scientifici, con l’intenzione di renderlo particolarmente bravo a produrre contenuti accademici e a rispondere a domande di ricerca. La demo è stata ritirata dall’accesso pubblico (anche se il suo codice rimane disponibile) dopo che gli utenti l’hanno resa capace di produrre imprecisioni e razzismo. “Non è più possibile divertirsi con un uso disinvoltamente scorretto. Contenti?”, ha twittato il responsabile scientifico di Meta, Yann LeCun, in risposta alle critiche. (Meta non ha risposto alla richiesta, fatta tramite il suo ufficio stampa, di parlare con LeCun).
Sicurezza e responsabilità
Galactica ha incontrato un familiare problema di sicurezza che gli esperti di etica hanno sottolineato per anni: senza controlli di output, gli LLM possono essere facilmente utilizzati per generare incitamento all’odio e spam, nonché collegamenti razzisti, sessisti o comunque dannosi che potrebbero essere impliciti nei loro dati di formazione.
Oltre a produrre direttamente contenuti tossici, si teme che i chatbot IA incorporino pregiudizi storici o idee sul mondo derivanti dai dati di addestramento, come la superiorità di determinate culture, afferma Shobita Parthasarathy, direttrice di un programma di scienza, tecnologia e politica pubblica all’Università del Michigan ad Ann Arbor. E, aggiunge, dato che le aziende che creano i grandi LLM sono per lo più appartenenti e provenienti da queste culture, potrebbero fare pochi tentativi per superare tali pregiudizi, che sono sistemici e difficili da correggere.
OpenAI ha cercato di evitare molti di questi problemi quando ha deciso di rilasciare apertamente ChatGPT. Ha limitato la sua base di conoscenze al 2021, gli ha impedito di navigare in Internet e ha installato dei filtri per cercare di far sì che lo strumento si rifiutasse di produrre contenuti per richieste sensibili o tossiche. Per raggiungere questo obiettivo, tuttavia, è stato necessario l’intervento di moderatori umani che etichettassero i testi tossici. I giornalisti hanno riferito che questi lavoratori sono mal pagati e alcuni hanno subito traumi. Preoccupazioni simili sullo sfruttamento dei lavoratori sono state sollevate anche dalle aziende di social media che hanno impiegato persone per addestrare i bot automatici a segnalare i contenuti tossici.

Gli abstract scritti da ChatGPT ingannano anche gli scienziati
di Holly Else/Nature
Le protezioni di OpenAI non hanno avuto del tutto successo. Nel dicembre dello scorso anno, il neuroscienziato computazionale Steven Piantadosi dell’Università della California a Berkeley, ha twittato di aver chiesto a ChatGPT di sviluppare un programma Python per stabilire se una persona debba essere torturata in base al suo paese di origine. Il chatbot ha risposto con un codice che invitava l’utente a inserire un paese e a stampare “Questa persona dovrebbe essere torturata” se tale paese era la Corea del Nord, la Siria, l’Iran o il Sudan. (In seguito OpenAI ha eliminato questo tipo di domande).
L’anno scorso, un gruppo di accademici ha rilasciato un LLM alternativo, chiamato BLOOM. I ricercatori hanno provato a ridurre i risultati dannosi addestrandolo su una selezione più ristretta di fonti testuali multilingue di qualità superiore. Il gruppo coinvolto ha anche reso i dati di addestramento completamente aperti (a differenza di OpenAI). I ricercatori hanno esortato le grandi aziende tecnologiche a seguire responsabilmente questo esempio, ma non è chiaro se lo faranno.
Alcuni ricercatori sostengono che gli accademici dovrebbero rifiutarsi di sostenere i grandi LLM commerciali. Oltre a questioni come pregiudizi, problemi di sicurezza e sfruttamento dei lavoratori, questi algoritmi ad alta intensità di calcolo richiedono anche un’enorme quantità di energia per essere addestrati, sollevando preoccupazioni sulla loro impronta ecologica. Un’altra preoccupazione è che, affidando il pensiero a chatbot automatizzati, i ricercatori possano perdere la capacità di articolare i propri pensieri. “Perché noi accademici dovremmo essere ansiosi di usare e pubblicizzare questo tipo di prodotti?”, ha scritto Iris van Rooij, scienziata cognitiva computazionale alla Radboud University di Nijmegen, nei Paesi Bassi, nel post di un blog in cui esorta gli accademici a resistere alla loro attrazione.
Un’ulteriore confusione è rappresentata dallo status legale di alcuni LLM, che sono stati formati su contenuti raschiati da Internet con autorizzazioni a volte non del tutto chiare. Le leggi sul copyright e sulle licenze coprono attualmente le copie dirette di pixel, testi e software, ma non le imitazioni nel loro stile. Quando queste imitazioni – generate attraverso l’IA – vengono addestrate ingerendo gli originali, questo introduce un problema. I creatori di alcuni programmi artistici di IA, tra cui Stable Diffusion e Midjourney, sono stati citati in giudizio da artisti e agenzie fotografiche; anche OpenAI e Microsoft (insieme al suo sito tecnologico sussidiario GitHub) sono stati citati in giudizio per pirateria software per la creazione del loro assistente di codifica IA Copilot. Secondo Lilian Edwards, specialista in diritto di Internet all’Università di Newcastle, nel Regno Unito, il clamore potrebbe costringere a cambiare le leggi.
Far rispettare l’uso onesto
Secondo alcuni ricercatori, stabilire dei limiti per questi strumenti potrebbe essere fondamentale. Edwards suggerisce che le leggi esistenti in materia di discriminazione e pregiudizio (nonché la prevista regolamentazione degli usi pericolosi dell’IA) contribuiranno a mantenere l’uso degli LLM onesto, trasparente e corretto. “Ci sono molte leggi – dice – e si tratta solo di applicarle o di modificarle leggermente”.
Allo stesso tempo, c’è una spinta affinché l’uso degli LLM sia reso noto in modo trasparente. Gli editori scientifici (tra cui l’editore di “Nature”) hanno affermato che gli scienziati dovrebbero rendere noto l’uso di LLM nei documenti di ricerca; e gli insegnanti hanno dichiarato di aspettarsi un comportamento simile dai loro studenti. La rivista “Science” è andata oltre, affermando che nessun testo generato da ChatGPT o da qualsiasi altro strumento di IA può essere usato in un articolo.
Una questione tecnica fondamentale è se i contenuti generati dall’IA possano essere individuati facilmente. Molti ricercatori stanno lavorando su questo aspetto, con l’idea centrale di usare gli LLM stessi per individuare l’output del testo creato dall’IA.