Intelligenza artificiale, che cosa c’è dietro le voci di un nuovo modello Q* di OpenAI

28/11/2023 12:12
Intelligenza artificiale, che cosa c’è dietro le voci di un nuovo modello Q* di OpenAI
Sam Altman, Ceo OpenAI

Voci non confermate riportano che la scoperta è nuovo modello in grado di risolvere problemi di matematica delle scuole elementari. Detta così, potrebbe sembrare poca cosa. Ma invece potrebbe aprire la strada a sistemi più potenti. L’analisi del MIT Technology Review

Dopo i drammatici eventi della scorsa settimana in OpenAI, si sono scatenate le congetture più diverse sul perché il direttore scientifico dell'azienda, Ilya Sutskever, e il suo Consiglio di amministrazione abbiano deciso di estromettere l'amministratore delegato Sam Altman. Secondo Melissa Heikkiläa, che ha analizzato la questione per il magazine della prestigiosa università americana MIT Technology Report, sebbene non si conoscano ancora tutti i dettagli, sembra che i ricercatori di OpenAI abbiano fatto una scoperta nell'IA che aveva allarmato i membri del Consiglio: un nuovo modo per creare potenti sistemi di IA e un nuovo modello, chiamato Q* (pronunciato Q star), in grado di eseguire calcoli a livello di scuola elementare. Secondo le fonti di Reuters, alcuni membri di OpenAI ritengono che questa potrebbe essere una pietra miliare nella ricerca di un'intelligenza artificiale generale, un concetto molto pubblicizzato che si riferisce a un sistema di IA più intelligente degli esseri umani. L'azienda non ha voluto commentare Q*.

La Heikkiläa ha voluto approfondire la questione, avvalendosi di alcuni esperti per capire quanto tutto ciò sia importante per un'eventuale svolta nella matematica e nell'IA.

I problemi matematici

Da anni i ricercatori cercano di far sì che i modelli di IA risolvano i problemi matematici. Modelli linguistici come ChatGPT e GPT-4 possono fare un po' di matematica, ma non molto bene o in modo affidabile. Attualmente non disponiamo degli algoritmi e nemmeno delle architetture giuste per poter risolvere i problemi matematici in modo affidabile utilizzando l'IA, afferma Wenda Li, docente di IA presso l'Università di Edimburgo. Quello che usano i modelli linguistici sono il deep learning e i trasformatori (un tipo di rete neurale), e questi sono eccellenti nel riconoscere gli schemi, ma questo da solo probabilmente non è sufficiente, aggiunge la Li.

La matematica è un punto di riferimento per il ragionamento, dice Li. Una macchina in grado di ragionare sulla matematica potrebbe, in teoria, imparare a svolgere altri compiti che si basano su informazioni esistenti, come scrivere codice informatico o trarre conclusioni da un articolo di cronaca. La matematica è una sfida particolarmente ardua perché richiede che i modelli di IA abbiano la capacità di ragionare e di comprendere realmente ciò con cui hanno a che fare.

Verso sistemi di IA più potenti

Un sistema di intelligenza artificiale generativa in grado di svolgere in modo affidabile i compiti matematici dovrebbe avere una padronanza molto solida delle definizioni concrete di particolari concetti che possono diventare molto astratti. Molti problemi matematici richiedono anche un certo livello di pianificazione in più fasi e molti temono che tali capacità possano portare a un'IA disonesta. I problemi di sicurezza potrebbero sorgere se a questi sistemi di IA venisse permesso di fissare i propri obiettivi e di iniziare a interfacciarsi in qualche modo con un mondo fisico o digitale reale.

Ma anche se le capacità matematiche potrebbero farci fare un passo avanti verso sistemi di IA più potenti, la soluzione di questo tipo di problemi matematici non segna la nascita di una superintelligenza. "Non credo che ci porti immediatamente all'IA o a situazioni spaventose", ha dichiarato Katie Collins, phd researcher all’Università di Cambridge, "Risolvere problemi matematici di scuola elementare è molto, molto diverso dallo spingere i confini della matematica al livello di ciò che può fare un vincitore della medaglia Fields", dice, riferendosi al massimo premio di matematica.

Alcuni modelli di IA falliscono attualmente in problemi matematici molto semplici, ma poi possono eccellere in problemi molto difficili, dice la Collins. OpenAI, ad esempio, ha sviluppato strumenti dedicati in grado di risolvere problemi impegnativi posti nelle competizioni per i migliori studenti di matematica delle scuole superiori, ma questi sistemi superano gli esseri umani solo occasionalmente.

Tuttavia, la costruzione di un sistema di intelligenza artificiale in grado di risolvere le equazioni matematiche è uno sviluppo interessante, se questo è effettivamente ciò che Q* può fare. Una comprensione più approfondita della matematica potrebbe aprire applicazioni per aiutare la ricerca scientifica e l'ingegneria, per esempio. La capacità di generare risposte matematiche potrebbe aiutarci a sviluppare un tutoraggio personalizzato migliore, o aiutare i matematici a fare l'algebra più velocemente o a risolvere problemi più complicati.

Non è nemmeno la prima volta che un nuovo modello scatena l'entusiasmo per l'intelligenza generale artificiale. La Heikkiläa ricorda che solo l'anno scorso, i tecnici dicevano le stesse cose di Gato di Google DeepMind, un modello di intelligenza artificiale "generalista" in grado di giocare con i videogiochi Atari, di scrivere didascalie sulle immagini, di chattare e di impilare blocchi con un vero braccio robotico. All'epoca, alcuni ricercatori di IA sostenevano che DeepMind fosse "sull'orlo" dell'IA grazie alla capacità di Gato di fare bene così tante cose diverse. Stessa macchina da urlo, laboratorio di IA diverso.

E sebbene possa essere un'ottima pubblicità, questi cicli di euforia fanno più male che bene all'intero settore, sottolinea l’editorialista di MIT Technology Review, perché distraggono le persone dai problemi reali e tangibili dell'IA. “Il Consiglio di amministrazione di OpenAI è stato concepito come un meccanismo di controllo interno dell'azienda per evitare il lancio di tecnologie dannose. Il dramma della settimana scorsa in seno al consiglio ha dimostrato che in queste aziende prevarrà sempre il profitto. E renderà anche più difficile dimostrare perché si debba affidare a loro l'autoregolamentazione. Legislatori, prendete nota” è la sua conclusione.


Informativa Privacy  -  Informativa Cookie