Ora che è rientrato, non si capisce ancora perché Sam Altman sia stato cacciato da OpenAI

di Adam Clark, Barron’s 24/11/2023 17:02
Ora che è rientrato, non si capisce ancora perché Sam Altman sia stato cacciato da OpenAI

Dietro l’improvvisa e breve defenestrazione, c’è una crescente preoccupazione per le minacce dell'Intelligenza artificiale all'umanità?

Sam Altman sembra destinato a tornare trionfalmente in OpenAI, ma ci si chiede ancora perché sia stato licenziato dalla start-up di intelligenza artificiale. L'attenzione si concentra sul fatto che un disaccordo sulla sicurezza della sua tecnologia di intelligenza artificiale abbia portato a una svolta.

I precedenti membri del Consiglio di amministrazione di OpenAI non hanno rivelato pubblicamente il motivo per cui hanno scelto di licenziare Altman la scorsa settimana e nessun altro - compreso il principale finanziatore della società, Microsoft- ha fornito una spiegazione chiara.

Sebbene il ritorno provvisorio di Altman e l'abbandono della maggioranza del precedente consiglio possano appianare la situazione, rimane una domanda che deve ancora trovare risposta: perché era stato licenziato?

La spiegazione iniziale fornita dal precedente consiglio era solo che Altman non era stato "costantemente sincero" nelle sue comunicazioni. Sebbene le prime speculazioni abbiano collegato questo fatto alle notizie secondo cui stesse esplorando iniziative esterne nel campo dell'hardware e dei chip, la mancanza di dettagli concreti suggerisce che la causa potrebbe essere più profonda.

Prima del licenziamento

"Pensiamo che ciò dia credito alla tesi che il consiglio di OpenAI sia stato motivato da una differenza filosofica fondamentale tra loro e la spinta alla commercializzazione voluta da Altman", ha scritto Frederick Havemeyer, analista di Macquarie, in una nota di ricerca.

Prima del licenziamento di Altman, i ricercatori di OpenAI hanno scritto una lettera al consiglio in cui lo si metteva in guardia su un progetto interno denominato Q*, o Q-Star, che potrebbe rappresentare una svolta nei tentativi di creare un'intelligenza artificiale generale – ovvero un'IA in grado di superare gli esseri umani in una serie di campi – e sul potenziale pericolo di tale tecnologia, ha riferito giovedì la Reuters, citando fonti a conoscenza della questione.

OpenAI non ha risposto immediatamente a una richiesta di commento sul rapporto.

Vale la pena di prendere con le molle le affermazioni sui grandi balzi dell'intelligenza artificiale. L'anno scorso Google ha licenziato un ingegnere che aveva affermato che un sistema di IA non ancora rilasciato era diventato senziente, dotato di sensibilità. Sebbene il Bard di Google sia un concorrente nella guerra dei chatbot, pochi direbbero che i prodotti di IA dell'azienda mostrano ora segni di senzienza.

Tuttavia, sembra che il rapido ritmo di sviluppo dell'IA sia stato probabilmente al centro della disputa tra il precedente consiglio e Altman. Come riporta il New York Times, citando alcune mail, l'ex membro del consiglio Helen Toner si è scontrata con Altman a causa di un documento di ricerca di cui è stata coautrice che sembrava criticare gli sforzi di OpenAI per mantenere sicura la sua tecnologia AI.

Se alla fine venisse confermato che la priorità di Altman alla commercializzazione dell'IA è stata la ragione del suo licenziamento, questo sarebbe probabilmente positivo per gli investitori di OpenAI, tra cui Microsoft, che sono anche interessati a vedere la tecnologia monetizzata il più rapidamente possibile. Tuttavia, non servirà a rassicurare i sostenitori di una decelerazione o di un approccio più lento al progresso dell'IA.

E anche la struttura non profit di OpenAI rimarrà un problema, poiché l'azienda ha il compito di supervisionare l'equilibrio tra business e sicurezza.


Informativa Privacy  -  Informativa Cookie