focus sull'innovazione.

Torna a precedente

Sam Altman sotto esame, il potere dell’IA e il problema della fiducia

Il caso OpenAI mostra quanto leadership, sicurezza e interessi economici pesino sul futuro dell’IA

Sam Altman sotto esame, il potere dell’IA e il problema della fiducia

Condividi

Sam Altman e OpenAI, l’inchiesta che riapre il tema della fiducia nella guida dell’intelligenza artificiale

L’intelligenza artificiale non è più un tema da convegno per addetti ai lavori. È già dentro l’economia, nella politica industriale, nei servizi digitali e perfino nelle discussioni sulla sicurezza nazionale. Per questo motivo l’ampia inchiesta pubblicata dal The New Yorker, firmata da Ronan Farrow e Andrew Marantz, non riguarda soltanto il profilo di un manager di successo, ma il modo in cui una parte crescente del nostro futuro viene affidata a pochi protagonisti della tecnologia. L’articolo ricostruisce la parabola di Sam Altman e torna sul terremoto interno che nel novembre 2023 lo portò prima all’estromissione da OpenAI e poi a un rientro rapidissimo ai vertici.

Un’inchiesta che riapre molte domande

Il lavoro del settimanale americano si basa su decine e decine di testimonianze, documenti interni e materiali mai resi pubblici in precedenza. Il risultato è un ritratto tutt’altro che rassicurante. Secondo l’inchiesta, diversi ex colleghi e persone che hanno lavorato con Altman lo descrivono come una figura difficile da decifrare, abile nel muoversi tra relazioni di potere, ma poco trasparente nelle comunicazioni. Il tema centrale, in sostanza, non è solo la sua personalità, ma la fiducia che un sistema così influente può meritare quando è guidato da una leadership contestata.

Il precedente del 2023 pesa ancora

La vicenda della sua rimozione da OpenAI continua a essere uno snodo decisivo. Nel comunicato ufficiale diffuso allora dall’azienda, il consiglio di amministrazione spiegò di aver perso fiducia nella sua capacità di guidare la società, sostenendo che non fosse stato costantemente sincero nelle comunicazioni con il board. Una formula molto pesante, soprattutto se riferita al capo di una realtà che ha un impatto globale e che ha sempre legato la propria immagine all’idea di sviluppare un’IA utile all’umanità.

Dalla sicurezza alla corsa al mercato

Uno dei punti più delicati riguarda la trasformazione di OpenAI. Nata con una missione pubblica e prudenziale, nel tempo l’organizzazione si è spostata verso una logica sempre più vicina al mercato, agli investitori e alla competizione con gli altri colossi del settore. Anche il newsletter del The New Yorker che accompagna l’inchiesta sottolinea proprio questo passaggio, ricordando come alcune promesse iniziali sulla sicurezza siano state progressivamente ridimensionate. È qui che il caso Altman diventa emblematico, perché la discussione non riguarda solo un amministratore delegato, ma il possibile conflitto tra tutela collettiva e pressione commerciale.

Le accuse e il peso dei rapporti personali

L’inchiesta richiama anche giudizi molto duri provenienti da figure centrali dell’ecosistema dell’IA. Tra queste c’è Ilya Sutskever, cofondatore di OpenAI e protagonista della crisi del 2023, così come emergono forti tensioni con ex dirigenti passati poi ad altre aziende del settore. In parallelo, vengono descritti i rapporti di Altman con investitori, alleati influenti e ambienti di potere, elementi che rafforzano l’idea di una leadership capace di consolidarsi anche nei momenti di maggiore fragilità interna. Non è un dettaglio secondario, perché quando una figura del genere controlla strumenti destinati a incidere sul lavoro, sull’informazione e sulle scelte pubbliche, ogni opacità diventa un fatto politico oltre che aziendale.

Perché il caso non riguarda solo la Silicon Valley

La parte forse più inquietante è quella che collega la figura di Altman agli effetti concreti dell’intelligenza artificiale nel presente. Farrow ha spiegato che i rischi non appartengono più alla fantascienza e che l’IA è già entrata in ambiti sensibili, inclusi quelli militari. Su questo sfondo pesano anche le cause legali che accusano OpenAI di aver contribuito, attraverso interazioni con ChatGPT, a gravi danni psicologici e in alcuni casi a suicidi e altri eventi estremi. Si tratta di accuse da verificare nelle sedi giudiziarie, ma il loro numero e la loro gravità bastano da soli a mostrare quanto il dibattito sull’IA non possa più essere trattato come semplice entusiasmo tecnologico.

Il vero nodo è chi governa il futuro

Alla fine, il punto più importante resta uno. Quando pochi sistemi di intelligenza artificiale diventano centrali per l’economia, per la produttività e per gli equilibri geopolitici, la questione della governance non può essere separata da quella della credibilità di chi li guida. Il caso Altman funziona allora come una lente d’ingrandimento su un passaggio storico più ampio. Non basta domandarsi quanto sarà potente l’IA nei prossimi anni. Bisogna anche chiedersi chi decide le priorità, quali interessi orientano le scelte e quanto spazio resta per i controlli indipendenti. Perché, in scenari come questi, il problema non è solo innovare in fretta, ma capire se la velocità stia correndo più della responsabilità.


Condividi

08 Aprile 2026
© I.CO.E. grippi associati
https://www.grippiassociati.com/focus.do?dettagli=sam-altman-sotto-esame&key=1775640402

focus sull'innovazione

Editoriale realizzato in collaborazione con la I.CO.E.
Centro studi su innovazione, comunicazione ed etica.

Copywriters
Francesca S., Matteo R., Laura A., Antonella B., Giorgio F., Anna C., Miriam M., Stefano G., Adele P., Francesca N. e Roberto C. Indice articoli


Precedente

grippi associati Live, Think, Work, Create!

grippi e associati
con il supporto tecnologico di
supporto Oracle OpenAI

QRcode grippiassociati
LANGUAGE

grippi associati ICT
Via Giosué Carducci, 10
00187 Roma IT
PI 14592991005
GoogleMap
Data Center: Via C. Pavese RM-EUR

30th Anniversary 1996–2026
© 1996, grippi associati ICT. Tutti i diritti sono riservati.