Reid Hoffmann, fondatore di LinkedIn, ed Elon Musk si rincontrano nel 2015 in una sala privata del Fuki Sushi a Palo Alto in California. Avevano già lavorato insieme a PayPal negli anni ‘90. Durante quella cena Musk menziona DeepMind, startup che invece di creare «sistemi esperti basati su una serie di istruzioni preprogrammate» stava costruendo «reti neurali per imitare il funzionamento del cervello umano». Musk decide allora di affidare a Hoffman il compito di diventare esperto di IA. Prende le mosse dal racconto di questo incontro a cena il saggio molto documentato di Gary Rivlin, I padroni dell’AI (Apogeo, pp. 283) nel quale il giornalista americano – corrispondente dalla Silicon Valley del New York Times sin dagli albori di internet negli anni Novanta e premio Pulitzer per le sue analisi approfondite sul mondo della tecnologia – condensa gran parte dei materiali raccolti sul campo tra interviste e inchieste. Egli è sicuramente un’autorità in materia di IA, per cui Il Timone lo ha intervistato in esclusiva.
Dottor Rivlin, chi sono i padri dell’IA e quali le loro principali scoperte in tale campo?

«Gli attuali maestri dell’IA non sono gli inventori originali della tecnologia, ma coloro che stanno cercando di capire come trarre profitto da questo momento, trasformando i progressi nell’apprendimento automatico – che addestra i sistemi su enormi quantità di libri, articoli, immagini e altri dati – in prodotti che rimodellino i settori industriali. In cima a questa lista c’è Sam Altman, cofondatore e CEO di OpenAI. Dopo aver lanciato ChatGPT nel novembre 2022, l’azienda si è spinta in molte direzioni: IA in grado di generare e modificare video, assistenti allo shopping, IA e ricerca, robotica e persino chip per computer personalizzati e un dispositivo hardware progettato per portare l’IA più direttamente nella vita quotidiana. Un’altra figura di spicco è Dario Amodei, che ha lasciato OpenAI per fondare Anthropic nel 2021. La sua azienda ha creato Claude (il mio preferito tra i chatbot basati su IA). Anthropic è nota per un approccio diverso, più incentrato sulla sicurezza, pur ponendosi all’avanguardia su ciò che tali sistemi possono fare. Vi è poi Demis Hassabis, a capo di Google DeepMind (la divisione dedicata all’IA), il quale ha vinto recentemente il Nobel per la Chimica per il suo lavoro sul ripiegamento delle proteine, dimostrando il potere dell’IA nella scienza. Oggi guida gli sforzi più ampi di Google per sviluppare un’IA sempre più potente e offrire un’ampia gamma di prodotti in materia, tra i quali il popolare chatbot Gemini, l’IA e i video e la ricerca basata sull’IA. Infine Mustafa Suleyman – cofondatore di DeepMind insieme ad Hassabis (Google ha acquistato DeepMind per 650 milioni di dollari nel 2014) – dirige ora Microsoft AI, dove sta contribuendo a orientare l’enorme scommessa dell’azienda d’integrazione dell’IA nei suoi software e servizi. Emerge dunque quanto Google e Microsoft rimangano centrali in questa corsa».
Quali innovazioni costoro auspicano di portare all’umanità?
«L’elenco sarebbe lungo, ma i tre ambiti in cui intravedo le maggiori promesse sono scienza, assistenza sanitaria e istruzione. In medicina l’IA potrebbe accelerare la ricerca di nuove terapie, migliorare le diagnosi e aiutare i medici a personalizzare i trattamenti. I ricercatori l’hanno già utilizzata per mappare le proteine, i mattoni della vita, in modi che potrebbero portare a farmaci più efficaci. I sistemi hanno imparato a rilevare malattie da immagini mediche o persino dal suono della voce di un paziente e ci sono i primi tentativi di aiutare le persone paralizzate a camminare di nuovo creando un “ponte digitale” tra cervello e midollo spinale. Alcuni, come Dario Amodei, prevedono addirittura che potremo curare la maggior parte dei tumori e alla fine raddoppiare la durata della vita umana. Anche se è troppo ambizioso, i risultati finora conseguiti suggeriscono già che tali progressi siano plausibili. Anche il ruolo dell’IA nella scienza in senso più ampio è incoraggiante. Questi sistemi possono setacciare enormi quantità di ricerche ed evidenziare modelli interdisciplinari, mediante connessioni che nessuno scienziato potrebbe creare da solo. Questo potrebbe aiutarci a comprendere meglio problemi complessi come l’Alzheimer o a fornire allerte tempestive su uragani, terremoti e perdite pericolose, quali le fughe radioattive. L’IA viene utilizzata anche per ridurre gli sprechi energetici: Google, ad esempio, ha ridotto di circa il 40% l’energia necessaria per raffreddare i suoi data center grazie all’IA e i parchi eolici stanno imparando a distribuire l’energia in modo più efficiente. Anche nell’istruzione il potenziale è sorprendente. I tutor di IA possono adattare le lezioni alle esigenze dei singoli studenti, aiutare gli insegnanti a correggere i compiti e offrire lezioni individuali su larga scala. Uno studio condotto in Nigeria ha rilevato che sei settimane di tutoraggio di IA dopo la scuola hanno prodotto miglioramenti nell’apprendimento pari a due anni di scuola tradizionale».
Quali sfide etiche Lei ritiene ponga lo sviluppo dell’IA?
«Non mancano le sfide etiche, quelle che abbiamo davanti agli occhi, non quelle dei robot con gli occhi laser che soggiogano l’umanità come nella fantascienza. L’IA sta già rendendo più facile ingannare e manipolare le persone. Deepfake, voci false e testi generati dall’IA possono essere utilizzati per truffe, disinformazione o per influenzare le opinioni politiche. Questi sistemi possono essere sorprendentemente persuasivi e non abbiamo ancora capito come difenderci. Nelle mani sbagliate gli stessi strumenti utilizzati per accelerare la scoperta di farmaci potrebbero essere utilizzati per progettare nuove armi biologiche o potenziare la criminalità informatica. Un’altra sfida etica riguarda il potere e il controllo. Attualmente un’élite di giganti della tecnologia domina il settore, spendendo decine di miliardi di dollari l’anno per sviluppare modelli sempre più sofisticati. Ciò solleva seri interrogativi sulla responsabilità, l’equità e se i benefici saranno ampiamente condivisi o non faranno altro che rafforzare le disuguaglianze esistenti. Anche la tecnologia stessa presenta problemi: la distorsione dei data training di un modello di apprendimento automatico, ad esempio, può portare a risultati iniqui in settori come le assunzioni, i prestiti o la giustizia penale».
A livello geopolitico, dietro la corsa multimiliardaria all’IA, pare si adombri la volontà di un controllo globale. Quali contromisure ritiene sia necessario introdurre per tentare di arginare o almeno regolamentare il fenomeno?
«Sul piano geopolitico la corsa all’IA è in parte una questione di denaro, date le centinaia di miliardi investiti nel settore – aziende e nazioni che si affannano per trarre profitto da quella che ritengo sarà la tecnologia più rivoluzionaria della nostra era – ma anche di potere. Chiunque domini l’IA potrebbe finire per avere un’enorme influenza sull’economia, sulla potenza militare e persino sulla cultura. Di qui urgono regole che impediscano che venga utilizzata impropriamente per la sorveglianza, la guerra o per prendere decisioni che incidano sulla vita umana. L’IA può essere uno strumento, ma non dovrebbe mai essere responsabile di qualcosa che comporti conseguenze di vita o di morte. Oggi le aziende parlano di fiducia e sicurezza, ma quando queste preoccupazioni si scontrano con la spinta a lanciare il prossimo prodotto, le priorità commerciali prendono il sopravvento. Non possiamo lasciare tutto questo solo alla Silicon Valley o a Pechino. Abbiamo bisogno di qualcosa di più vicino ai quadri internazionali che già abbiamo in altri settori sensibili, come l’Agenzia Internazionale per l’Energia Atomica per la supervisione nucleare o l’OMS per la salute pubblica. Ci sono stati piccoli primi passi verso la cooperazione internazionale sull’IA, ma dobbiamo consolidarli e includere voci da tutto il mondo, non solo dalle grandi potenze. Senza barriere di sicurezza condivise la corsa all’IA rischia di trasformarsi in una competizione in cui velocità e profitto contano più di sicurezza ed equità. Questo, in definitiva, è uno degli argomenti centrali del mio saggio: il pericolo maggiore dell’IA non è uno scenario fantascientifico di macchine senzienti, ma le scelte fin troppo umane che vengono prese nel mezzo di questa corsa all’oro. Ciò che mi preoccupa dell’IA sono gli esseri umani, non la tecnologia».
Corsa all’IA, rischiano di vincerla i soliti noti
«Volevo credere nella decantata macchina delle startup della Valley e nella sua capacità di dare vita alle aziende da un trilione di dollari del futuro. Tuttavia, immergendomi nel mondo delle startup AI poco dopo il lancio di ChatGPT, mi rassegnai a un mondo in cui a dominare l’AI generalità erano sempre i soliti sospetti (Microsoft, Google, Meta, Nvidia e pochi altri). Temo che gli stessi giganti tech ad aver rovinato la tecnologia negli anni 2010 possano ripetersi con l’AI generativa. Molte startup di AI stavano lavorando a prodotti che avevano il potenziale per cambiare il mondo, ma fallivano perché non avevano le ampie riserve di denaro di cui godevano i loro competitor più grandi».
Fonte: Il Timone (dicembre 2025)