Il padre dell’intelligenza artificiale denuncia i rischi di una tecnologia fuori controllo: “Non stiamo parlando di fantascienza, ma di un reale pericolo” avverte Hinton.

“C’è una probabilità del 10-20% che entro i prossimi trent’anni l’intelligenza artificiale provochi l’estinzione dell’umanità”. Con queste parole Geoffrey Hinton, scienziato anglo-canadese e uno dei padri dell’IA, ha lanciato un avvertimento inquietante. La sua recente dichiarazione, riportata da The Guardian, non lascia spazio a fraintendimenti: i rischi legati all’intelligenza artificiale non appartengono più al regno della fantascienza, ma rappresentano una minaccia concreta per la sopravvivenza della nostra specie. Hinton, insignito del Premio Nobel per la Fisica nel 2024 grazie ai suoi studi rivoluzionari sulle reti neurali, ha evidenziato come l’evoluzione dell’IA stia avanzando a un ritmo tale da superare la capacità umana di comprenderla e controllarla. “Non stiamo parlando di ipotesi remote, ma di scenari concreti che richiedono una riflessione seria e immediata”, ha dichiarato. Questo monito proviene da una delle menti più brillanti del nostro tempo, che ha contribuito in modo determinante allo sviluppo dei sistemi di intelligenza artificiale.

L’impatto potenziale è enorme e potrebbe compromettere non solo la sicurezza informatica, ma anche l’equilibrio geopolitico, con conseguenze irreversibili. Questo scenario sottolinea l’urgenza di una regolamentazione adeguata e di un controllo responsabile su tecnologie tanto promettenti quanto pericolose. Geoffrey Hinton, che si attesta come una delle voci più autorevoli nel dibattito, continua a sollevare questioni fondamentali sul rapporto tra innovazione tecnologica e responsabilità etica. “È molto più interessato ai profitti che alla sicurezza”, ha dichiarato, riferendosi a Sam Altman, CEO di OpenAI, durante una conferenza stampa riportata da TechCrunchNel 2023, lo scienziato, all’epoca settantacinquenne, aveva lasciato il suo ruolo in Google per poter esprimere liberamente le sue preoccupazioni sui rischi legati all’intelligenza artificiale. “Me ne sono andato per poter parlare dei suoi pericoli”, aveva scritto in un tweet, confermando la notizia riportata dal New York Times. Durante il decennio trascorso presso il colosso tecnologico, Geoffrey Hinton aveva lavorato part-time su progetti di sviluppo dell’IA, contribuendo significativamente alla creazione dei sistemi che oggi alimentano numerosi prodotti. Tuttavia, con il progressivo avanzamento della tecnologia, aveva iniziato a nutrire dubbi sul proprio ruolo nel facilitarne la crescita. “Mi consolo con la solita scusa: se non l’avessi fatto io, l’avrebbe fatto qualcun altro”, aveva ammesso con una punta di rammarico. Tornando al presente, il Premio Nobel per la Fisica ha recentemente sottolineato che i moderni chatbot, inclusi quelli basati su GPT-4, hanno già superato gli esseri umani in termini di conoscenza generale e dimostrano capacità di ragionamento semplice. “Con il ritmo attuale dei progressi, i miglioramenti saranno rapidi. Dobbiamo preoccuparcene”, ha dichiarato durante un’intervista alla BBC. Secondo Hinton, il rischio più grande risiede nell’imprevedibilità di un’IA avanzata, capace di sviluppare obiettivi propri, potenzialmente indipendenti da quelli umani. “Il pericolo non è tanto che ci odino, ma che ci ignorino”, ha avvertito.

Nel frattempo, la corsa allo sviluppo dell’IA generativa stimola nuovi progetti, tra cui robot avanzati progettati per sembrare umani. Elon Musk ha annunciato che entro il 2050 potrebbero essere prodotti fino a tre miliardi di unità per applicazioni industriali, domestiche e sanitarie, come riportato dal Financial Times. “Dobbiamo creare tecnologie che migliorino la vita, non che la compromettano”, ha ribadito Musk durante il Summit All-In del 2024, sottolineando l’importanza di standard di sicurezza rigorosi. Un esempio concreto dei progressi tecnologici è rappresentato da Optimus, il robot umanoide sviluppato da Tesla, una delle società di Elon Musk. Equipaggiato con una rete neurale avanzata, è in grado di scalare colline, superare ostacoli in autonomia ed elaborare informazioni in millisecondi. Grazie ai suoi 40 attuatori elettromeccanici, il robot può muovere con precisione e fluidità diverse parti del corpo, garantendo una vasta gamma di movimenti e una notevole capacità di adattarsi a compiti complessi. Tesla prevede di completare il software entro il 2026, aprendo così la strada alla produzione su larga scala. Tuttavia, questo progresso solleva interrogativi sul futuro del lavoro umano. In un primo momento, questi robot, a causa degli elevati costi di produzione, potrebbero essere accessibili solo a grandi aziende o a individui benestanti, rischiando di ampliare il divario economico tra ricchi e poveri. Uno scenario che pone l’urgenza di ripensare i meccanismi di redistribuzione della ricchezza, poiché automazione e IA potrebbero concentrare ulteriormente i benefici economici nelle mani di un’élite ristretta.

Parallelamente, si riflette anche sul cambio di rotta di OpenAI, ormai trasformata in un’entità a scopo di lucro, scelta che Geoffrey Hinton ha aspramente criticato. “Era stata concepita come una no-profit con un focus esplicito sulla sicurezza”, ha dichiarato in un comunicato diffuso da Encode. “Consentire questa trasformazione invia un segnale preoccupante agli altri attori dell’ecosistema”, ha concluso lo scienziato. Elon Musk ha intrapreso una battaglia legale contro questa transizione, definendola un “tradimento dei principi filantropici”. Per rafforzare la sua posizione, ha stretto un’alleanza proprio con Encode, il gruppo no-profit che condivide la visione di un’IA al servizio dell’umanità e non subordinata al profitto. OpenAI ha difeso la propria decisione, affermando che il cambiamento è indispensabile per garantire i finanziamenti necessari allo sviluppo di un’Intelligenza Artificiale Generale (AGI) in grado di apportare benefici all’intera umanità. “La nostra struttura deve evolversi per affrontare le sfide future”, ha spiegato il CEO Sam Altman.

Le preoccupazioni sollevate da Hinton e da altri esperti svelano una realtà intricata: il confine tra progresso e pericolo non è mai stato così sottile, richiedendo una riflessione condivisa sul futuro dell’intelligenza artificiale e le sue conseguenze. Se da un lato l’IA rappresenta un’opportunità straordinaria, dall’altro incombe il rischio che si trasformi in una minaccia esistenziale. La questione fondamentale non riguarda solo come gestire questa tecnologia, ma quale visione del futuro intendiamo costruire. In un mondo sempre più dominato dalla tecnologia, è inevitabile chiederci: dov’è finita la nostra anima? La sfida principale non consiste solo nel governare una macchina che evolve a velocità vertiginosa, ma nel salvaguardare ciò che ci distingue come esseri umani. Il progresso è inevitabile, ma il modo in cui scegliamo di utilizzarlo è interamente nelle nostre mani. Non si tratta solo di cosa l’IA potrà fare, ma di chi diventeremo quando avrà realizzato ciò che le avremo concesso.

Lara Ballurio
giornalista