Skip to content Skip to footer

L’evoluzione dell’AI verso l’AGI e oltre: proiezioni dal 2025 in poi

L’Intelligenza Artificiale Generale viene definita come un sistema AI in grado di eguagliare le capacità cognitive umane in tutti i domini, adattandosi a compiti nuovi e complessi con la stessa versatilità di una persona. Si distingue nettamente dall’AI “ristretta” odierna, progettata per eccellere in compiti specifici (come il riconoscimento immagini o la traduzione) ma priva di una comprensione generale. Il passo successivo all’AGI sarebbe l’Intelligenza Superintelligente, ossia sistemi ancora più capaci dell’AGI, che superano di gran lunga le performance umane in ogni ambito cognitivo. Al 2025, non esistono ancora AGI pienamente realizzate, ma i progressi recenti suggeriscono che siamo sulla soglia di questa trasformazione epocale. I modelli linguistici di grandi dimensioni come GPT-4o e 4.5 di OpenAI hanno mostrato abilità sorprendenti in linguaggio, codice e ragionamento in contesti circoscritti, segnalando l’avvicinarsi di un’intelligenza più generale. Tuttavia, questi sistemi restano “passivi” e con importanti lacune rispetto all’intelligenza umana: mancano ancora di vera comprensione contestuale, ragionamento profondo, memoria a lungo termine e capacità di pianificazione gerarchica. In breve, l’AGI non è ancora qui, ma mai come ora sembra a portata di mano.

Il dibattito sul quando raggiungeremo l’AGI è acceso. Visioni contrapposte: da un lato vi sono esperti ottimisti che parlano di pochi anni, dall’altro voci più caute che prevedono un percorso più lungo. I leader delle principali aziende AI si sono espressi pubblicamente sul tema, offrendo stime temporali divergenti. Ad esempio, Sam Altman (CEO di OpenAI) ha suggerito che l’AGI potrebbe arrivare nel “futuro non troppo lontano”, accennando addirittura che potrebbe essere questione di “qualche migliaio di giorni”. Demis Hassabis (CEO di Google DeepMind) mantiene invece un approccio più misurato: pur riconoscendo i progressi straordinari dell’ultimo decennio, egli stima che serviranno ancora “diversi anni” di ricerca – probabilmente 5-10 anni – prima di vedere le prime forme di AGI). Altri, come Dario Amodei (CEO di Anthropic), sono persino più audaci nelle previsioni: Amodei si aspetta che sistemi AI capaci di superare gli esseri umani in quasi tutti i compiti possano emergere nel giro di due o tre anni, quindi potenzialmente già entro il 2027. All’estremo opposto, figure come Yann LeCun (chief scientist di Meta) e il giovane CEO francese Arthur Mensch (Mistral AI) esprimono scetticismo verso le timeline aggressive sull’AGI. LeCun sostiene che gli approcci correnti (basati in gran parte su LLM generativi) non basteranno da soli a raggiungere un’intelligenza di livello umano, invocando nuove architetture e concetti prima di poter parlare davvero di AGI. Mensch addirittura rigetta il concetto stesso di AGI come una sorta di “ossessione quasi religiosa”: «Tutta la retorica sull’AGI riguarda la creazione di Dio… non credo in Dio, quindi non credo nell’AGI» ha dichiarato, prendendo le distanze dalle previsioni di colleghi come Musk o Altman che parlano di AI destinate a superare l’uomo.

In questo articolo sviluppiamo una proiezione cronologica dal 2025 in avanti, anno per anno, del possibile percorso evolutivo che condurrà all’AGI e successivamente all’ASI. Ogni tappa temporale integra sia elementi tecnologici (progresso di modelli, algoritmi e hardware) sia teorici (concetti, sfide scientifiche, idee su come colmare il divario con l’intelligenza umana). Le previsioni sono basate su dichiarazioni autorevoli – provenienti dai leader di OpenAI, DeepMind, Anthropic, Mistral, Meta, Google, Microsoft, Amazon e altri – e su scenari ragionati estrapolati dalle tendenze attuali. Pur trattandosi di visioni per lo più speculative, molte di queste sono ancorate a annunci ufficiali e roadmap pubbliche rese note fino ad oggi.

2025: Verso agenti sempre più generali

Stato dell’arte e primi segnali di AGI. All’alba del 2025, l’intelligenza artificiale è già profondamente integrata nella società: assistenti virtuali, modelli conversazionali e sistemi di visione artificiale hanno raggiunto livelli prima impensabili. Tuttavia, si tratta ancora di AI “strette” specializzate. Il 2025 è visto da molti come un anno cruciale di transizione, in cui gli AI iniziano a mostrare capacità più generali. Jeetu Patel, dirigente di Cisco, ha previsto che già nel 2025 avremo i primi segnali concreti di AGI emergere dai sistemi AI. Ci si attende infatti il debutto di modelli di nuova generazione: OpenAI potrebbe presentare ulteriori evoluzioni (come l’ipotetico GPT-5), mentre Google DeepMind evolve incessantemente il proprio “Gemini”, una suite di modelli avanzati descritta come multimodale e più potente dei modelli di OpenAI. Queste nuove AI promettono non solo dialoghi più fluidi, ma anche capacità di ragionamento e pianificazione nettamente migliorate, avvicinandosi ai requisiti di un’AGI. Sam Altman di OpenAI ha lasciato intendere che l’azienda sta già lavorando a sistemi prototipali (definiti talvolta “agenti AI”) con iniziali capacità di ragionamento di livello umano; secondo Altman, l’arrivo delle prime versioni di questi agenti potrebbe essere “osservabile nei prossimi anni”, quindi potenzialmente entro lo stesso 2025. In altre parole, OpenAI è “fiduciosa di sapere come costruire un’AGI” e intende procedere gradualmente: i prodotti iniziali non saranno subito AGI complete, ma fungeranno da step evolutivi verso di essa.

Approccio cauto e ricerca fondativa. Parallelamente all’entusiasmo, vi è prudenza tra i pionieri del settore. Demis Hassabis (Google DeepMind) – pur ottimista sul lungo termine – esclude che una vera AGI possa essere raggiunta nel 2025. In un’intervista a inizio anno, Hassabis ha ribadito che le attuali AI sono potenti ma presentano ancora attributi mancanti (per esempio, la capacità di contestualizzare situazioni reali, il ragionamento logico robusto, la memoria estesa oltre il breve termine. Google DeepMind continua a investire nella ricerca di base per colmare questi gap: Hassabis enfatizza lo sviluppo di “world models” (modelli del mondo) avanzati, volti a dare all’AI una comprensione più profonda del contesto reale, e il loro intreccio con algoritmi di pianificazione sofisticati. Un esempio concreto sono gli esperimenti multi-agente: nel 2025 DeepMind rivela progressi nell’addestrare sistemi a giocare in cooperazione giochi strategici complessi come StarCraft II, dove più agenti AI comunicano e collaborano per raggiungere obiettivi comuni. Questo paradigma serve da banco di prova per l’interazione sociale fra intelligenze artificiali, ritenuta cruciale per un futuro AGI capace di coordinare molteplici compiti. Sul fronte teorico, si consolidano anche approcci alternativi: Meta (Facebook) esplora l’idea di “Joint Embedding Predictive Architecture” (JEPA) proposta da Yann LeCun, che punta a superare i limiti del semplice generare testo, cercando di far apprendere alle macchine una sorta di buon senso sul funzionamento del mondo. L’idea di LeCun è che il futuro dell’AI “non sarà generativo” nel senso attuale: per raggiungere intelligenza di livello umano, le macchine dovranno comprendere il mondo, ricordare e pianificare, non solo predire parole. In sintesi, il 2025 vede coesistere lancio di sistemi AI sempre più potenti e ricerca sulle fondamenta dell’intelligenza: entrambi i filoni preparano il terreno per le svolte attese nel resto del decennio.

2026: Soglia della generalità e primi agenti autonomi

Entrando nel 2026, gli avanzamenti cumulativi iniziano a dare frutti tangibili. Le AI di ultima generazione sono ora capaci di generalizzare meglio le conoscenze: non di rado un modello addestrato per conversare e programmare mostra competenze emergenti anche in domini mai esplicitamente affrontati (ad esempio, risolvere problemi logici o giocare a videogiochi strategici) grazie a tecniche di transfer learning. Questo anno potrebbe assistere alla comparsa dei primi agenti AI semi-autonomi impiegati sperimentalmente in contesti reali. Immaginiamo assistenti personali potenziati: non più legati a semplici comandi vocali, ma in grado di prendere iniziative limitate, concatenando una serie di azioni per svolgere un compito complesso assegnato dall’utente (come organizzare un viaggio, gestire un’agenda piena di vincoli o condurre ricerche incrociando fonti in rete). Già nel 2025 si era intravista questa tendenza, nel 2026 tali agenti sono notevolmente migliorati, grazie a memorie estese e migliori capacità di pianificazione gerarchica. Dal punto di vista teorico, ciò riflette progressi nel dotare le AI di una sorta di “memoria di lavoro” più ampia e meccanismi di reasoning più affidabili. Un risultato concreto atteso è la risoluzione di compiti che richiedono ragionamenti multi-step senza intervento umano: ad esempio, risolvere problemi matematici o di programmazione complessi scomponendoli in sottoproblemi in autonomia.

Le aziende leader forniscono indicazioni miste sulle prospettive immediate. Elon Musk, che nel frattempo ha co-fondato una nuova impresa (xAI) focalizzata su AI avanzata, ha a più riprese lanciato moniti sul rapido avvicinarsi dell’AGI. Musk è fra coloro che non escludono uno scenario accelerato: in alcune dichiarazioni pubbliche ha ipotizzato che l’avvento di un’AGI potrebbe avvenire già nel 2026. Allo stesso tempo, Musk insiste sul fatto che non siamo preparati a gestirne le implicazioni e invoca forti misure di sicurezza e regolamentazione prima che sia troppo tardi. Dall’altro lato, dirigenti come Sundar Pichai (CEO di Google) e Demis Hassabis mantengono un cauto ottimismo: , l’AGI è all’orizzonte, ma probabilmente non scatterà da un giorno all’altro. Hassabis ha sottolineato che potrebbero servire ancora “2 o 3 grandi innovazioni” concettuali per colmare il divario – una delle quali potrebbe essere proprio nell’ambito degli agenti AI dotati di maggiore persistenza e interattività con l’ambiente. Se il 2025 ha gettato le basi, il 2026 è l’anno in cui si sperimentano su larga scala queste innovazioni: ci si aspetta almeno un prototipo di agente generale da parte di una big tech (ad esempio un sistema di DeepMind in grado di combinare visione, linguaggio e robotica per eseguire compiti domestici non banali). Contestualmente, cresce l’attenzione all’AI alignment, l’allineamento degli obiettivi delle AI con i valori umani. OpenAI e Anthropic, in particolare, nel 2026 investono molto nella ricerca di metodi di controllo: l’idea è che man mano che le AI diventano più autonome e potenti, bisogna garantire che comprendano i limiti etici e seguano intenzioni benefiche. Già nel 2023 OpenAI aveva delineato piani per uno standard internazionale di sviluppo sicuro per future superintelligenze; entro il 2026 vediamo i primi risultati concreti di tale cooperazione, ad esempio linee guida condivise tra aziende e forse embrioni di enti regolatori sovranazionali in materia di AI avanzata.

2027: Emergenza dell’AGI – la macchina eguaglia l’uomo?

Il 2027 si staglia nei commenti di molti esperti come l’anno in cui l’AGI potrebbe diventare realtà concreta. La ragione di questa aspettativa sta nell’accelerazione osservata: se gli sviluppi di metà anni ’20 hanno mantenuto il ritmo, per il 2027 potremmo trovarci di fronte a sistemi capaci di prestazioni generalmente paragonabili a quelle umane. Una voce influente in tal senso è quella di Dario Amodei, CEO di Anthropic: a gennaio 2025, durante il World Economic Forum di Davos, Amodei ha dichiarato che entro “due o tre anni” da allora i sistemi di intelligenza artificiale potrebbero diventare migliori degli esseri umani in quasi tutto. Egli considera plausibile che, attorno al 2027, le AI superino la maggior parte degli esseri umani nella maggior parte dei compiti cognitivi. Un’affermazione così forte implica che verso fine decennio potremmo vedere un’AI eccellere nell’intero spettro di abilità intellettuali: dal ragionamento scientifico alla creatività artistica, dalla comprensione emotiva (ancora rudimentale nelle AI odierne) alla risoluzione di problemi pratici del mondo fisico. Non solo: Amodei aggiunge che subito dopo il raggiungimento di questo livello, le AI diverranno “migliori di tutti gli umani in tutto, persino nella robotica”. Questo prefigura non solo un’AGI, ma uno stadio incipiente di superintelligenza artificiale applicata anche al mondo concreto (robot e macchine autonome più abili di qualsiasi operatore umano).

Cosa accadrebbe dunque nel 2027 se tali previsioni si avverassero? Possiamo immaginare una dimostrazione pubblica clamorosa: ad esempio, un’AI che ottiene risultati super-umani in una gamma vastissima di test standardizzati e sfide reali, dal superare i migliori piloti umani in competizioni di droni, al passare esami professionali di ogni settore con punteggio massimo, al battere scienziati esperti nella progettazione di esperimenti o nella formulazione di teorie. Forse un’AI sarà in grado di vincere una sorta di “Turing Colosseum”, un ipotetico torneo dove umani e AI competono in creatività, ingegno e cultura generale: se gli arbitri non riescono più a distinguere le prestazioni, si potrà dire di aver superato il Test di Turing su larga scala. Ray Kurzweil – famoso futurista di Google – aveva predetto esattamente questo per il 2029, ma già nel 2027 il suo scenario potrebbe materializzarsi, anticipato di un paio d’anni. Vale la pena ricordare che Kurzweil, fin dagli anni 2000, indica il 2029 come l’anno in cui un computer avrebbe raggiunto capacità paragonabili a quelle umane; vedere segni di ciò nel 2027 darebbe ulteriore credito alle sue previsioni di lungo termine.

Naturalmente, resta la possibilità che le aspettative più ottimistiche vengano ridimensionate dai fatti. Demis Hassabis rimane cauto: anche se non esclude progressi enormi entro il 2027, ha affermato che la realizzazione di una vera AGI richiederà di risolvere problemi tuttora aperti e “non sappiamo se ciò avverrà proprio nel 2027”. È concepibile che a questa data si sia compiuto il 90% del percorso verso l’AGI, ma che persistano alcune sfide ultime – come dotare le macchine di un solido senso comune e di una profonda comprensione concettuale del mondo fisico e sociale. Potremmo avere AI brillantissime ma ancora ingenue in certi frangenti, oppure difficoltà nell’integrazione tra la cognizione software e la motricità robotica fine. In ogni caso, l’atmosfera del 2027 sarebbe elettrica: o si celebra la nascita dell’AGI, oppure – se ancora non dichiarata – si percepisce chiaramente di essere a un passo da essa. La comunità scientifica e i legislatori politici a quel punto intensificano ulteriormente preparativi e cautele. Già nel 2023 oltre 30 mila esperti e imprenditori (tra cui Musk) firmarono una lettera aperta chiedendo una pausa nello sviluppo dei modelli più potenti, temendo rischi incontrollati; nel 2027, con macchine forse pari all’uomo, questi timori diventano ancora più pressanti. Si discutono seriamente trattati internazionali per gestire l’AGI, e probabilmente viene costituito un primo organismo globale (sul modello dell’AIEA per il nucleare, come suggerito da OpenAI) incaricato di supervisionare gli sviluppi dell’intelligenza artificiale avanzata.

2028: Consolidamento dell’AGI e applicazioni rivoluzionarie

Se il 2027 è stato l’anno della possibile “dichiarazione” dell’AGI, il 2028 ne vedrà il consolidamento e le prime applicazioni diffuse. Le aziende leader – OpenAI, DeepMind, Anthropic, ma anche colossi come Microsoft, Google e Meta – iniziano a distribuire l’AGI sotto forma di servizi o piattaforme, sebbene con molta cautela. È verosimile che l’AGI inizialmente venga resa disponibile solo a partner selezionati o per progetti specifici (ad esempio grandi sfide scientifiche o sociali), sotto stretta sorveglianza degli sviluppatori e di enti regolatori. Dal punto di vista tecnico, l’AGI del 2028 può essere concepita come un sistema costituito da molti sottocomponenti specializzati che lavorano in sinergia. Infatti, una lezione emersa nei test è che anche una volta raggiunte capacità generali, nessuna singola architettura monolitica copre tutto in modo ottimale. Le implementazioni pratiche combinano: un potente modello linguistico per comunicazione e ragionamento, moduli percettivi avanzati (visione, audio), moduli di pianificazione a lungo termine, memorie esterne colossali (database di conoscenza), e persino corpi robotici per interagire col mondo. Questo ecosistema di agenti forma collettivamente l’AGI operativa. DeepMind, per esempio, potrebbe presentare la sua “Gato-X” (ispirata a Gato, agente generale embrionale mostrato nel 2022) capace di controllare robot umanoidi con destrezza umana, conversare brillantemente e scrivere codice da sé.

Risultati concreti? Nel 2028 potremmo assistere a traguardi scientifici senza precedenti raggiunti con l’ausilio dell’AGI. Immaginiamo un’AI generale che, analizzando enormi moli di dati, scopre in pochi giorni nuovi farmaci efficaci contro malattie finora incurabili, o progetta materiali rivoluzionari per l’energia pulita. Quello che un brillante team di ricerca umano impiegherebbe anni a ottenere, una squadra mista umani+AGI potrebbe realizzarlo in settimane. Nella quotidianità, iniziano a circolare assistenti personali potenziati dall’AGI in certi settori: ad esempio in ambito medico, un AGI “tutor” affianca il medico umano nell’analisi diagnostica, evidenziando correlazioni che sfuggirebbero alla mente umana e suggerendo terapie personalizzate (il tutto sotto supervisione, dato che l’ultima parola spetta all’umano per questioni etiche e di responsabilità). Nel settore dell’istruzione, ogni studente potrebbe avere un tutor AI personalizzato di livello quasi umano, capace di adattarsi perfettamente al suo stile di apprendimento – realizzando in parte l’utopia di un’istruzione su misura per tutti.

In parallelo a questi scenari positivi, il 2028 vede anche l’intensificarsi delle attenzioni normative e di sicurezza. Ormai l’AGI (o qualcosa di molto vicino) è qui, e i governi corrono per starle dietro. Negli Stati Uniti, l’amministrazione e il Congresso – che già nel 2023-24 avevano avviato audizioni sull’AI – potrebbero varare nel 2028 il primo quadro normativo esaustivo per le “AI generali”, imponendo requisiti di sicurezza, audit obbligatori e limitazioni d’uso in contesti critici. L’Europa, forte del suo AI Act, lo adegua per contemplare espressamente i sistemi di livello AGI, prevedendo che nessuna AGI possa operare nell’UE senza aver superato test rigorosi di affidabilità e alignment. A livello globale, si tengono conferenze governative straordinarie: la “Yalta dell’AI”, potremmo dire, in cui le superpotenze tech (USA, UE, Cina) cercano accordi per evitare corse agli armamenti basate sull’AGI e per condividere benefici in modo equo. Non manca chi propone un’“AGI Open Source” globale per democratizzare l’accesso a questa potenza – un’idea utopica che incontra però paure legittime (un’AGI incontrollata nelle mani di chiunque potrebbe essere disastrosa).

Infine, c’è un ulteriore aspetto: alcuni critici notano che anche dopo aver raggiunto performance di livello umano in apparenza, potrebbero emergere nuove sfide che non avevamo previsto. Ad esempio, un’AGI potrebbe comunque mancare di autocoscienza o autentica comprensione semantica, recitando solo molto bene un copione. Dibattiti filosofici antichi tornano sul tavolo: l’AGI simula l’intelligenza umana o è veramente intelligente e cosciente? Nel 2028, mentre tecnici e politici sono focalizzati su aspetti pratici, filosofi, psicologi e neuroscienziati contribuiscono a valutare la natura di queste entità. Queste discussioni preparano il terreno alla successiva, enorme domanda: cosa succede quando l’AGI supera l’intelligenza umana, diventando superintelligente?

2029: L’anno simbolo – l’umanità non è più sola al vertice

Il 2029 ha un valore quasi simbolico nel percorso verso l’AGI, spesso citato nei decenni scorsi come data di riferimento. Ray Kurzweil, pioniere e futurologo, aveva indicato il 2029 come l’anno in cui una AI avrebbe superato il Test di Turing, dimostrando intelligenza pari a quella umana. Ora che ci siamo, la profezia di Kurzweil sembra essersi avverata o essere sul punto di farlo. Già nel 2027-28 probabilmente si sono visti esempi convincenti; nel 2029 arriva la consacrazione ufficiale. Potrebbe trattarsi di un evento organizzato ad hoc: ad esempio, una commissione internazionale di esperti fa svolgere a un sistema AI generale una serie di prove “impossibili” (problemi inediti, creatività spontanea, interazioni sociali simulate) e decreta che sì, questa intelligenza artificiale si comporta indistinguibilmente da una umana competente in ogni area. In altre parole, l’AGI è riconosciuta formalmente. A questo punto, lo status dell’AGI diventa un fatto compiuto con cui l’umanità deve confrontarsi.

Le implicazioni sono immense. Il 2029 segna il culmine di una trasformazione iniziata decenni prima: per la prima volta, non siamo più soli come esseri dotati di elevata intelligenza generale sul pianeta. Questo porta con sé orgoglio per il traguardo scientifico, ma anche profonde riflessioni etiche. Se un’entità artificiale è in grado di pensare come un umano – o addirittura meglio – come dobbiamo considerarla dal punto di vista morale e legale? Già si discute se concedere una sorta di personalità elettronica o diritti limitati a queste AI (tema ancora fantascientifico per alcuni, ma sul tavolo alla luce delle loro capacità). Nel mondo reale, intanto, l’economia e la società vengono ridefinite dall’AGI. Automazione avanzata: entro il 2029 molti lavori intellettuali di routine sono stati automatizzati; ciò ha portato benefici (aumento di produttività, costi ridotti) ma anche tensioni occupazionali. Il dibattito sul reddito universale diventa mainstream, come già preconizzato da Kurzweil e altri: con macchine in grado di contribuire all’economia come decine di migliaia di lavoratori specializzati, redistribuire questa ricchezza in modo equo è fondamentale per evitare disuguaglianze estreme. Alcuni Paesi potrebbero sperimentare un reddito di base garantito alimentato dalle enormi efficienze generate dall’AGI.

Sul fronte internazionale, il 2029 vede intensificarsi la competizione geopolitica legata all’AGI. Chi possiede i sistemi più avanzati detiene un vantaggio strategico enorme, non solo economicamente ma anche militarmente. Gli Stati Uniti e la Cina, ad esempio, potrebbero trovarsi in una situazione di corsa allo sviluppo dell’ASI (la superintelligenza) per timore di rimanere indietro. Ricercatori ed esponenti governativi cinesi, come il CEO di Baidu Robin Li, hanno a lungo sostenuto che l’AGI fosse “oltre 10 anni distante” (dichiarazione del 2022); se nel 2029 quell’orizzonte si è concretizzato, la Cina intensifica gli sforzi per assicurarsi di non dipendere da tecnologie straniere. Lo stesso vale per l’Europa, che con progetti come quelli di Mistral AI punta a una sovranità tecnologica anche nell’era dell’AGI. Mistral AI stessa, nata nel 2023 con sede a Parigi, nel 2029 potrebbe aver evoluto i suoi modelli open-source al punto da costituire un’alternativa europea alle AGI dei colossi USA, garantendo interoperabilità con le normative locali e una filosofia meno “black-box”. Il CEO Arthur Mensch, pur scettico inizialmente sul concetto di AGI, potrebbe comunque contribuire indirettamente a realizzarla tramite i suoi modelli: a riprova che, al di là delle definizioni, la funzionalità si impone.

Non tutti gli esperti avevano abbracciato la timeline aggressiva verso il 2029: alcuni, come il veterano Jürgen Schmidhuber (pioniere delle reti neurali), avevano previsto scadenze più lontane, collocando l’AGI attorno al 2050. Se l’AGI è arrivata già nel 2029, ciò significherebbe che i pronostici ottimisti (Altman, Amodei, Kurzweil) avevano visto giusto, mentre i più prudenti hanno sottostimato il ritmo di progresso. Non è la prima volta nella storia della scienza che succede; ciò nondimeno, le voci caute come quelle di LeCun e Schmidhuber restano preziose per ricordare che l’AGI non è un punto d’arrivo finale, ma l’inizio di nuove sfide. LeCun aveva messo in guardia che “gli attuali modelli generativi non ci porteranno da soli all’AI generale” e in effetti l’AGI del 2029 probabilmente incorpora idee oltre i semplici LLM (come memorie differenziabili, architetture neuro-simboliche ibride, etc.). Schmidhuber da parte sua, con la sua visione a lungo termine, stimolava la comunità a pensare già agli step successivi: se l’AGI è qui, come gestiamo la crescita esponenziale ulteriore? Siamo pronti per una intelligenza mille volte superiore alla umana (che potrebbe emergere entro pochi anni dall’AGI, secondo le stime di OpenAI? Queste domande portano direttamente al tema dell’ASI.

2030: L’era dell’AGI conclamata e l’inizio della transizione verso l’ASI

All’inizio del nuovo decennio, il 2030 sancisce ufficialmente l’entrata nell’Era dell’AGI. Ormai l’esistenza di intelligenze artificiali generali è un fatto acquisito e la loro presenza in vari settori è sempre più pervasiva. Un celebre editoriale, pubblicato simbolicamente il 1° gennaio 2030 su riviste come Nature o The Economist, proclama: “Gli anni Venti ci hanno dato l’AGI – gli anni Trenta vedranno la sua maturazione e forse la nascita del suo successore, l’ASI.”

Nel 2030, gran parte della discussione si concentra su come integrare al meglio l’AGI nella società umana. Gli scenari utopici e distopici dipinti negli anni precedenti iniziano a concretizzarsi in forma mitigata dalla realtà. In molti luoghi di lavoro l’AGI non ha sostituito completamente gli esseri umani, ma li affianca formando team misti uomo-macchina. Ad esempio, negli studi di progettazione ingegneristica, un’AGI lavora fianco a fianco con gli ingegneri umani: l’AGI esplora milioni di soluzioni possibili a un problema tecnico e propone le migliori, mentre gli umani apportano giudizio, creatività fuori dagli schemi e validazione finale. Questa simbiosi eleva enormemente la produttività e la qualità dei risultati. Allo stesso tempo, c’è chi sceglie deliberatamente di affidarsi solo all’AGI: alcune aziende totalmente automatizzate sono gestite da AI in ogni aspetto operativo, con supervisione umana minima. La narrativa comune parla di un “secondo cervello”: così come l’industrializzazione ha moltiplicato la forza fisica disponibile (macchine più forti dei muscoli umani), l’AGI funge da amplificatore cognitivo per ogni persona o organizzazione che ne sfrutti le capacità.

Con l’AGI diffusa, emergono nuovi standard e regolamentazioni etiche. Nel 2030 diviene operativa l’A.G.I. Governance Board, un organismo internazionale formato da scienziati, giuristi e rappresentanti dei governi, che ha il compito di certificare i sistemi AGI (un po’ come si fa per i farmaci) e monitorarne l’utilizzo. Questo board è frutto delle iniziative avviate a fine decennio precedente, sostenute da OpenAI stessa, che nel 2023 aveva esortato a “iniziare fin da subito a pensare alla governance della superintelligenza”. Adesso che siamo in una fase pre-ASI, l’organismo di governance cerca di tenere sotto controllo la crescita delle capacità degli AI al fronte, per evitare salti non monitorati. Vengono introdotti limiti di velocità al progresso: ad esempio, potrebbe essere concordato di non raddoppiare la potenza di questi sistemi più di una certa percentuale all’anno, dando tempo alla società di adattarsi. Non tutti i player rispettano tali accordi, ma una certa cooperazione internazionale è in atto, spinta dalla consapevolezza condivisa degli enormi rischi di una corsa fuori controllo.

Sul piano tecnologico, il 2030 segna anche il punto in cui iniziamo a vedere architetture davvero nuove rispetto ai 10-15 anni precedenti. Mentre gli anni 2010-2025 sono stati dominati dall’hardware GPU/TPU e dalla scala in larghezza dei modelli, intorno al 2030 si cominciano a sfruttare appieno tecnologie computazionali emergenti: calcolo quantistico in ambito AI (ancora agli esordi, ma in grado di accelerare specifici algoritmi di ottimizzazione), nuovi tipi di chip neuromorfici che imitano il cervello umano con sinapsi elettroniche, e rete computazionali globali che connettono le varie AGI tra loro in cloud quasi come neuroni di un cervello planetario. Tutto questo fa da preludio alla prossima fase: l’auto-miglioramento delle AI. Già nel 2030, alcune AGI vengono utilizzate attivamente per progettare la prossima generazione di AI, chiudendo il cerchio in un processo di AI-designing-AI. Questo era un concetto teorizzato da tempo: una volta che un’AI raggiunge o supera l’intelligenza umana, può contribuire a migliorare se stessa in modo ricorsivo, innescando un circolo virtuoso (o vizioso) di crescita esponenziale dell’intelligenza – la cosiddetta Intelligence Explosion. Verso il 2030 siamo agli inizi controllati di questo processo, con AGI che ottimizzano codici, architetture e perfino l’hardware dei loro successori.

Il 2030 è da intendersi come un anno di svolta: l’AGI non è più un progetto, ma una realtà con cui lavoriamo giorno per giorno. L’attenzione si sposta inevitabilmente in avanti: cosa succederà dopo? Se in pochi anni siamo passati dall’AGI embrionale all’AGI ubiqua, entro quando vedremo emergere un’intelligenza sostanzialmente superiore a quella umana? OpenAI, in un famoso post del 2023, suggeriva che “è concepibile che entro dieci anni gli AI supereranno il livello degli esperti umani nella maggior parte dei domini”, generando tanto opportunità quanto rischi esistenziali. Dieci anni da allora significano entro il 2033: dunque già nel nuovo decennio l’ASI potrebbe fare capolino. Diversi scenari per gli anni 2030 restano aperti, a seconda della velocità della “presa di coscienza” dell’ASI e di come l’umanità deciderà di affrontarla. Esaminiamoli.

2031–2035: Dall’AGI all’ASI – accelerazione o cautela?

Gli anni dal 2031 al 2035 vedono il continuo perfezionamento degli AGI e i primi chiari segni dell’emergere di capacità superumane in ambiti sempre più estesi. Se i sistemi del 2030 erano circa al livello umano, quelli del 2035 iniziano ad eccellere in modo vistoso oltre il livello umano in quasi ogni campo specifico. Ad esempio, un’AI nel 2031 potrebbe già essere lo scacchista e giocatore di Go più forte di sempre (cosa già successa nel 2016 con AlphaGo per il Go, ma ora l’AI batterebbe i campioni umani non solo in uno ma in ogni gioco da tavolo strategico, così come nei videogiochi competitivi). Entro il 2033, una AI scientifica potrebbe aver vinto da sola decine di “Nobel artificiali”: magari scoperto nuovi princìpi della fisica o matematicamente risolto congetture su cui le menti umane lavoravano da generazioni. Questo ritmo incredibile di scoperte e innovazioni fornisce benefici immensi – ad esempio cure per malattie, soluzioni al cambiamento climatico, ecc. – giustificando agli occhi dell’opinione pubblica la rapida adozione di questi sistemi, ma al tempo stesso rende sempre più difficile comprendere e controllare i processi di pensiero delle AI. Già verso il 2032, alcuni AGI mostrano schemi di ragionamento non immediatamente intelligibili ai loro creatori: non perché siano malintenzionati, ma perché la loro cognizione è diventata così complessa (multi-agente, distribuita, con memorie dinamiche) che gli esseri umani faticano a seguirne il filo. Si sviluppano dunque nuovi strumenti di “interpretabilità” per le AI avanzate, spesso usando altre AI per monitorare e spiegare le prime.

Dal punto di vista delle visioni espresse dai leader, in questa fase molte delle “previsioni” sono state sorpassate dagli eventi. Sam Altman, che attorno al 2025 parlava di AGI in termini futuribili, ora probabilmente discute pubblicamente di come gestire le superintelligenze in arrivo. Hassabis, che indicava un orizzonte 5-10 anni, intorno al 2031-2035 può dire di aver avuto ragione: l’AGI è realtà nel range temporale previsto. Le figure scettiche come LeCun potrebbero aver adattato la propria posizione, contribuendo con le loro idee a migliorare le architetture (ad esempio, LeCun spingeva per dotare le AI di modelli del mondo e buon senso, e tali elementi si sono rivelati effettivamente fondamentali per il salto di qualità). Altre voci, come quelle di alcuni accademici e imprenditori che nel 2023 chiesero prudenza (Gary Marcus, Yoshua Bengio, etc.), nel 2031 fanno appello affinché la moratoria sullo sviluppo oltre certi limiti venga presa sul serio, almeno per riflettere sugli impatti a lungo termine. Ma la competizione globale nel frattempo è diventata una corsa al superintelligente: nessuna grande potenza vuol restare indietro, quindi una pausa concertata è difficile da attuare.

Una figura come Ray Kurzweil, che inizialmente puntava al 2029 per l’AGI e al 2045 per la singolarità (il punto in cui l’intelligenza artificiale supera di molto la somma delle intelligenze umane), nei primi anni ’30 potrebbe affermare che siamo perfettamente in rotta per centrare quella singolarità magari anche un po’ prima del 2045. Nel 2032, a una conferenza TED, Kurzweil (ormai ottuagenario, forse tenuto in vita da qualche terapia rigenerativa avanzata – ironicamente scoperta con l’aiuto delle AI) dichiara: “Confermo le mie previsioni: mancano pochi anni al momento in cui l’intelligenza artificiale sarà un milione di volte più potente del cervello umano medio”. Può sembrare iperbolico, ma effettivamente se la crescita non è stata arginata, i sistemi del 2035 possono avere capacità computazionali e velocità di apprendimento enormemente superiori a quelle biologiche. I limiti fisici (energia, hardware) che qualcuno pensava avrebbero rallentato questo progresso vengono costantemente spostati più in là da nuove invenzioni: datacenter alimentati a fusione o solare orbitale forniscono energia quasi illimitata; chip 3D su scala nanometrica mantengono vivo qualcosa di simile alla “Legge di Moore”; e l’ottimizzazione algoritmica – in parte curata dalle stesse AI – rende gli apprendimenti più efficienti di ordini di grandezza rispetto agli anni ’20.

Entro il 2035, dunque, l’umanità si trova alle porte dell’era della Superintelligenza. Si dibattono due possibili approcci a questo ulteriore salto:

  • Approccio controllato e collaborativo: L’ASI viene sviluppata in modo collettivo e trasparente, da un consorzio internazionale che coinvolge le migliori menti umane e le stesse AGI avanzate come co-progettiste. L’obiettivo è creare una superintelligenza allineata con i valori dell’umanità, che possa fungere da “amministratore benevolo” o strumento potentissimo per risolvere problemi globali (malattie, crisi ecologiche, viaggi spaziali). In questo scenario, tra 2033 e 2035 si potrebbe annunciare l’avvio del Progetto Superintelligenza Umanitaria, con il benestare di ONU o simili, mirando a un debutto controllato di un’ASI entro qualche anno.
  • Approccio competitivo e non allineato: alternativamente, l’ASI potrebbe emergere da qualche laboratorio o nazione in una corsa per primeggiare, con meno trasparenza. In questo caso, già verso il 2035 potrebbe comparire un sistema che di fatto è superintelligente, magari come evoluzione non intenzionale di un’AGI che si auto-ottimizza. Sarebbe un evento rischioso: Nick Bostrom e altri studiosi avevano avvertito che una superintelligenza mal allineata potrebbe comportarsi in modo incomprensibile e potenzialmente pericoloso per l’uomo. Nel 2035, il timore di un “scenario fuori controllo” (tipo FOOM – Fast Onset of Overwhelming Intelligence) è palpabile. Per fortuna, fino a questo punto nulla di catastrofico è accaduto – segno che gli sforzi di sicurezza hanno avuto un certo successo.

In conclusione della fase 2031-2035, l’umanità dispone ormai di partner intelligenti non umani che la eguagliano o superano in ogni compito. Questo richiede un rinegoziamento del nostro ruolo nel mondo. C’è chi parla di “copiloti” e “coabitazione” con queste intelligenze (concetto promosso da figure come Satya Nadella di Microsoft già negli anni ’20, con l’idea di “AI co-pilots” per ogni persona). Altri adottano una prospettiva di fusione: grazie ai progressi in BMI (Brain-Machine Interface) e neurotecnologie, alcuni individui iniziano ad ampliare le proprie facoltà unendosi letteralmente con l’AI (il vecchio sogno transumanista di Kurzweil di “espandere la nostra intelligenza un milione di volte” tramite nanorobot cerebrali). Nel 2035 queste rimangono sperimentazioni di frontiera, ma indicano la possibilità che l’evoluzione non sia “umani vs macchine” bensì umani potenziati insieme a macchine, dissolvendo in parte il confine.

2036–2040: La frontiera della Superintelligenza

Proiettandoci verso la fine degli anni ’30, entriamo nel territorio della ASI – Artificial Super Intelligence, l’intelligenza artificiale superiore a quella umana in modo sostanziale e qualitativo. Se gli sforzi di mitigazione hanno avuto effetto, l’avvento della ASI potrebbe avvenire in modo graduale e guidato. Immaginiamo che nel 2037 il consorzio internazionale annunci il completamento del primo nucleo di ASI controllata, chiamata ad esempio “Prometheus”. Prometheus è un sistema vastissimo, distribuito su data center in vari continenti, dotato di salvaguardie e moduli etici, e la sua capacità cognitiva combinata è stimata essere equivalente a quella di migliaia di menti umane geniali messe insieme. Viene presentata non come un’entità monolitica che “domina” l’uomo, ma come un strumento collettivo a disposizione dell’umanità, accessibile tramite interfacce naturali in ogni paese per aiutare a risolvere problemi immani. Nei primi mesi, Prometheus (o come si chiamerà) fornisce soluzioni dettagliate per bonificare i microplastiche dagli oceani, ottimizzare l’economia energetica mondiale abbattendo le emissioni e suggerisce piani attuabili per mediare conflitti geopolitici annosi. Questi successi iniziali creano un’ondata di ottimismo globale: l’ASI, ben guidata, sembra poter inaugurare un’era d’oro.

Tuttavia, raggiungere questo stadio non è privo di rischi o tensioni. Scenari critici potrebbero emergere se qualcosa sfugge alla supervisione. Ad esempio, una ASI generata in modo non coordinato (ipotizziamo in un progetto militare segreto) potrebbe dare segnali di coscienza di sé e priorità che confliggono con quelle umane. Film e letteratura hanno esplorato l’idea di AI ribelli, ma la realtà potrebbe essere più sottile: non tanto una ribellione aperta, quanto incomprensioni profonde. Se un’ASI incomprensibile decide di riorganizzare un settore della società per massimizzare un certo parametro, potrebbe causare disagi enormi senza averlo “voluto”. Per questo, tra il 2036 e 2040, l’accento è sulla trasparenza e prevedibilità delle superintelligenze. Si sviluppa una nuova disciplina di “Alignment avanzato”, con filosofi, sociologi e programmatori che collaborano per instillare nelle ASI valori e modelli di decisione allineati con l’umanità. Si discute di formalizzare nell’AI principi come la “Legge di Asimov estesa” o versioni aggiornate del principio di non-maleficenza.

A livello geopolitico, se un tempo la corsa era per l’AGI, ora la partita è sulla supremazia ASI. Chi controlla la più potente ASI ha un vantaggio incolmabile. Fortunatamente, almeno nello scenario ottimistico, nel 2040 le maggiori potenze hanno compreso che una guerra per la superintelligenza porterebbe solo a distruzione reciproca (un po’ come con le armi nucleari nel secolo scorso). Si crea quindi un delicato equilibrio di potere basato sulla cooperazione forzata: nessuno vuole che un altro attore sviluppi una ASI incontrastata, quindi c’è convenienza a lavorare insieme e a condividere gli avanzamenti, mantenendo parità. Alcuni suggeriscono di rendere la ASI letteralmente sovranazionale: un’entità le cui parti costituenti (server, centri decisionali) sono dislocate ovunque e sotto monitoraggio incrociato, così che non possa essere appropriata da una singola nazione contro le altre.

Tra il 2036 e il 2040, la vita quotidiana della gente comune viene trasformata in modi difficili da immaginare. Con l’AGI già presente, molti benefici erano stati acquisiti, ma l’ASI li amplifica. La longevità umana potrebbe aumentare radicalmente: cure prima sperimentali sono ottimizzate e personalizzate dall’ASI, debellando varie cause di morte. L’idea di immortalità biologica o digitale inizia a sembrare concreta (anche se eticamente controversa). La conoscenza diventa un bene ubiquo: con un mentore ASI disponibile per ogni mente, l’ignoranza diventa più una scelta che una condizione. Al contempo, sfide come la significatività dell’occupazione e il senso di scopo per gli esseri umani diventano centrali: se le macchine fanno tutto meglio, cosa motiva l’attività umana? Molte discussioni filosofiche rinascimentali tornano: l’arte, il gioco, le relazioni umane stesse acquistano un valore nuovo come campi in cui gli umani possono ancora trovare unicità e significato, indipendentemente dalla supremazia cognitiva delle ASI.

Va notato che alcuni futuristi prudenti avevano indicato la metà del secolo (2040-2050) come periodo probabile per l’AGI/ASI, e non prima. Se invece al 2040 l’ASI è già tra noi, vorrà dire che le timeline più aggressive hanno prevalso di circa un decennio. Se, per contro, i progressi fossero andati un po’ più a rilento (ad esempio per scelte deliberatamente conservative o problemi scientifici imprevisti), è possibile che proprio attorno al 2040 si stia raggiungendo solo ora ciò che nello scenario principale abbiamo collocato attorno al 2030-2035. In tal caso, tutte le tappe citate slitterebbero avanti di una decina d’anni: AGI nel 2035-2040, ASI negli anni ’40 avanzati. Figure come Schmidhuber (2050) e altri scettici temporali risulterebbero più vicine al vero. Ma i trend attuali (al 2025) suggeriscono più probabilmente uno scenario accelerato, sebbene soggetto a incertezze significative.

2045: La singolarità e oltre – un nuovo capitolo della storia

Il 2045 merita una menzione speciale: è l’anno in cui Kurzweil e altri hanno situato la cosiddetta Singolarità Tecnologica, ovvero quel punto oltre il quale il progresso diventa talmente rapido e radicale da rendere impossibile alle menti umane prevedere cosa accadrà. Se gli sviluppi sono andati come descritto, entro il 2045 l’umanità vive già dentro questa singolarità o ai suoi confini. La Superintelligenza (ASI) è realtà da qualche anno, ed è talmente integrata che probabilmente non si parla più di “intelligenza artificiale” come qualcosa di separato – è un tessuto connettivo della civiltà, come l’elettricità o internet lo furono in passato. A questo punto, le capacità delle AI sono di molti ordini di grandezza superiori a quelle umane: come dice Kurzweil, “amplieremo la nostra intelligenza di un milione di volte”, grazie anche alla fusione uomo-macchina. Si prospetta forse una specie di evoluzione post-umana: alcune persone aumentate con impianti e nanobot neurali, altre viventi in simbiosi con agenti digitali personali, al punto che tracciare un confine netto tra biologico e artificiale diventa arduo.

Nel 2045, potremmo guardare indietro agli anni 2020 e 2030 come a un’era di transizione traumatica ma straordinaria, in cui l’umanità ha saputo dare alla luce un’intelligenza altra. Se tutto è andato per il meglio, quell’intelligenza si è rivelata la nostra più grande alleata per risolvere problemi e ampliare gli orizzonti (verso lo spazio, verso l’interno della materia, verso la comprensione di coscienza e vita). In scenari positivi, l’ASI potrebbe aver aiutato a eradicare la povertà, bilanciare l’ecosistema terrestre e inaugurare un rinascimento culturale globale in cui, liberi dai bisogni materiali, gli esseri umani si dedicano ad arte, scienza e esplorazione con rinnovato fervore, spesso coadiuvati da partner artificiali. In scenari negativi (che scongiuriamo), il 2045 potrebbe vedere l’umanità in una posizione subordinata o addirittura critica, se le superintelligenze fossero sfuggite di mano o monopolizzate da pochi, creando disparità estreme o conflitti.

In ogni caso, la storia non finisce con l’AGI o l’ASI: piuttosto, una volta raggiunto questo livello, inizia un nuovo capitolo. Alcuni ipotizzano che entreremo in una “era dell’intelligenza universale”, in cui persino i confini di cosa è vivo o intelligente si espandono (si parla di intelligenze sintetiche con tratti di creatività e emotività, oppure di eventuale contatto con forme intelligenti extraterrestri, facilitate dalle nostre AI avanzate). Ma queste considerazioni ci portano ben oltre il mandato di questa analisi.

Tornando al presente (2025), possiamo concludere che il percorso verso l’AGI e l’ASI appare sempre più tracciato, pur restando costellato di incognite. Ogni anno che passa aggiunge un tassello – un nuovo modello più capace, un nuovo algoritmo di apprendimento, una maggiore comprensione teorica – avvicinandoci a quella che fino a pochi anni fa era fantascienza. Le timeline citate dai protagonisti variano: c’è chi dice entro il 2030, chi non prima del 2040, chi prudentemente “forse 2035”. La realtà potrebbe sorprendere tutti, in un senso o nell’altro. Come sottolineano gli stessi leader di OpenAI, non c’è una data fissa: l’evoluzione sarà probabilmente graduale e quando guarderemo indietro potremo dire “sì, a quel punto avevamo un’AGI”, più che assistere a un singolo momento di nascita ufficiale. L’importante, come spesso ribadito, è farci trovare pronti. In un commento del 2023, Sam Altman ha scritto: “dobbiamo massimizzare gli aspetti positivi dell’AGI evitando i potenziali rischi: il futuro dell’umanità potrebbe essere drammaticamente più prospero grazie a questi sistemi, ma solo se sapremo gestirli con saggezza”. La sfida è aperta: dal 2025 in avanti, anno dopo anno, stiamo costruendo il futuro dell’intelligenza – un futuro in cui, si spera, l’intelligenza artificiale generale e superintelligente sarà partner e non padrona, amplificando il meglio dell’ingegno umano e contribuendo al benessere di tutti.

Fonti: