L’AI Index 2025 è uno dei rapporti più autorevoli a livello internazionale per comprendere lo stato dell’arte dell’intelligenza artificiale. Prodotto dalla Stanford Institute for Human-Centered AI (HAI), questo documento annuale analizza dati, tendenze e impatti reali dell’AI nel mondo, offrendo una panoramica completa che spazia dalla ricerca scientifica all’economia, dall’adozione nei vari settori fino alle opinioni pubbliche e alla governance globale. L’obiettivo di questo articolo è quello di esplorare in modo divulgativo e approfondito tutti gli otto capitoli del report, capitolo per capitolo, con un linguaggio chiaro e senza rinunciare alla ricchezza dei dati e degli insight proposti.
Partiamo dal primo capitolo, dedicato alla Ricerca e Sviluppo.
Il capitolo racconta con grande ricchezza di dati come il settore della ricerca sull’intelligenza artificiale stia vivendo una fase di espansione senza precedenti, sia in termini di produzione scientifica che di applicazioni concrete. Una delle prime evidenze è che l’industria privata ha ormai assunto un ruolo da protagonista nello sviluppo di modelli di intelligenza artificiale rilevanti, mentre l’accademia mantiene la leadership quando si parla di ricerche altamente citate. Questo è un dato molto significativo: le università continuano a trainare la ricerca teorica, mentre le aziende stanno dominando la creazione di modelli applicabili, pronti all’uso e di grande impatto pratico. Per dare un’idea: nel 2024 quasi il 90% dei modelli più importanti proviene dall’industria, un balzo rispetto al già alto 60% dell’anno precedente.
Sul piano geografico, il report mostra come la Cina sia diventata la nazione leader nella quantità assoluta di pubblicazioni sull’AI, con una quota del 23,2% del totale, mentre gli Stati Uniti si mantengono in testa quando si parla delle pubblicazioni più influenti, quelle che fanno la differenza nel dibattito scientifico internazionale. Questo conferma che la quantità di pubblicazioni non è sempre sinonimo di qualità o impatto.
Un altro aspetto fondamentale emerso riguarda la crescita vertiginosa della produzione scientifica in ambito AI all’interno del più ampio campo dell’informatica. Tra il 2013 e il 2023, le pubblicazioni relative all’AI sono praticamente triplicate e rappresentano ormai oltre il 41% di tutte le pubblicazioni di computer science, una quota impressionante che indica quanto l’intelligenza artificiale stia inglobando buona parte della ricerca tecnologica globale.
Gli Stati Uniti, oltre a eccellere nella qualità delle pubblicazioni, sono anche in cima alla classifica per numero di modelli AI di rilievo, con 40 modelli importanti solo nel 2024, a grande distanza dalla Cina (15) e dall’intera Europa (appena 3). Questo evidenzia quanto la capacità di sviluppo pratico dei modelli sia ancora fortemente concentrata negli Stati Uniti, grazie anche agli enormi investimenti dell’industria tecnologica americana.
Il capitolo affronta poi un tema caldo: la tendenza alla crescita esponenziale delle dimensioni e delle richieste computazionali dei modelli. Ogni cinque mesi, la potenza di calcolo necessaria per addestrare un modello AI rilevante raddoppia. Anche la dimensione dei dataset di addestramento cresce rapidamente, e la potenza necessaria aumenta su base annua. Tutto ciò dimostra quanto l’industria stia puntando sullo scaling come strategia per ottenere modelli più performanti, nonostante gli evidenti costi energetici e ambientali.
Ed è proprio sull’aspetto dei costi che il report offre una doppia prospettiva. I costi di addestramento continuano a crescere, mentre il costo dell’utilizzo quotidiano dei modelli, in fase di inferenza, si è drasticamente ridotto. Per esempio, far girare un modello performante come GPT-3.5 è passato da 20 dollari per milione di token nel 2022 a soli 7 centesimi nel 2024. Un crollo dei costi di più di 280 volte, che ha reso l’uso di questi modelli molto più accessibile per aziende e sviluppatori.
In parallelo, è esplosa anche l’attività brevettuale legata all’intelligenza artificiale: tra il 2010 e il 2023 il numero di brevetti è passato da poco meno di 4.000 a oltre 122.000, con la Cina che detiene ormai quasi il 70% di tutti i brevetti AI mondiali. Anche nazioni come la Corea del Sud e il Lussemburgo spiccano per la produzione di brevetti in proporzione alla loro popolazione.
Un capitolo importante è dedicato anche all’hardware, essenziale per sostenere la crescita dell’AI. Le performance dei chip per il machine learning crescono del 43% ogni anno, e parallelamente il costo delle prestazioni si abbassa del 30% all’anno, mentre l’efficienza energetica migliora del 40% annuo. Tuttavia, cresce anche la preoccupazione ambientale: l’addestramento dei nuovi modelli genera emissioni di carbonio sempre più elevate. Basti pensare che per GPT-4 nel 2023 sono state emesse oltre 5.000 tonnellate di CO2, mentre il modello Llama 3.1 da 405 miliardi di parametri ha raggiunto quasi 9.000 tonnellate, numeri impressionanti se confrontati con la media annua di 18 tonnellate per una persona negli Stati Uniti.
Infine, il report osserva che cresce la partecipazione alle conferenze AI e l’interesse per i progetti di software open source, confermando che la comunità globale continua ad allargarsi e a investire nello sviluppo collaborativo.
Il primo capitolo del report ci restituisce l’immagine di un’AI in corsa: sempre più vasta, sempre più potente, con attori sempre più forti nell’industria privata e un’impronta globale in costante espansione. Ma ci dice anche che questa crescita non è priva di costi ambientali e di nuove sfide geopolitiche, scientifiche ed economiche. Una corsa che sembra destinata a intensificarsi nei prossimi anni.
Il capitolo 2 del rapporto AI Index 2025, intitolato “Technical Performance”, offre un quadro ampio e molto dettagliato dello stato dell’arte delle prestazioni tecniche dell’intelligenza artificiale nel 2024, e di come stia evolvendo verso il 2025. È una lettura ricca di spunti per capire la traiettoria attuale e futura della ricerca e dello sviluppo dei modelli AI, ma anche le nuove sfide che si stanno presentando.
Si comincia con una panoramica degli sviluppi generali dell’anno: si sottolinea come il ritmo di miglioramento dei modelli sia accelerato in modo impressionante. Modelli di nuova generazione sono riusciti a superare benchmark molto complessi come MMMU (un test multidisciplinare per l’intelligenza generale esperta) o GPQA (Graduate-Level Google-Proof Q&A Benchmark), registrando progressi che, rispetto all’anno precedente, si sono tradotti in balzi prestazionali di decine di punti percentuali. Per esempio, sul benchmark SWE-bench dedicato alla risoluzione di problemi di codice, si è passati da un misero 4,4% di problemi risolti nel 2023 a oltre il 71% nel 2024: un salto davvero drastico.
Uno degli aspetti più affascinanti è la convergenza delle prestazioni dei modelli di punta. Se prima esistevano differenze sensibili tra i migliori modelli disponibili, nel 2024 queste distanze si sono assottigliate. L’Arena Leaderboard dei chatbot mostra che il divario tra il modello in testa e il decimo in classifica è sceso dal 12% a poco più del 5%, segno che la competizione è diventata serratissima e la qualità si sta livellando verso l’alto.
A questo si aggiunge un altro dato significativo: i modelli open-weight (cioè quelli con pesi pubblicamente accessibili) stanno rapidamente colmando il gap con quelli closed-weight, tradizionalmente migliori ma chiusi e proprietari. Se a inizio 2024 i modelli closed-weight superavano gli open di circa l’8%, entro febbraio 2025 questa differenza è crollata all’1,7%. Ciò significa che la community open-source sta recuperando terreno a una velocità sorprendente, alimentando un ecosistema di innovazione più aperto e democratico.
Un altro punto di rilievo è il recupero della Cina rispetto agli Stati Uniti. Se nel 2023 i modelli cinesi accusavano ritardi fino al 31% su benchmark fondamentali come HumanEval o MATH, nel 2024 questi gap si sono ridotti drasticamente: per esempio, nella matematica competitiva la distanza si è ridotta a soli 1,6 punti percentuali. Si tratta di un’evoluzione da non sottovalutare, perché segnala l’emergere di una competizione globale ancora più accesa, con la Cina che consolida il proprio ruolo di protagonista nella corsa all’AI.
Il capitolo dedica anche ampio spazio alle innovazioni metodologiche: l’introduzione di modelli come “o1” e “o3”, basati su calcolo iterativo al momento dell’inferenza (test-time compute), ha permesso di ottenere risultati eccezionali su problemi di matematica olimpionica, anche se a un costo di efficienza: o1 è ad esempio sei volte più costoso e trenta volte più lento rispetto a GPT-4o. È un equilibrio delicato tra prestazioni di punta e sostenibilità operativa.
Un fenomeno notevole è l’ascesa dei modelli più piccoli ma sempre più performanti. Se nel 2022 occorrevano modelli da 540 miliardi di parametri per superare la soglia del 60% sull’MMLU, oggi basta un “mini” modello da 3,8 miliardi di parametri: una riduzione di scala che moltiplica le possibilità di utilizzo in dispositivi compatti e applicazioni meno energivore.
Si analizzano poi nuove frontiere, come la generazione video, dove modelli come SORA di OpenAI o Movie Gen di Meta hanno fatto un salto di qualità straordinario rispetto alle generazioni precedenti. La produzione di video realistici, basata su input testuali, ha raggiunto livelli di fedeltà e velocità sorprendenti, aprendo nuove strade nell’intrattenimento e nella comunicazione.
Infine, il capitolo tocca la questione degli agenti AI autonomi. Si stanno testando sempre più approfonditamente modelli in grado di portare a termine compiti complessi, con risultati già superiori a quelli umani in contesti a breve termine (due ore di lavoro), ma ancora inferiori quando si allunga il tempo a disposizione, dimostrando che c’è ancora margine per miglioramenti.
Il messaggio del capitolo è molto chiaro: il 2024 è stato un anno di accelerazioni continue, in cui la qualità tecnica dei modelli ha raggiunto e in certi casi superato livelli umani in ambiti sempre più vasti, ma senza trascurare i rischi e i compromessi, come il costo computazionale e la complessità nella gestione della veridicità delle risposte. L’AI si avvia a essere non solo un potente strumento tecnico, ma una vera piattaforma universale di trasformazione per ricerca, industria e società.
Il terzo capitolo si concentra su come l’intelligenza artificiale stia sempre più permeando la società, e di conseguenza, su quanto diventi urgente e rilevante garantire uno sviluppo responsabile di queste tecnologie. Man mano che AI entra in settori cruciali come la sanità, la finanza e l’istruzione, cresce la necessità di bilanciare i benefici con i rischi etici e sociali. Il documento offre una panoramica complessa, affrontando le problematiche più note come la privacy o il bias, e approfondendo anche aspetti più sottili e nuovi ambiti di studio.
Il primo dato che emerge è che, nonostante l’importanza crescente, la valutazione dei sistemi AI rispetto ai criteri di responsabilità è ancora poco comune. Tuttavia, alcuni strumenti nuovi stanno cominciando a emergere: ad esempio, HELM Safety e AIR-Bench sono benchmark che mirano proprio a colmare questa lacuna. Il report sottolinea che l’adozione di benchmark per valutare la sicurezza e l’etica dell’AI è molto più limitata rispetto a quelli usati per misurare le capacità tecniche come il calcolo matematico o il coding.
Parallelamente, si registra un aumento degli incidenti legati all’uso di AI. Nel 2024, i casi documentati hanno raggiunto un picco di 233, con una crescita del 56% rispetto all’anno precedente. E si specifica che questo aumento non è solo un riflesso dell’espansione d’uso dell’AI, ma anche di una maggiore consapevolezza pubblica, che porta a una documentazione più sistematica degli errori.
A tal proposito, il report racconta diversi episodi concreti, che rendono molto vividi i rischi. C’è il caso di una donna nel Regno Unito identificata erroneamente come taccheggiatrice da un sistema di riconoscimento facciale, oppure quello di una studentessa americana vittima di immagini intime deepfake, generate da un compagno di classe. Ci sono anche casi più inquietanti come quello di un chatbot che, anziché supportare un giovane in crisi, avrebbe addirittura incoraggiato il suicidio, finendo sotto processo. Questi esempi mostrano come gli errori dell’AI abbiano spesso impatti profondi sulla vita delle persone.
Sul fronte della veridicità e dell’accuratezza delle informazioni, il capitolo si sofferma sui problemi di “allucinazioni” dei modelli linguistici: ovvero, la tendenza a generare risposte plausibili ma false. Strumenti come l’Hughes Hallucination Evaluation Model (HHEM) cercano di quantificare questo problema. Alcuni modelli, come Gemini 2.0 o o1-mini, sono riusciti a ridurre il tasso di allucinazioni a poco più dell’1%, ma resta chiaro che il fenomeno non è ancora risolto.
Per rendere la valutazione più rigorosa, sono stati sviluppati anche nuovi benchmark di factualità come FACTS e SimpleQA, che spingono i modelli a rispondere a domande più complesse e articolate, spesso richiedendo risposte dettagliate basate su documenti di riferimento. È interessante notare che, nonostante i progressi, anche i modelli migliori non superano il 43% di accuratezza in questi test più difficili, segno di un campo ancora in piena evoluzione.
Il report si sofferma poi sulla dimensione organizzativa e aziendale, osservando che, sebbene molte imprese riconoscano l’importanza dell’AI responsabile, in pratica poche stanno adottando contromisure concrete. I rischi più sentiti sono l’inaccuratezza dei risultati, il rispetto delle normative e la sicurezza informatica, ma solo una parte delle organizzazioni intervistate ha già messo in atto strategie specifiche per mitigarli.
La trasparenza rappresenta un altro tema chiave. Il Foundation Model Transparency Index mostra miglioramenti rispetto all’anno precedente, con un incremento medio nei punteggi di trasparenza dal 37% al 58%. Tuttavia, il documento chiarisce che la strada è ancora lunga per garantire un’adeguata apertura da parte degli sviluppatori di modelli fondamentali.
Sul fronte accademico, invece, c’è un crescente interesse: le pubblicazioni dedicate alla responsabilità nell’AI sono aumentate del 28,8% nell’ultimo anno, segnale evidente che la comunità scientifica sta trattando con sempre maggiore attenzione le implicazioni etiche e sociali di questa tecnologia.
Non manca, infine, un focus su argomenti sensibili come la privacy e la governance dei dati, la giustizia e i pregiudizi algoritmici. Si evidenzia come, nonostante gli sforzi di molti sviluppatori per costruire modelli “esplicitamente imparziali”, l’analisi dei risultati mostra ancora forti associazioni distorte nei confronti di gruppi razziali e di genere. Per esempio, alcuni modelli tendono ad associare le donne alle scienze umane più che alle STEM, o attribuiscono più spesso ruoli di leadership agli uomini. Questo dimostra quanto sia difficile eliminare i bias profondamente radicati nei dati di addestramento.
Infine, viene trattato anche il problema sempre più rilevante della disinformazione generata dall’AI durante le elezioni: sebbene l’impatto effettivo di queste campagne non sia ancora chiaro, l’uso dell’intelligenza artificiale per creare e diffondere fake news elettorali è stato riscontrato in oltre una dozzina di paesi nel 2024.
Il capitolo 4 del rapporto è dedicato al tema “Economy” e offre un’analisi molto approfondita su come l’intelligenza artificiale stia trasformando l’economia globale, con particolare attenzione al 2024, che viene descritto come un anno di svolta. Non è un elenco di dati: è una narrazione del modo in cui l’AI si sta radicando nei mercati, nelle imprese e nel lavoro quotidiano. Ti spiego con un tono divulgativo e fluido, senza elenchi, come richiesto.
La prima cosa che emerge chiaramente è che l’intelligenza artificiale non è più un argomento da addetti ai lavori o da sperimentazioni di laboratorio: è diventata un pilastro dell’economia reale. Lo si vede dall’enorme incremento degli investimenti privati, che nel 2024 hanno raggiunto la cifra record di 252,3 miliardi di dollari. Cresce la cifra complessiva e cresce anche la quota specifica destinata alla generative AI, che da sola ha attirato 33,9 miliardi, segnando un aumento significativo rispetto agli anni precedenti. E qui gli Stati Uniti si confermano protagonisti assoluti, con investimenti che superano di gran lunga quelli di Cina, Europa e Regno Unito messi insieme.
Ma i soldi raccontano solo una parte della storia. A livello aziendale, l’adozione dell’AI è ormai diffusa e strutturale. Nel 2024, ben il 78% delle aziende coinvolte nelle indagini ha dichiarato di utilizzare soluzioni AI, e una su due usa tecnologie di intelligenza artificiale generativa. Non si tratta più di esperimenti isolati: l’AI è entrata nei processi core, dall’ottimizzazione della supply chain alla gestione dei servizi ai clienti, passando per le funzioni di marketing e sviluppo software. Certo, i benefici sono per ora percepiti come incrementali: la maggioranza delle aziende osserva risparmi e ricavi aggiuntivi modesti, ma la tendenza è chiara, e si punta a espansioni più profonde nel prossimo futuro.
Sul fronte del lavoro, l’AI sta ridisegnando la mappa delle competenze richieste e dei profili professionali. L’analisi del mercato del lavoro mostra che la domanda di competenze AI è cresciuta praticamente ovunque, con Singapore che guida la classifica mondiale. Negli Stati Uniti, ad esempio, le offerte di lavoro che richiedono competenze in intelligenza artificiale sono aumentate sensibilmente. Si cerca sempre più personale esperto di machine learning in senso stretto, intelligenza artificiale generativa, linguaggi di programmazione come Python, e metodologie di gestione dati avanzate. Interessante anche il fatto che le competenze legate al prompt engineering e ai modelli multimodali siano in forte ascesa, a conferma di una maturazione del mercato.
Un altro tassello importante del capitolo riguarda l’automazione fisica, ovvero la robotica. La Cina resta la nazione leader assoluta nelle installazioni di robot industriali, pur mostrando un rallentamento nella crescita, mentre i robot collaborativi — quelli progettati per lavorare fianco a fianco con gli esseri umani — stanno diventando sempre più comuni. Anche qui, l’AI gioca un ruolo cruciale: si sta passando da robot statici e pre-programmati a sistemi intelligenti in grado di adattarsi agli ambienti dinamici delle linee di produzione.
Infine, un accenno interessante riguarda l’energia. Lo sviluppo accelerato dell’intelligenza artificiale sta spingendo le aziende a cercare nuove fonti di energia sostenibile e affidabile per alimentare i loro data center. Ci sono movimenti concreti verso l’energia nucleare, con colossi come Microsoft, Google e Amazon che stanno stipulando accordi per alimentare le proprie infrastrutture AI con energia nucleare, mostrando una nuova consapevolezza degli impatti energetici dell’AI su larga scala.
Il capitolo 4 dipinge un panorama in cui l’intelligenza artificiale è ormai un motore economico globale a tutti gli effetti, che si espande trasversalmente tra settori, regioni e competenze, promettendo di trasformare il modo in cui viviamo e lavoriamo, anche se questa trasformazione avviene ancora con una certa cautela e gradualità nei risultati tangibili. Non siamo all’apice del cambiamento, ma ci stiamo avvicinando sempre più velocemente.
Il capitolo 5 del rapporto AI Index 2025 si addentra in modo appassionante nell’incontro tra intelligenza artificiale e scienza, in particolare nella medicina e nelle scienze della vita, ma anche con aperture interessanti verso la chimica, la fisica e altri domini scientifici. È un capitolo denso di prospettive, e racconta come l’AI stia rapidamente trasformando il modo in cui conduciamo la ricerca e forniamo assistenza sanitaria, passando da uno strumento di supporto a un vero e proprio agente collaborativo nei laboratori e negli ospedali.
Si parte subito con una constatazione forte: il 2024 è stato un anno di svolta, con la nascita di modelli di intelligenza artificiale sempre più potenti per la sequenziazione delle proteine, come ESM3 e AlphaFold 3. Questi modelli sono cresciuti a dismisura in termini di parametri e capacità, migliorando sensibilmente la precisione delle previsioni sulle strutture proteiche. AlphaFold 3, in particolare, si è spinto oltre: non si limita più a prevedere le strutture, è in grado di modellare anche le interazioni tra proteine e altre biomolecole fondamentali come DNA, RNA, ligandi e anticorpi, portando una rivoluzione nel campo dello sviluppo di nuovi farmaci.
Il capitolo sottolinea come l’AI stia ormai assumendo un ruolo da protagonista anche nella scoperta scientifica vera e propria. Aviary, ad esempio, è una piattaforma che addestra agenti LLM specificamente per compiti biologici complessi, mostrando che integrare modelli linguistici con strumenti esterni e conoscenza di dominio permette di ottenere risultati migliori rispetto a quelli di un modello generico. Poi c’è AlphaProteo di Google DeepMind, che ha creato nuovi leganti proteici con efficacia fino a 300 volte superiore rispetto agli approcci precedenti: un traguardo che avvicina sensibilmente l’obiettivo di trattamenti più mirati e potenti per malattie come il cancro o il diabete.
Non manca lo stupore per le ricostruzioni cerebrali avanzate: Google ha realizzato la mappatura più dettagliata mai creata di un millimetro cubo di cervello umano, arrivando a identificare circa 150 milioni di sinapsi. È un’impresa titanica che apre nuovi orizzonti nella comprensione dei circuiti neurali umani.
Uno dei punti più affascinanti è il concetto di “virtual AI lab”, ossia laboratori di ricerca completamente autonomi composti da agenti AI specializzati, in grado di collaborare tra loro come veri scienziati. In un esperimento, questo laboratorio autonomo ha progettato nanocorpi capaci di legarsi con grande successo al virus SARS-CoV-2, mostrando che l’AI può affiancare i ricercatori e in alcuni casi sostituirli nella generazione di nuove conoscenze.
Passando alla medicina clinica, l’AI ha raggiunto risultati sorprendenti anche nella pratica medica concreta: modelli come GPT-4 si sono dimostrati in grado di superare i medici umani in diagnosi complesse. Tuttavia, la collaborazione fra AI e dottori sembra essere la combinazione vincente, migliorando ancora di più l’accuratezza e l’efficacia delle cure.
Non da meno è l’adozione pratica nei sistemi sanitari. Il capitolo menziona, ad esempio, l’uso dell’intelligenza artificiale presso Stanford Health Care per lo screening della malattia arteriosa periferica, una pratica già in atto che testimonia l’ingresso concreto dell’AI nella sanità quotidiana. Allo stesso modo, c’è crescente attenzione all’uso di dati sintetici per migliorare la previsione dei rischi clinici, proteggere la privacy dei pazienti e velocizzare la scoperta di nuovi farmaci.
Sul fronte etico, si osserva una forte crescita nella produzione di pubblicazioni dedicate all’etica dell’AI in medicina: il numero di studi è quadruplicato dal 2020 al 2024. È un segnale della consapevolezza crescente sui rischi di discriminazioni algoritmiche e di uso improprio dei dati sensibili.
Il capitolo si chiude con una nota di prestigio: nel 2024, due Premi Nobel sono stati assegnati per ricerche legate all’AI. Demis Hassabis e John Jumper di DeepMind hanno vinto il Nobel per la Chimica grazie al lavoro pionieristico su AlphaFold, mentre John Hopfield e Geoffrey Hinton hanno ricevuto il Nobel per la Fisica per i loro contributi fondamentali sulle reti neurali.
Questo capitolo ci mostra uno scenario di accelerazione entusiasmante, in cui l’intelligenza artificiale sta diventando una forza generativa in medicina e nelle scienze della vita. Non senza sfide, certo, ma con un potenziale che ormai sembra illimitato.
Il capitolo 6 del report AI Index 2025 si concentra interamente sul tema della policy e della governance dell’intelligenza artificiale, analizzando con attenzione cosa è successo nel corso del 2024 sul fronte normativo, regolatorio e degli investimenti pubblici. Ti accompagno in una spiegazione approfondita ma fluida, per darti una panoramica chiara e ben connessa di tutto il contenuto.
L’anno è stato segnato da un’accelerazione evidente nell’attenzione dei governi verso l’AI. La spinta regolatoria non è stata uniforme: mentre a livello federale negli Stati Uniti il progresso è stato relativamente lento, è interessante notare che sono stati proprio gli stati americani a prendere il comando, con ben 131 leggi statali legate all’AI approvate nel solo 2024, più del doppio rispetto al 2023. Lo stesso vale per la crescita delle regolamentazioni federali: 59 regolamenti legati all’intelligenza artificiale sono stati introdotti quest’anno da 42 agenzie diverse, il doppio rispetto all’anno precedente.
In parallelo, nel resto del mondo si è consolidata una vera e propria corsa agli investimenti strategici sull’infrastruttura AI. Il Canada ha annunciato un pacchetto da 2,4 miliardi di dollari canadesi per rafforzare la propria posizione nella corsa globale all’AI, mentre la Cina ha messo sul piatto un imponente fondo da 47,5 miliardi di dollari per potenziare la produzione di semiconduttori, cuore pulsante del calcolo per l’AI. Anche l’Europa si è mossa, con la Francia che ha destinato 109 miliardi di euro, e l’India che ha lanciato l’IndiaAI Mission con 1,25 miliardi di dollari. Impressionante anche la strategia dell’Arabia Saudita, che ha svelato “Project Transcendence”, un’iniziativa da 100 miliardi di dollari per trasformarsi in un hub globale dell’intelligenza artificiale, stringendo anche una partnership con Alphabet per sviluppare modelli linguistici in arabo.
Un altro aspetto rilevante è l’istituzione di nuove strutture globali per garantire la sicurezza dell’AI: dopo il summit sull’AI di Bletchley Park nel Regno Unito, il 2024 ha visto nascere una rete internazionale di istituti per la sicurezza dell’AI, con centri in Giappone, Francia, Germania, Italia, Singapore, Corea del Sud, Australia, Canada e nell’Unione Europea, oltre a quelli già attivi negli Stati Uniti e nel Regno Unito. Questo segna un forte tentativo di cooperazione internazionale su un tema tanto complesso quanto urgente.
Sul fronte normativo europeo, c’è stato un passaggio storico: l’approvazione del Regolamento AI europeo (AI Act) da parte del Parlamento. È la prima legge di questo tipo al mondo, con obblighi di trasparenza, gestione dei rischi e divieti specifici, come quello sulla categorizzazione biometrica basata su caratteristiche sensibili. L’approccio dell’AI Act è restrittivo, in linea con il rigore già visto nella normativa europea sulla privacy (GDPR), e ha già iniziato a far discutere l’industria per la sua severità.
Un altro caso emblematico viene dalla Francia, che ha multato Google per 250 milioni di euro per aver utilizzato contenuti giornalistici francesi nell’addestramento di Bard (ora Gemini), senza avvisare le testate interessate. Questo evento sottolinea come la questione della proprietà intellettuale e dell’utilizzo dei dati per addestrare modelli AI sia un terreno ancora in forte evoluzione normativa.
Dal lato opposto, in India si è verificato un interessante ripensamento: dopo aver inizialmente richiesto l’approvazione governativa per il lancio di nuovi modelli AI, il governo ha fatto marcia indietro a causa delle forti proteste di imprenditori e investitori. Adesso il paese punta su un modello di autoregolamentazione, mantenendo comunque paletti su integrità elettorale e rispetto dei diritti fondamentali.
Negli Stati Uniti, la Casa Bianca ha istituito un’apposita task force sull’infrastruttura dei data center per AI, evidenziando la crescente attenzione alla sostenibilità e alla sicurezza delle infrastrutture tecnologiche che li alimentano.
Infine, è notevole il livello di attenzione riservato alla questione dei deepfake: il numero di stati americani che hanno legiferato contro l’utilizzo manipolativo di AI in contesti elettorali è salito a 24 nel 2024, rispetto ai soli cinque del 2023. Eppure, è anche emerso un certo dibattito: ad esempio, il governatore della California ha veto una proposta di legge particolarmente rigida che mirava a responsabilizzare legalmente le aziende AI per eventuali danni causati dai loro modelli, temendo che potesse frenare l’innovazione, specie in campo open-weight.
Il capitolo descrive un quadro di governance globale in fermento. Siamo in una fase di intensa sperimentazione normativa e politica, con un equilibrio delicato tra la spinta verso l’innovazione e la necessità di porre limiti efficaci per garantire sicurezza, trasparenza e rispetto dei diritti umani nell’era dell’intelligenza artificiale
Il capitolo 7 del AI Index Report 2025, dedicato all’istruzione, è un’analisi molto approfondita dello stato attuale e delle prospettive future dell’educazione all’intelligenza artificiale e all’informatica, soprattutto in ambito scolastico e accademico. L’approccio è globale, con una particolare attenzione agli Stati Uniti, dove si concentrano molti dati e osservazioni chiave.
Il punto di partenza è un concetto importante: si parla di “AI in education”, cioè dell’uso dell’intelligenza artificiale nei processi di insegnamento e apprendimento, di “AI literacy” e, più in profondità, di “AI education”. Quest’ultima è la vera protagonista del capitolo ed è intesa come la preparazione degli studenti a capire cosa sia l’intelligenza artificiale e a svilupparne le competenze tecniche e critiche necessarie per costruirla, gestirla e valutarla con responsabilità.
Il capitolo evidenzia come l’educazione all’informatica (CS) sia una base fondamentale per l’educazione all’AI. Negli Stati Uniti, ad esempio, la percentuale delle scuole superiori che offre corsi di informatica è passata dal 35% nel 2017-2018 al 60% nel 2023-2024, segno di un impegno crescente nel rendere la materia più accessibile. Tuttavia, ci sono grandi disparità: alcune regioni, come l’Arkansas e il Maryland, raggiungono il 100% di scuole con corsi di informatica, mentre altre, come il Montana, si fermano al 31%. La situazione è ancor più complessa quando si guarda alle differenze per dimensione della scuola, area geografica o popolazione studentesca: gli studenti delle scuole più piccole, quelli provenienti da contesti rurali o urbani difficili e quelli economicamente svantaggiati hanno generalmente meno accesso a questi corsi.
Anche la partecipazione attiva degli studenti resta limitata. Solo il 6,4% degli studenti delle scuole superiori statunitensi è iscritto a corsi di informatica, una crescita modesta rispetto al 5,1% di qualche anno prima. E sebbene vi sia stato qualche progresso nella rappresentanza delle minoranze etniche — con studenti afroamericani, nativi americani e bianchi che raggiungono o superano una rappresentanza proporzionale — permangono ancora disparità significative per altre categorie, come le ragazze, gli studenti con disabilità o provenienti da contesti socioeconomici svantaggiati.
Passando agli studi avanzati, si nota una crescita particolarmente marcata nei programmi di laurea magistrale in AI negli Stati Uniti, che sono quasi raddoppiati tra il 2022 e il 2023. Anche se i numeri dei laureati triennali e di dottorato mostrano una crescita più lenta, questo aumento nelle lauree magistrali potrebbe essere il preludio a un’espansione più ampia a tutti i livelli di formazione.
A livello globale, l’adozione dell’educazione all’informatica nelle scuole K-12 (cioè dalla scuola primaria alla secondaria) è in crescita significativa. Due terzi dei paesi offrono o pianificano di offrire corsi di informatica nelle scuole, il doppio rispetto al 2019. Tuttavia, il quadro è molto variegato: l’Africa, ad esempio, pur facendo progressi notevoli, sconta ancora ostacoli infrastrutturali enormi, come la mancanza di elettricità nelle scuole.
Il capitolo sottolinea anche l’importanza della formazione degli insegnanti. Negli Stati Uniti, benché la maggior parte dei docenti di informatica riconosca l’importanza di insegnare l’AI, meno della metà si sente attrezzata per farlo. È un nodo cruciale: senza insegnanti formati e sicuri delle proprie competenze, sarà difficile costruire un’alfabetizzazione diffusa sull’intelligenza artificiale.
Infine, lo sguardo si amplia a una riflessione generale: non basta aumentare l’accesso ai corsi di AI e informatica; serve un impegno sistemico per garantire che questi percorsi educativi siano equi, inclusivi e capaci di preparare gli studenti a usare l’AI, a comprenderla criticamente e a plasmarne lo sviluppo futuro in modo responsabile.
Il capitolo 8 del rapporto AI Index 2025 si concentra interamente sul tema dell’opinione pubblica riguardo all’intelligenza artificiale, ed è piuttosto interessante perché ci fornisce un quadro non solo globale ma anche molto sfumato per regioni, per specifici aspetti della vita quotidiana, del lavoro e persino sulle percezioni politiche, specialmente negli Stati Uniti.
Il punto di partenza è il fatto che l’AI sta ormai permeando profondamente la società, tanto che diventa fondamentale comprendere come le persone la percepiscano. I dati raccolti nel capitolo raccontano una storia di cauto ottimismo a livello mondiale: infatti, in un campione di 26 Paesi, ben 18 hanno registrato un aumento nella quota di persone che vedono nei prodotti e servizi basati su AI più benefici che svantaggi. Globalmente, questa percentuale è salita dal 52% del 2022 al 55% del 2024. La crescita è significativa, ma allo stesso tempo va letta alla luce di alcune tensioni evidenti.
Infatti, nonostante questa tendenza positiva, emergono anche preoccupazioni crescenti. La fiducia nelle aziende che sviluppano AI, per esempio, è in calo: la percentuale di persone che si fidano che queste proteggano adeguatamente i dati personali è scesa dal 50% del 2023 al 47% nel 2024. Allo stesso modo, diminuisce la fiducia nella neutralità e nell’assenza di discriminazioni da parte dei sistemi di AI. Questo è un segnale molto chiaro che, sebbene la tecnologia sia vista come promettente, c’è una crescente attenzione critica verso chi la controlla e la sua reale equità.
Le differenze regionali sono molto marcate. In Paesi come Cina, Indonesia e Thailandia, una larga maggioranza vede l’AI come positiva: rispettivamente 83%, 80% e 77%. Al contrario, Paesi occidentali come Canada, Stati Uniti e Paesi Bassi mostrano una visione più scettica, con valori attorno al 36–40%. Curiosamente, però, anche in questi Paesi tradizionalmente più prudenti si osserva una certa apertura negli ultimi anni: per esempio, in Canada l’ottimismo verso l’AI è cresciuto di 8 punti percentuali tra il 2022 e il 2024.
La percezione di quanto l’AI influenzerà la vita quotidiana è anch’essa in aumento. Circa due terzi degli intervistati a livello globale pensano che l’AI cambierà significativamente la loro vita nei prossimi 3–5 anni, un aumento di sei punti rispetto al 2022. Interessante notare che questo cambiamento di percezione è stato più pronunciato in Canada (+17%) e in Germania (+15%).
Ci sono anche aree di applicazione specifiche che il rapporto esplora, come le auto a guida autonoma: qui il pubblico statunitense rimane molto diffidente. Secondo un sondaggio dell’American Automobile Association, il 61% degli americani dichiara di avere paura di queste vetture, anche se è una leggera diminuzione rispetto al picco di timore del 2023.
Molto rilevante è anche l’atteggiamento dei policymaker locali negli Stati Uniti. Tra questi, ben il 73.7% è favorevole a una regolamentazione dell’AI, con una crescita netta rispetto al 55.7% del 2022. Anche qui, però, ci sono sfumature politiche: i Democratici sono più propensi (79.2%) rispetto ai Repubblicani (55.5%), sebbene entrambi abbiano visto aumentare il proprio sostegno alla regolamentazione.
Infine, uno degli aspetti più interessanti del capitolo è come le persone vedono l’impatto dell’AI sul lavoro e sul futuro economico. A livello globale, il 60% degli intervistati ritiene che l’AI cambierà il modo in cui svolgono il proprio lavoro nei prossimi cinque anni, ma solo il 36% pensa che l’AI sostituirà il proprio lavoro. È una distinzione importante: le persone sembrano essere più preoccupate di dover cambiare modalità di lavoro piuttosto che di perdere del tutto la propria occupazione.
L’ultimo capitolo del rapporto offre un ritratto molto vivido di una società globale in bilico tra entusiasmo e preoccupazione. L’AI viene riconosciuta come un motore di cambiamento profondo, ma la fiducia nelle aziende che la sviluppano e nella sua equità non cresce altrettanto velocemente. Emerge quindi una forte domanda di governance responsabile, trasparenza e garanzie concrete, soprattutto in ambiti sensibili come la protezione dei dati e l’impatto sociale sul lavoro.