Succede a tutti di avere un momento in cui dici: «Come ho fatto a non capirlo prima?». A me è capitato al World Economic Forum di Davos, quando in una sala affollata si è alzato un uomo di nome Toshihaki Higashihara. È il presidente del conglomerato giapponese Hitachi e a Davos ha detto una cosa semplice e terribile: ha citato una stima secondo la quale entro il 2050 i centri di calcolo informatico («data center» o «cloud») avranno bisogno di «mille volte più energia elettrica di oggi» a causa dei loro consumi «associati al funzionamento dell’intelligenza artificiale» (AI). E non è una questione remota: è su di noi. Lunedì scorso Renato Mazzoncini, l’amministratore della società lombarda di servizi in rete A2A, ha detto che la sua azienda dovrà triplicare la potenza elettrica su Milano per sostenere picchi di consumo molto più alti. Perché? Perché una singola ricerca su ChatGPT, la piattaforma di intelligenza artificiale di OpenAI, «consuma tre volte l’energia che consumava Google per dare la stessa risposta».
Le implicazioni per l’ambiente o per le scelte davanti alle quali una rivoluzione del genere mette ogni Paese sono gigantesche: dobbiamo aumentare esponenzialmente i consumi di elettricità – con tutto ciò che questo comporta per le fonti energetiche e per il clima – o è meglio accettare una decrescita (più o meno) felice nella quale perdiamo terreno sui Paesi che usano di più le tecnologie e dunque sono più produttivi, più veloci, più ricchi, più capaci di attrarre anche i nostri giovani più istruiti? E ci stiamo rendendo conto che siamo davanti a un bivio del genere? Confesso di non essere uno specialista di AI, dunque mi affido chi ne sa infinitamente di più. A una conferenza dell’Aspen Institute Italia a Venezia due giorni fa il professore di Electrical Engineering e Computer Sciences dell’Università di California a Berkeley, Alberto Sangiovanni-Vincentelli, ha riassunto ciò che sta accadendo con un paragone: «In prospettiva – ha detto – l’utilizzo dei server per allenare le reti neurali, che rappresentano solo una parte dei sistemi di intelligenza artificiale, consuma tanta energia elettrica come la Svizzera. Può essere che in futuro avremo nuove architetture che consumano meno – osserva Sangiovanni-Vincentelli – ma questo è il quadro attuale».
Jensen Huang, l’amministratore delegato del colosso americano dei microchip Nvidia, prevede che la rivoluzione dell’AI nei prossimi cinque anni porterà a raddoppiare da mille a duemila miliardi di dollari il valore degli investimenti realizzati in data centre nel mondo. Un data centre è un grosso centro di calcolo costituito di migliaia di computer che ricevono, conservano e processano i dati prodotti o lavorati dai nostri computer: dal più piccolo dei laptop di un adolescente ai sistemi digitali delle grandi aziende, dei governi o dei grandi centri di ricerca. L’intelligenza artificiale usa i data centre in modo particolarmente intenso perché i suoi cosiddetti «large language model», in sostanza i sistemi grazie ai quali le piattaforme di AI prevedono le risposte alle domande che ricevono, si formano su quantità colossali di dati per arrivare a fare «inferenze» sui risultati che sembrano statisticamente più probabili. Solo il creare quell’intelligenza artificiale «generativa» consuma tantissima energia. Quindi, quando voi chiedete per esempio a ChatGPT di scrivere per voi un’email per candidarvi a un posto di lavoro, per stabilire un contatto di affari o gli chiedete di scrivere il vostro prossimo compito di italiano su Leopardi, quella richiesta innesca un nuovo enorme consumo elettrico: attraverso i data centre, risale a milioni o miliardi di esempi già presenti in rete e vi fornirà la risposta che sembra matematicamente più probabile.
I data centre dell’intelligenza artificiale funzionano grazie a semiconduttori che, da decenni, diventano sempre più piccoli. Oggi i transistor più avanzati contenuti in un chip hanno il diametro di due nanometri, cioè due miliardesimi di metro: non si vedono ad occhio nudo. La cosiddetta «legge di Gordon Moore» – da uno dei fondatori dell’industria dei semiconduttori americana negli anni ’60 – prevede che il progresso nella potenza dei microchip, dunque nella loro efficienza e nella loro capacità di funzionare con meno energia, sia esponenziale: raddoppia due anni. In un circuito integrato entreranno sempre più transistor. Ma la rivoluzione dell’AI sta infrangendo quella «legge» o meglio la sta inopinatamente rendendo inutile. La brutale fame di infrastrutture digitali e di energia dell’intelligenza artificiale aumenta il fabbisogno di data centre e il consumo elettrico in modo apparentemente incontrollabile. Mi dice Giorgio Metta, direttore scientifico dell’Istituto Italiano di Tecnologia: «A parità di capacità di calcolo, i consumi dei microchip decrescono grazie alla riduzione delle dimensioni dei transistor: più sono piccoli, meno consumano. Ma evidentemente siamo entrati in una fase in cui l’aumento delle necessità di calcolo sta accelerando più rapidamente di quanto si riesca a rendere più piccoli ed efficienti i chip da un punto di vista del consumo di energia».
Oggi un tipico data centre negli Stati Uniti consuma dieci volte più megawatt di dieci anni fa e il fabbisogno dell’AI sta quintuplicando entro il 2025, come peso relativo nel totale del consumo dei data centre. Dunque per integrare l’intelligenza artificiale nei suoi sistemi, nelle sue imprese, nella sua sanità, nella sua amministrazione, nelle sue capacità di difesa o di gestione delle sue banche, un Paese ha bisogno di una programmazione micidiale. Deve investire nell’infrastruttura dei data centre, altrimenti sarà costretto ad immagazzinare i suoi dati più sensibili e strategici nei centri di altri Paesi: non si sentirebbe mai davvero al sicuro. Deve immaginare da dove attingere a sempre nuove fonti di energia, per alimentare quei data centre e deve capire come farlo in modo da non alimentare le emissioni a effetto serra: non potrà certo aprire nuove centrali a carbone e probabilmente neppure a gas, né potrà sostenere il conto di comprare tutta quell’energia dall’estero. Deve anche accettare che le fonti rinnovabili non garantiscono le quantità e la stabilità del flusso che serve per far funzionare centinaia, migliaia di centri di calcolo a flusso continuo. Deve poi pensare alle autostrade su cui far viaggiare quei dati: quelle di oggi non reggerebbero e sarebbero facilmente attaccabili dai pirati della rete. Mi dice ancora Giorgio Metta, il direttore scientifico dell’IIT: «Per connettere fra loro alcuni dei nostri centri di ricerca, abbiamo iniziato a investire somme rilevanti per dotarci di fibre ottiche dedicate fino a 400 Gigabit al secondo, perché la connettività ordinaria non basta. Dati da spostare tra i nostri centri a Genova possono essere un milione di volte più ingombranti di un film o un video da scaricare su un’utenza domestica».
C’è chi ha iniziato a pensare al futuro in maniera strategica, perché la rivoluzione dell’AI cambia le strutture di un sistema. Sam Altman, il CEO di OpenAI che ha di fatto innescato l’attuale ondata di intelligenza artificiale «generativa», lo ha capito: sta investendo nella produzione diretta di microchip, perché non vuole dipendere da quelli di Nvidia; e investe anche in due start up nell’energia nucleare civile (una a fissione, l’altra a fusione) per garantirsi l’energia di cui la sua azienda avrà bisogno. Dice Altman: «Il mondo ha bisogno di più infrastrutture dell’AI – di più fabbriche di chip, di più energia, di più data centre – di quanti oggi si programmi di costruire». La Francia sta lanciando un programma di quattordici nuove centrali nucleari – attirando a suon di centinaia di milioni di euro anche delle start up del settore nate in Italia – in gran parte per alimentare i data centre che sta costruendo e così competere nell’AI. E noi? Possiamo decidere che in Italia l’AI non c’interessa.
Un rapporto co-prodotto per il think tank Teha da Microsoft (che è parte in causa, come azionista di riferimento di Sam Altman a OpenAI) prevede che integrare l’intelligenza artificiale nelle imprese, nella sanità e nelle amministrazioni in Italia porterebbe a un aumento di capacità di cura e un aumento di valore aggiunto dell’economia italiana di 312 miliardi – a parità di ore lavorate – entro il 2040. Sarebbe un modo per compensare in parte il calo di capacità produttiva che arriverà dalla perdita di quasi quattro milioni di lavoratori a causa della demografia. Ma, appunto, possiamo decidere che non c’interessa. Che vogliamo continuare con le tecnologie del Novecento, scalando all’indietro di una o due marce. Sarebbe legittimo: scegliamo di rientrare fra quelli che Jensen Huang di Nvidia chiama gli «haves not» della nuova rivoluzione, contrapposti invece agli «haves», i ricchi che ce l’hanno. Invece noi vogliamo avercela. Vogliamo tutto: questo mondo e quell’altro. Vogliamo restare nella «serie A» del mondo avanzato. Ma, con pochissime e sparse eccezioni, non facciamo niente per questo: non ci stiamo neanche rendendo conto della capacità di visione e del coraggio che servirebbe.
Fonte: Federico Fubini | Corriere.it