AI e sviluppo sostenibile: le opportunità e i rischi

L’intelligenza artificiale ha il potenziale per accelerare il raggiungimento degli Obiettivi per lo sviluppo sostenibile fissati dall’Onu, ma presenta anche rischi legati alle diverse componenti della sostenibilità.

Sostenibilità e intelligenza artificiale sono due delle espressioni più utilizzate negli ultimi anni, specie in ambito aziendale. Da quando l’AI – soprattutto l’AI generativa – è diventata mainstream, dopo il rilascio della prima versione di ChatGPT, si susseguono discussioni, articoli e libri sull’impatto ambientale dell’intelligenza artificiale.

Il tema viene ricondotto specialmente nei termini della crescente domanda di energia necessaria per il suo funzionamento, e delle crescenti emissioni inquinanti nell’atmosfera a causa dell’addestramento di modelli sempre più evoluti di questa tecnologia, il cui utilizzo è sempre più diffuso.  

Che i vari modelli di AI abbiano un peso ecologico crescente è innegabile, anche se è tuttora difficile stimarlo con esattezza. L’aspetto ambientale è però solo una parte della questione: l’impatto dell’AI si riflette infatti anche sulle altre dimensioni della sostenibilità, a livello sociale, economico e di governance.

Non si tratta solo di impatti negativi: il recente report delle Nazioni unite Governing AI for humanity e altri studi sottolineano il ruolo cruciale che l’intelligenza artificiale potrebbe avere nel raggiungere più velocemente i 17 obiettivi per lo sviluppo sostenibile (Sustainable development goal) definiti il 25 settembre 2015 durante l’Assemblea Generale delle Nazioni Unite, quando è stata adottata l’Agenda 2030 per lo sviluppo sostenibile.

Per tutti questi motivi, riteniamo che il tema del rapporto tra AI e sostenibilità non si possa esaurire nel chiedersi se l’AI sia sostenibile oppure no, ma debba essere trattato nelle sue diverse sfaccettature. In questo articolo proviamo dunque a chiarire quale sia l’impatto dell’AI in termini ambientali, ma anche quali siano i rischi e le opportunità che l’AI presenta relativamente alle altre dimensioni della sostenibilità, a livello sociale, economico e di governance.

L’impatto ambientale dell’intelligenza artificiale

Alcuni anni fa, il documentarista e saggista francese Guillaume Pitron ha messo in guardia l’umanità sui rischi legati all’inquinamento digitale: Internet, i data center, il cloud, i social network, lungi dall’immaterialità che suggeriscono ai loro utilizzatori, hanno un crescente impatto ambientale. Il libro di Pitron, dall’emblematico titolo Inferno digitale. Perché internet, smartphone e social network stanno distruggendo il nostro pianeta, è uscito nel 2021 ed è dunque antecedente all’esplosione del dibattito, e dell’utilizzo, dell’AI generativa.

Pitron, parafrasando un famoso volume di Umberto Eco, può essere considerato un apocalittico. Tuttavia il suo libro è importante, anche perché invita a riflettere sugli impatti ambientali delle tecnologie digitali allargando la prospettiva oltre le emissioni:

“Tendiamo a guardare solo alle emissioni di CO2 per apprezzare i nostri comportamenti ecologici – ha dichiarato Pitron in un’intervista al quotidiano La Repubblica -. Ma non dobbiamo dimenticare che anche gli impatti sul suolo, sulle acque, sugli oceani e l’esaurimento delle risorse derivanti dall’intensità materiale delle tecnologie digitali sono colossali e devono essere presi in considerazione se vogliamo lasciare un pianeta sostenibile alle generazioni future”.

Emissioni in crescita e aumento della domanda di energia sono comunque due tra gli aspetti più evidenti dell’impatto ambientale dell’intelligenza artificiale. Alcune recenti scelte e i dati che provengono dalle Big tech sembrano confermarlo. Microsoft, ad esempio, ha recentemente annunciato un accordo con Constellation Energy per riaccendere la centrale nucleare di Three Mile Island in Pennsylvania, teatro nel 1979 del più grave incidente nucleare sul suolo degli Stati Uniti.

Anche Oracle, secondo il suo co-fondatore e presidente, Larry Ellison, sta pensando di sviluppare tre piccoli reattori nucleari modulari per alimentare un data center di nuova generazione. Il ricorso al nucleare è una tendenza che le big tech stanno seguendo per risolvere il problema delle crescenti emissioni dovute a data center sempre più grandi e performanti, che a loro volta sono necessari per addestrare modelli sempre più evoluti di intelligenza artificiale e per rispondere alla diffusione sempre maggiore di queste tecnologie nel mondo.

Anche in questo caso c’è un dato emblematico: dal 2019 ad oggi le emissioni di gas serra (GHG, greenhouse gas) prodotte da Google, come riferisce un articolo apparso recentemente sul Guardian, sono quasi raddoppiate. Nel 2023 le emissioni prodotte dal colosso di Mountain view hanno raggiunto i 14,3 milioni di tonnellate, facendo segnare un incremento del 13% rispetto all’anno precedente.

Google ha dichiarato che le cause principali di questo aumento sono il consumo di elettricità da parte dei data center e le emissioni della catena di approvvigionamento. L’oggettivo incremento delle emissioni, unito “all’incertezza sul futuro impatto ambientale dell’AI, che è complesso e difficile da prevedere”, mettono seriamente a rischio l’ambizioso obiettivo di raggiungere la neutralità climatica, il net zero, entro il 2030.

Quanto inquina l’AI?

Nello specifico, quanto inquina l’AI? Sebbene, come abbiamo scritto, l’impatto ambientale dell’AI non si possa ricondurre solo a questa domanda, è interessante notare come qualcosa, nel campo degli studi sulle emissioni prodotte dagli sviluppatori di modelli di AI, si stia lentamente muovendo.

Uno degli studi più recenti è stato pubblicato dalla Carnegie Mellon University degli Stati Uniti, a firma delle ricercatrici Alexandra Sasha Luccioni e Yacine Jernite. Si tratta del primo tentativo di quantificare le emissioni di anidride carbonica causate dall’utilizzo di un modello di intelligenza artificiale per diversi compiti.

Nello studio, infatti, le due studiose ricordano che, quando si tratta di modelli AI, a inquinare non è solo la fase di addestramento ma anche le inferenze, cioè il momento in cui un sistema di AI utilizza ciò che ha “appreso” durante l’addestramento per generare risposte e creare contenuti, un output.

Restando sul tema delle emissioni, questi sono alcuni dei take-away dello studio della Carnegie:

  • i task generativi, cioè chiedere all’AI di produrre un nuovo contenuto, sono più intensivi dal punto di vista energetico e delle emissioni di carbonio rispetto ai compiti discriminativi;
  • i task che coinvolgono le immagini sono più dispendiosi in termini di energia e di carbonio rispetto a quelli che coinvolgono solo il testo. A titolo di esempio, il modello AI meno efficiente tra quelli analizzati ha richiesto, per generare mille immagini, circa 11,49 kWh, la stessa energia che serve per caricare 522 smartphone.   
  • l’addestramento rimane in generale più dispendioso in termini di energia e di carbonio rispetto all’inferenza, anche se nei modelli di AI più utilizzati il rapporto tra le due fasi in termini di emissioni tende a raggiungere la parità.

Anche un paragrafo dell’AI Index report 2024 della prestigiosa Università di Stanford è dedicato all’impatto ambientale dell’intelligenza artificiale.

Il report fornisce alcuni dati interessanti: il modello linguistico di grandi dimensioni (LLM) Llama 2 di Meta da 70 miliardi di parametri, nel 2023 ha emesso circa 291,2 tonnellate di carbonio equivalenti, pari a circa 291 volte le emissioni rilasciate da un viaggiatore su un volo di andata e ritorno da New York a San Francisco. Nel report è inserita una tabella, che riportiamo di seguito, che mostra il consumo di energia e le emissioni prodotte da diversi modelli LLM.

Il report di Stanford è stimolante anche su altri due aspetti. Il primo è una critica rivolta al mondo dell’AI: la mancanza di trasparenza sulle emissioni. “Coerentemente con quanto emerso da altri studi, la maggior parte dei principali sviluppatori di modelli non comunica le emissioni di carbonio, ostacolando gli sforzi per condurre valutazioni approfondite e accurate di questa metrica. Ad esempio, molti importanti sviluppatori di modelli come OpenAI, Google, Anthropic e Mistral non riportano le emissioni durante l’addestramento, mentre Meta lo fa”.

Il secondo è un’esortazione alla comunità scientifica impegnata sul fronte dell’AI: dato l’aumento delle dimensioni dei modelli di intelligenza artificiale e la loro sempre maggiore diffusione, è quanto mai fondamentale monitorare diligentemente e mitigare gli effetti ambientali di questi sistemi.

L’AI è solo una (piccola) parte dell’elettrificazione

Sottolineata l’importanza di una maggior trasparenza nel monitoraggio sulle emissioni, va però ricordato come l’AI possa avere un importante ruolo anche nel rendere più efficiente l’utilizzo dell’energia elettrica.  

Siamo nel pieno di una fase di elettrificazione che dovrebbe portare a un sempre minore utilizzo di combustibili fossili al fine di ridurre l’inquinamento e limitare l’impatto del surriscaldamento di origine antropica. In questa fase, ad aver bisogno di più energia elettrica non sono solo i data center, ma anche le colonnine di ricarica pubbliche e private per le auto elettriche, i condizionatori e le pompe di calore necessari per fronteggiare il riscaldamento climatico e le condizioni meteo instabili, i mezzi di trasporto alternativi alle auto come monopattini elettrici ed e-bike.

Le proiezioni dell’Agenzia internazionale per l’energia (AIE) indicano che il consumo di elettricità da parte di data center, AI e criptovalute potrebbe raggiungere il doppio dei livelli del 2022 entro il 2026. Queste tecnologie insieme, però, hanno rappresentato circa il 2% della domanda globale di elettricità nel 2022.

Il punto, dunque, non è tanto (o solo) la domanda energetica crescente, ma è come si risponderà a questa domanda. È la conclusione di un articolo apparso sulla MIT Technology Review:

“Se costruiamo più impianti a combustibili fossili per soddisfare la nostra crescente domanda di elettricità, le conseguenze per il clima saranno negative – scrive la giornalista Casey Crownhart -. Ma se utilizziamo l’aumento della domanda di elettricità come catalizzatore per puntare maggiormente sulle energie rinnovabili e su altre fonti di energia a basse emissioni di carbonio, e se spingiamo l’intelligenza artificiale a diventare più efficiente, facendo di più con meno energia, allora possiamo continuare a ripulire lentamente la rete, anche se l’intelligenza artificiale continua a espandere la sua portata nelle nostre vite”.

L’altro lato della medaglia: l’AI per l’ambiente

Lo stesso report dell’Università di Stanford che abbiamo citato in precedenza evidenzia come, nonostante i suoi impatti, l’AI possa contribuire positivamente alla sostenibilità ambientale. Tra le applicazioni più promettenti di questa tecnologia in questo ambito figurano il miglioramento della gestione dei sistemi di energia termica, il miglioramento delle strategie di controllo dei parassiti e il miglioramento della qualità dell’aria urbana.

Anche la Commissione europea ha evidenziato il ruolo cruciale che l’intelligenza artificiale può ricoprire per fare fronte ai cambiamenti climatici e migliorare la sostenibilità ambientale. Un paragrafo del report relativo all’iniziativa GenAI4EU sottolinea il contributo dell’AI generativa nello sviluppo dei sistemi di previsione degli eventi meteorologici e climatici estremi.

Grazie all’AI generativa è anche migliorata la capacità di elaborazione di modelli relativi allo stato dell’ambiente (acqua, aria, biodiversità del suolo) e di valutazione dell’impatto dell’economia sulle risorse naturali, ed è possibile rendere le previsioni meteo più accurate, dettagliate e adattabili, apportando così un contributo significativo alla preparazione alle catastrofi, all’agricoltura, ai trasporti e ad altri settori sensibili alle previsioni meteorologiche.

Entro il 2030 dovrebbe essere pienamente operativa anche l’iniziativa Destination Earth, che prevede la creazione di un gemello digitale (digital twin) del nostro pianeta altamente accurato per poter modellare, monitorare e simulare i fenomeni naturali, i rischi e le relative attività umane.

Destination Earth, come si legge sul sito, supporterà la gestione di sfide ambientali complesse per: monitorare e simulare gli sviluppi del sistema Terra e gli interventi umani; anticipare i disastri ambientali e le conseguenti crisi socio-economiche per salvare vite umane ed evitare grandi crisi economiche; consentire lo sviluppo e la verifica di scenari per uno sviluppo sempre più sostenibile.

L’AI come acceleratore per lo sviluppo sostenibile

La crisi climatica è solo uno degli ambiti in cui l’utilizzo dell’AI potrebbe avere significativi impatti positivi. Per ognuno dei 17 Obiettivi per lo sviluppo sostenibile sono infatti centinaia le sperimentazioni già avviate o in procinto di essere avviate che promettono di generare benefici, come evidenziato anche dal già citato report delle Nazioni unite.

Nell’ambito della lotta alla povertà (Sdg 1), l’apprendimento automatico potrebbe ad esempio essere utilizzato per indirizzare gli aiuti in denaro a chi ne ha più bisogno o fornire punteggi di credito (credit score) alternativi agli individui finanziariamente esclusi. Per quanto riguarda il secondo obiettivo per lo sviluppo sostenibile, ossia sconfiggere la fame, l’intelligenza artificiale potrebbe essere utilizzata per contribuire allo sviluppo di nuove colture, selezionare meglio le regioni di coltivazione per ridurre al minimo i rischi legati alle coltivazioni e fornire un allarme precoce per le crisi nutrizionali.

Uno degli ambiti in cui i progressi legati all’AI sono più evidenti è quello delle scienze e della medicina. Riguardo a malattie come l’Alzheimer, il Parkinson e la sclerosi laterale amiotrofica (SLA), gli esperti che utilizzano l’AI stanno identificando i biomarcatori delle patologie e prevedendo le risposte ai trattamenti, migliorando significativamente la precisione e la velocità della diagnosi e dello sviluppo di una cura.

In generale, l’AI sta contribuendo a far progredire la medicina di precisione, ad esempio nelle malattie neurodegenerative, adattando i trattamenti in base ai profili genetici e clinici dei pazienti. In ambito farmacologico, la tecnologia AI sta inoltre contribuendo ad accelerare la scoperta e lo sviluppo di nuovi composti chimici.

I rischi legati all’AI non sono solo ambientali

È oggettivamente impossibile riassumere, in un solo articolo, tutte le potenzialità connesse all’AI e al perseguimento dei 17 obiettivi per lo sviluppo sostenibile. Ma è altresì importante ricordare non solo gli impatti a livello ecologico di queste tecnologie, ma anche i rischi a livello sociale e politico che comportano.

Innanzitutto, come avviene per la ricchezza, anche queste tecnologie scontano un’iniqua distribuzione e concentrazione sul pianeta, con disparità anche a livello di impatti ambientali, come sottolinea un articolo apparso sull’Harvard Business Review.

Poche aziende controllano la quasi totalità di queste tecnologie: è un tema di governance, che come sottolinea fin dal titolo il già citato report Governing AI for humanity delle Nazioni unite è cruciale. “Per sbloccare davvero il potenziale dell’AI nell’affrontare le sfide sociali, è fondamentale la collaborazione tra governi, università, industria e società civile, in modo che le soluzioni abilitate dall’intelligenza artificiale siano inclusive ed eque”, esorta il report dell’Onu.

Un altro aspetto importante è connesso ai bias nell’addestramento che producono discriminazioni quando alcune tecnologie AI vengono applicate nel “mondo reale”. Si pensi al caso sollevato tempo fa dall’agenzia di stampa Reuters in merito a un sistema automatizzato di recruitment di Amazon che discriminava sistematicamente le donne.

Più recentemente, la sociologa Diletta Huyskes, nel suo libro Tecnologie della rivoluzione, racconta di un programma di prevenzione della città di Amsterdam in cui viene utilizzato un algoritmo di polizia predittiva. Questo algoritmo è stato addestrato in maniera da prevedere un futuro da potenziali criminali per quei ragazzi che presentano determinate caratteristiche come basso reddito e background migratorio.

Non vanno dimenticate inoltre le enormi preoccupazioni a livello etico che queste tecnologie comportano: si va dai timori, a volte giustificati, legati alla perdita di milioni di posti di lavoro, alle preoccupazioni connesse agli utilizzi militari di queste tecnologie: droni e altre armi autonome sono giù utilizzate in alcuni scenari di guerra, senza alcuna regolamentazione condivisa tra gli Stati.

O ancora, grandi rischi sono legati alla capacità mistificatoria che una tecnologia come l’AI consente, con la proliferazione di deep fake, fake news e in generale disinformazione. Non è un tema secondario, anzi: nel report delle Nazioni unite, secondo gli esperti interpellati questa è la principale minaccia legata all’intelligenza artificiale, come si può evincere dall’immagine di seguito.

In ultimo, resta sullo sfondo il timore legato all’AGI (Artificial general intelligence), cioè un tipo di intelligenza artificiale che ha la capacità di comprendere, apprendere e applicare conoscenze in modo simile a un essere umano. C’è chi teme che in futuro l’AGI possa prendere il controllo del pianeta, comportando rischi per l’esistenza stessa del genere umano.

Non sminuire i problemi, ma concentrarsi sulle motivazioni

Come orientarsi e come approcciarsi all’AI, di fronte a questo panorama che sembra diviso in modo netto tra opportunità e rischi, come le due facce di una medaglia? Una prospettiva interessante la offre Fei-Fei Li, considerata la madrina dell’intelligenza artificiale, nonché pioniera della computer vision. Nel suo libro Tutti i mondi che vedo, Fei-Fei Li si sofferma sulla necessità di allineare le tecnologie dell’AI ai valori umani: il perseguimento di una migliore qualità della vita, della libertà, della dignità umana dovrebbero guidare lo sviluppo dell’intelligenza artificiale. La studiosa, che co-dirige lo Human-Centered AI Institute dell’Università di Stanford, ricorda come l’uso dell’AI non possa prescindere da una riflessione profonda sulle motivazioni che ci spingono a farlo.

L’approccio all’utilizzo dell’AI in Logotel

L’approccio di Fei-Fei Li è quello che guida l’implementazione e l’uso dell’intelligenza artificiale nella Independent design company Logotel. La necessità di un utilizzo etico di queste tecnologie è stato sancito nel codice etico aziendale, e trova concreta applicazione anche nelle sperimentazioni che Logotel fa ogni giorno, al proprio interno e con i propri clienti.

Interrogarsi su cosa effettivamente ha senso chiedere e delegare all’AI, attivarsi per garantire una adoption il più possibile estesa che non lasci indietro nessuno e utilizzare le potenzialità dell’AI per migliorare l’inclusione, l’accessibilità e il coinvolgimento delle persone nelle digital business community che Logotel progetta e anima per i propri clienti sono solo alcuni degli esempi concreti di come la design company si approccia a queste nuove tecnologie.       

Riflessioni conclusive

In conclusione, interrogarsi su quali sono gli impatti dell’AI sulla sostenibilità comporta una presa di coscienza di tutti gli aspetti critici legati a queste tecnologie, ma anche dei benefici attuali e potenziali che l’AI potrà comportare. E occorre allargare la prospettiva tenendo in conto certo gli aspetti ambientali – in termini di dispendio energetico e di emissioni – ma anche quelli che attengono alle altre dimensioni della sostenibilità. L’AI, come sottolinea l’ONU, “non è una panacea per le sfide dello sviluppo sostenibile, ma è una componente di un insieme più ampio di soluzioni”. Utilizzare queste tecnologie per un futuro più sostenibile, giusto, equo e inclusivo è una prerogativa e una responsabilità degli esseri umani.