ChatGPT e il suo impatto ambientale

ChatGPT e altre forme di intelligenza artificiale richiedono, abitanti di immensi data center dislocati nel mondo, un elevato consumo di elettricità e di acqua.

Si parla tanto negli ultimi tempi di ChatGPT, una forma di intelligenza artificiale, sviluppata dalla società OpenAI, che grazie a un modello linguistico molto evoluto riesce a conversare in modo ‘naturale’ e dare risposte precise e articolate su qualsiasi argomento. Attinge ai dati che ci sono in Rete e rielabora le informazioni, utilizzando tecnologie di autoapprendimento (machine learning): questo significa che più lo si usa, migliori saranno le sue prestazioni, le sue risposte.

Questa capacità non solo permette a questo strumento di migliorare nel tempo e diventare sempre più potente; è percepibile già nell’esperienza che ognuno di noi può fare nel corso di una conversazione, infatti se gli si fanno diverse domande consecutive, formulate in modo sempre più preciso, le risposte lo saranno altrettanto.

Parecchia della ‘bontà’ della risposta di ChatGPT dipende dalla qualità del cosiddetto prompt, cioè la frase attraverso cui si fa la domanda al sistema. E’ una vera e propria ‘tecnica’ che ha dato vita al prompt engineering: questo, in estrema sintesi, raccomanda di evitare domande ambigue, contorte, dando priorità a informazioni rilevanti e frasi affermative, contestualizzando e impostando tono e livello intellettuale della vostra domanda.

Cosa si può fare con ChatGPT

Oltre ad ottenere risposte a domande di ogni tipo, ChatGPT è in grado di (con differenti livelli di precisione):

  • scrivere diversi tipi di testi (saggi, romanzi, riassunti, articoli, storie, biografie, canzoni, poesie, email, copy, sceneggiature,ecc.)
  • traduce in diverse lingue
  • scrivere codice software;
  • eseguire il debug del codice;
  • dare suggerimenti e consigli su diversi temi anche relativi a viaggi, benessere, salute, problematiche varie come ‘che regalo posso fare al mio migliore amico?”

Limiti

ChatGPT non è ancora perfetto, nonostante abbia una conoscenza vastissima non è completa.Ma soprattutto molte volte non capisce il contesto, o le intenzioni, ha quelle che gli esperti chiamano “allucinazioni”, confondendo realtà con fantasia. Non conosce né capisce insomma, davvero, ciò che scrive.

Inoltre, aspetto molto delicato di ogni intelligenza artificiale, può riflettere i bias presenti nei dati con cui è stata addestrata. Se i dati di addestramento contengono pregiudizi o discriminazioni, ciò può influenzare le risposte o le raccomandazioni fornite da un modello di IA.

L’impronta carbonica di ChatGPT

ChatGPT ha suscitato grande attenzione per le sue notevoli capacità di elaborazione del linguaggio naturale. Tuttavia, come per ogni modello linguistico di grandi dimensioni, l’addestramento e lo sviluppo del sistema di intelligenza artificiale richiedono un’enorme quantità di energia. Si è interrogato sull’argomento tra gli altri anche l’organizzazione Earth.org, che tratta tematiche ambientali.

Secondo le stime riportate, ChatGPT emette circa 8,4 tonnellate di anidride carbonica all’anno, più del doppio delle emissioni medie annuali di un individuo, che sono di circa 4 tonnellate. Non sarebbe molto se si considera che è utilizzato (quindi offre teoricamente benefici) da milioni di individui, ma il fenomeno è solo agli albori. Il suo utilizzo sarà sempre più intenso. È importante considerare che il tipo di fonte energetica utilizzata dai data center può influenzare l’entità delle emissioni prodotte. Ad esempio, gli impianti a carbone o a gas naturale generano emissioni più elevate rispetto alle fonti di energia rinnovabile come l’energia solare, eolica o idroelettrica. Quindi, fornire cifre esatte è difficile a causa di queste variabili.

C’è anche l’impronta idrica

Uno studio recente condotto dai ricercatori dell’Università della California a Riverside ha evidenziato l’impronta idrica significativa dei modelli di intelligenza artificiale come ChatGPT-3 e 4. Secondo lo studio, durante l’addestramento di GPT-3, Microsoft ha utilizzato circa 700.000 litri di acqua dolce nei suoi data center. Questa quantità corrisponde al fabbisogno idrico di circa 370 automobili BMW o 320 veicoli Tesla. Gran parte di questa acqua è necessaria per mantenere le temperature sotto controllo e raffreddare le apparecchiature a causa del calore prodotto durante il processo di addestramento dell’intelligenza artificiale. Inoltre, il processo di inferenza, che avviene quando ChatGPT viene utilizzato per rispondere a domande o generare testo, richiede anche una quantità significativa di acqua. Per esempio, una semplice conversazione di 20-50 domande può consumare una quantità di acqua equivalente a una bottiglia da 500 ml. Considerando il numero di utenti e le loro interazioni, l’impronta idrica totale per l’inferenza diventa sostanziale.

Poiché i modelli linguistici continuano a crescere in dimensioni, diventa sempre più importante esplorare modi per mitigarne l’impatto ambientale negativo e perseguire un approccio sostenibile.

Rispondendo a un’inchiesta di Bloomberg sulle questioni di sostenibilità, OpenAI ha dichiarato di prendere “molto sul serio” il proprio ruolo nel contrastare e invertire il cambiamento climatico. L’azienda ha sottolineato di lavorare a stretto contatto con il team di Microsoft per migliorare l’efficienza e la gestione dei modelli linguistici di grandi dimensioni eseguiti su Azure, l’infrastruttura utilizzata da OpenAI.

È importante notare che i data center sono spesso considerati “scatole nere” in termini di divulgazione delle emissioni di carbonio rispetto ad altri settori. Sebbene i ricercatori abbiano stimato le emissioni associate, non esiste un numero esplicito che documenti il consumo totale di energia da parte di ChatGPT. La crescita rapida dell’industria dell’IA, unita alla scarsa trasparenza, rende ancora sconosciuto il consumo totale di elettricità e le emissioni di carbonio attribuite all’IA. I principali fornitori di servizi cloud non forniscono le informazioni necessarie per una valutazione precisa in questo senso.

Intelligenza artificiale più sostenibile

Promuovere la trasparenza nello sviluppo e nell’operatività dei sistemi di apprendimento automatico è un modo per affrontare il problema. Gli studiosi hanno creato quadri di riferimento e strumenti online per misurare e confrontare il consumo energetico e le emissioni di carbonio. Inoltre, è importante ridurre l’eccessiva enfasi sui nuovi sistemi di intelligenza artificiale e riconoscere i limiti dei modelli linguistici. Questo approccio favorisce pratiche responsabili nell’IA e apre la strada a un’IA più sostenibile.

Abbiamo chiesto a ChatGPT di darci tre consigli per la sostenibilità dell’intelligenza artificiale:

  1. Efficienza energetica: l’IA richiede un’enorme quantità di risorse computazionali, il che può comportare un consumo energetico significativo. Per rendere l’IA più sostenibile, è fondamentale migliorare l’efficienza energetica dei sistemi di elaborazione. Ciò può essere ottenuto utilizzando hardware specializzato per l’IA, come unità di elaborazione grafica (GPU) ottimizzate o circuiti integrati di apprendimento automatico (ASIC), che possono eseguire calcoli complessi con minore consumo di energia rispetto ai tradizionali processori centrali. Inoltre, è importante sviluppare algoritmi di IA più efficienti che richiedano meno risorse computazionali per ottenere risultati simili.
  2. Raccolta dati sostenibile: l’addestramento dei modelli di intelligenza artificiale richiede grandi quantità di dati. Tuttavia, la raccolta indiscriminata e non sostenibile di dati può comportare impatti ambientali negativi. Per rendere l’IA più sostenibile, è necessario adottare pratiche di raccolta dati responsabili. Ciò implica la minimizzazione della quantità di dati raccolti, evitando la raccolta di informazioni superflue o sensibili, e assicurandosi che i dati raccolti siano ottenuti in modo etico e rispettoso della privacy degli individui. Inoltre, è importante investire nella ricerca su tecniche di addestramento di modelli che richiedano meno dati senza compromettere le prestazioni.
  3. Trasparenza e responsabilità: la sostenibilità dell’IA richiede anche una maggiore trasparenza e responsabilità. Gli algoritmi di intelligenza artificiale devono essere sviluppati e utilizzati in modo etico, evitando la discriminazione, il rafforzamento degli stereotipi e altri bias indesiderati. Inoltre, è importante comprendere e controllare l’impatto sociale, ambientale ed economico dell’IA. Ciò può essere raggiunto promuovendo la responsabilità delle organizzazioni che sviluppano l’IA, un intervento normativo più puntuale su questi temi, una collaborazione internazionale.

PIù POPOLARI

soluzione spreco alimentare

Una soluzione allo spreco alimentare? Il modello Recup

Sono numerosi i fattori che causano lo spreco alimentare, dalla sovraproduzione dei produttori ai comportamenti dei consumatori, in buona parte migliorabili. Non è affatto...
Fotografia della bottaia di Feudi di San Gregorio

Feudi di San Gregorio, tra vino e arte nel segno della sostenibilità

Nel cuore dell’Irpinia si trova la maggiore azienda vinicola dell’Italia Meridionale, nota a livello internazionale: Feudi di San Gregorio è stata fondata ad Avellino...
impatto ambientale guerra in Ucraina

L’impatto ambientale della guerra

Ogni guerra provoca danni all’uomo e all’ambiente. Parlare dell’impatto ambientale di una guerra non è facile, pensando alle persone che hanno perso la vita,...
neom

NEOM, il folle progetto di una megalopoli sostenibile nel deserto

Nel 2017, il principe ereditario dell’Arabia Saudita Mohammed bin Salman ha annunciato NEOM, un progetto utopistico e apparentemente folle di una megalopoli nel deserto...
Andrea Rinaldo Nobel

Il Nobel dell’Acqua premia l’Italia: Andrea Rinaldo e i suoi studi rivoluzionari nell’eco-idraulica

Il professor Andrea Rinaldo è stato insignito del prestigioso Nobel dell’Acqua. L'annuncio di questa eccezionale onorificenza è stato fatto lo scorso autunno, ma il...