ChatGPT e il suo impatto ambientale

ChatGPT e altre forme di intelligenza artificiale richiedono, abitanti di immensi data center dislocati nel mondo, un elevato consumo di elettricità e di acqua.

Si parla tanto negli ultimi tempi di ChatGPT, una forma di intelligenza artificiale, sviluppata dalla società OpenAI, che grazie a un modello linguistico molto evoluto riesce a conversare in modo ‘naturale’ e dare risposte precise e articolate su qualsiasi argomento. Attinge ai dati che ci sono in Rete e rielabora le informazioni, utilizzando tecnologie di autoapprendimento (machine learning): questo significa che più lo si usa, migliori saranno le sue prestazioni, le sue risposte.

Questa capacità non solo permette a questo strumento di migliorare nel tempo e diventare sempre più potente; è percepibile già nell’esperienza che ognuno di noi può fare nel corso di una conversazione, infatti se gli si fanno diverse domande consecutive, formulate in modo sempre più preciso, le risposte lo saranno altrettanto.

Parecchia della ‘bontà’ della risposta di ChatGPT dipende dalla qualità del cosiddetto prompt, cioè la frase attraverso cui si fa la domanda al sistema. E’ una vera e propria ‘tecnica’ che ha dato vita al prompt engineering: questo, in estrema sintesi, raccomanda di evitare domande ambigue, contorte, dando priorità a informazioni rilevanti e frasi affermative, contestualizzando e impostando tono e livello intellettuale della vostra domanda.

Cosa si può fare con ChatGPT

Oltre ad ottenere risposte a domande di ogni tipo, ChatGPT è in grado di (con differenti livelli di precisione):

  • scrivere diversi tipi di testi (saggi, romanzi, riassunti, articoli, storie, biografie, canzoni, poesie, email, copy, sceneggiature,ecc.)
  • traduce in diverse lingue
  • scrivere codice software;
  • eseguire il debug del codice;
  • dare suggerimenti e consigli su diversi temi anche relativi a viaggi, benessere, salute, problematiche varie come ‘che regalo posso fare al mio migliore amico?”

Limiti

ChatGPT non è ancora perfetto, nonostante abbia una conoscenza vastissima non è completa.Ma soprattutto molte volte non capisce il contesto, o le intenzioni, ha quelle che gli esperti chiamano “allucinazioni”, confondendo realtà con fantasia. Non conosce né capisce insomma, davvero, ciò che scrive.

Inoltre, aspetto molto delicato di ogni intelligenza artificiale, può riflettere i bias presenti nei dati con cui è stata addestrata. Se i dati di addestramento contengono pregiudizi o discriminazioni, ciò può influenzare le risposte o le raccomandazioni fornite da un modello di IA.

L’impronta carbonica di ChatGPT

ChatGPT ha suscitato grande attenzione per le sue notevoli capacità di elaborazione del linguaggio naturale. Tuttavia, come per ogni modello linguistico di grandi dimensioni, l’addestramento e lo sviluppo del sistema di intelligenza artificiale richiedono un’enorme quantità di energia. Si è interrogato sull’argomento tra gli altri anche l’organizzazione Earth.org, che tratta tematiche ambientali.

Secondo le stime riportate, ChatGPT emette circa 8,4 tonnellate di anidride carbonica all’anno, più del doppio delle emissioni medie annuali di un individuo, che sono di circa 4 tonnellate. Non sarebbe molto se si considera che è utilizzato (quindi offre teoricamente benefici) da milioni di individui, ma il fenomeno è solo agli albori. Il suo utilizzo sarà sempre più intenso. È importante considerare che il tipo di fonte energetica utilizzata dai data center può influenzare l’entità delle emissioni prodotte. Ad esempio, gli impianti a carbone o a gas naturale generano emissioni più elevate rispetto alle fonti di energia rinnovabile come l’energia solare, eolica o idroelettrica. Quindi, fornire cifre esatte è difficile a causa di queste variabili.

C’è anche l’impronta idrica

Uno studio recente condotto dai ricercatori dell’Università della California a Riverside ha evidenziato l’impronta idrica significativa dei modelli di intelligenza artificiale come ChatGPT-3 e 4. Secondo lo studio, durante l’addestramento di GPT-3, Microsoft ha utilizzato circa 700.000 litri di acqua dolce nei suoi data center. Questa quantità corrisponde al fabbisogno idrico di circa 370 automobili BMW o 320 veicoli Tesla. Gran parte di questa acqua è necessaria per mantenere le temperature sotto controllo e raffreddare le apparecchiature a causa del calore prodotto durante il processo di addestramento dell’intelligenza artificiale. Inoltre, il processo di inferenza, che avviene quando ChatGPT viene utilizzato per rispondere a domande o generare testo, richiede anche una quantità significativa di acqua. Per esempio, una semplice conversazione di 20-50 domande può consumare una quantità di acqua equivalente a una bottiglia da 500 ml. Considerando il numero di utenti e le loro interazioni, l’impronta idrica totale per l’inferenza diventa sostanziale.

Poiché i modelli linguistici continuano a crescere in dimensioni, diventa sempre più importante esplorare modi per mitigarne l’impatto ambientale negativo e perseguire un approccio sostenibile.

Rispondendo a un’inchiesta di Bloomberg sulle questioni di sostenibilità, OpenAI ha dichiarato di prendere “molto sul serio” il proprio ruolo nel contrastare e invertire il cambiamento climatico. L’azienda ha sottolineato di lavorare a stretto contatto con il team di Microsoft per migliorare l’efficienza e la gestione dei modelli linguistici di grandi dimensioni eseguiti su Azure, l’infrastruttura utilizzata da OpenAI.

È importante notare che i data center sono spesso considerati “scatole nere” in termini di divulgazione delle emissioni di carbonio rispetto ad altri settori. Sebbene i ricercatori abbiano stimato le emissioni associate, non esiste un numero esplicito che documenti il consumo totale di energia da parte di ChatGPT. La crescita rapida dell’industria dell’IA, unita alla scarsa trasparenza, rende ancora sconosciuto il consumo totale di elettricità e le emissioni di carbonio attribuite all’IA. I principali fornitori di servizi cloud non forniscono le informazioni necessarie per una valutazione precisa in questo senso.

Intelligenza artificiale più sostenibile

Promuovere la trasparenza nello sviluppo e nell’operatività dei sistemi di apprendimento automatico è un modo per affrontare il problema. Gli studiosi hanno creato quadri di riferimento e strumenti online per misurare e confrontare il consumo energetico e le emissioni di carbonio. Inoltre, è importante ridurre l’eccessiva enfasi sui nuovi sistemi di intelligenza artificiale e riconoscere i limiti dei modelli linguistici. Questo approccio favorisce pratiche responsabili nell’IA e apre la strada a un’IA più sostenibile.

Abbiamo chiesto a ChatGPT di darci tre consigli per la sostenibilità dell’intelligenza artificiale:

  1. Efficienza energetica: l’IA richiede un’enorme quantità di risorse computazionali, il che può comportare un consumo energetico significativo. Per rendere l’IA più sostenibile, è fondamentale migliorare l’efficienza energetica dei sistemi di elaborazione. Ciò può essere ottenuto utilizzando hardware specializzato per l’IA, come unità di elaborazione grafica (GPU) ottimizzate o circuiti integrati di apprendimento automatico (ASIC), che possono eseguire calcoli complessi con minore consumo di energia rispetto ai tradizionali processori centrali. Inoltre, è importante sviluppare algoritmi di IA più efficienti che richiedano meno risorse computazionali per ottenere risultati simili.
  2. Raccolta dati sostenibile: l’addestramento dei modelli di intelligenza artificiale richiede grandi quantità di dati. Tuttavia, la raccolta indiscriminata e non sostenibile di dati può comportare impatti ambientali negativi. Per rendere l’IA più sostenibile, è necessario adottare pratiche di raccolta dati responsabili. Ciò implica la minimizzazione della quantità di dati raccolti, evitando la raccolta di informazioni superflue o sensibili, e assicurandosi che i dati raccolti siano ottenuti in modo etico e rispettoso della privacy degli individui. Inoltre, è importante investire nella ricerca su tecniche di addestramento di modelli che richiedano meno dati senza compromettere le prestazioni.
  3. Trasparenza e responsabilità: la sostenibilità dell’IA richiede anche una maggiore trasparenza e responsabilità. Gli algoritmi di intelligenza artificiale devono essere sviluppati e utilizzati in modo etico, evitando la discriminazione, il rafforzamento degli stereotipi e altri bias indesiderati. Inoltre, è importante comprendere e controllare l’impatto sociale, ambientale ed economico dell’IA. Ciò può essere raggiunto promuovendo la responsabilità delle organizzazioni che sviluppano l’IA, un intervento normativo più puntuale su questi temi, una collaborazione internazionale.

PIù POPOLARI

pasquale pacci acampora

Vendere ‘come cambiare il mondo’. Acampora e il metodo blackship

Sognatore, pirata e persona che ama far accadere le cose. Così si descrive Pasquale Acampora, per tutti Pacci, fondatore e ceo della società benefit...
Europee 2024: l'appello della scienza

Europee 2024: l’appello della scienza

L'articolo riporta l'appello della comunità scientifica ai candidati alle elezioni europee del 2024. E' importante basare le proprie scelte sulle evidenze scientifiche.
Cassonetto giallo Consorzi rifiuti tessili

I 5 consorzi italiani per l’EPR tessile

L'articolo parla della frazione tessile tra i rifiuti e dei 5 consorzi nazionali dedicati al suo trattamento. Si fa i punti della situazione normativa e considerazioni sulle tecniche di riciclo
ddl zan

Ddl Zan bocciato al Senato. Cosa voleva e perché non è passato

Non è legge il Ddl Zan e non è legge per 23 voti. Voti mancati al centrosinistra per far approvare la legge che porta...
Giornata Mondiale della Terra 2024: Pianeta versus plastica?

Giornata Mondiale della Terra 2024: pianeta versus plastica?

Il 22 aprile di ogni anno il mondo celebra la Giornata Mondiale della Terra. L’Earth Day nasce il 22 aprile 1970 con l’obiettivo di...