Contrariamente alle mie aspettative iniziali, sul Web è possibile reperire una discreta mole di informazioni in lingua italiana preoccupate riguardo ai notevoli consumi energetici dell’intelligenza artificiale (AI): uno specchio dei tempi che cambiano? Invitando a una consultazione diretta di tali fonti, in questa sede mi limiterò a una breve rassegna illustrativa.
Luca Tremolada sul Sole 24 Ore riporta che l’addestramento di Chat GPT-3 richiede poco meno di 1.300 MWh di elettricità, equivalente più o meno al consumo annuo di 130 case americane o a 1.625.000 ore di visione di film di Netflix. Per quanto riguarda la generazione di un’immagine da AI, la quantità di energia uguaglia quella della ricarica della batteria di un cellulare. Sommando le esigenze dei data center dedicati alle AI con quelli per le criptovalute, la IEA stima per il 2026 un consumo complessivo compreso tra i 600 e 1.000 TWh. Per farsi un’idea, il picco massimo di fabbisogno elettrico nella storia della Germania è stato inferiore ai 600 TWh (594 TWh nel 2010).
A consumi tanto imponenti corrisponde ovviamente un’impronta ecologica altrettanto importante. Secondo il Water Footprint Network (WFN), l’addestramento di Chat GPT-3 nei datacenter richiede direttamente 700.000 litri d’acqua (escludendo quella consumata per generare elettricità e produrre i chip) e una interazione di 20-50 domane con l’AI ne comporta almeno mezzo litro; e si tratta di ‘acqua blu’, dolce e potabile, mentre per produrre carne bovina (per riportare un caso di consumo idrico frequentemente denunciato) se ne utilizza principalmente di ‘verde’, cioé piovana. Ovviamente l’impatto di Chat GPT-4, essendo più potente, è ancora maggiore; sul sito di Tom’s Hardware, Marco Pedran sostiene addirittura la necessità della fusione nucleare per una diffusione capillare della AI.
Questa panoramica limitata e quindi riduttiva ha avuto però il merito di smentire una volta per tutte i mantra alla moda del tipo “l’AI attraverserà orizzontalmente la società come ha fatto l’elettricità”; e dimostra come non rappresenti una soluzione ai nostri problemi neppure in ottica mainstream. La consapevolezza dei consistenti oneri ecologici della AI si aggiunge alle problematiche relative alla soppressione del lavoro umano specializzato e creativo, alla creazione di deep fake sempre più realistici e difficili da sbugiardare, al potenziamento delle capacità distruttive degli ordigni bellici (ne sanno qualcosa in Ucraina e a Gaza).
Anche senza immaginare AI ribelli ai suoi ideatori come Skynet dei film di Terminator o Ultron della Marvel, ci sono tutte le ragioni per una seria riflessione sull’implementazione di questa ennesima tecnologia intelligente per persone stupide, anzi, LA tecnologia intelligente per persone stupide per eccellenza, che emancipa definitivamente dal compito di pensare. Mai come questa volta ‘fermare il progresso’ è fondamentale per arginare un mezzo che, ora come ora, non farebbe altro che amplificare il potere distruttivo dell’uomo, si tratti di annichilire altre vite umane o la ecosfera.
“problematiche relative alla soppressione del lavoro umano specializzato e creativo”
Quando succede ad artigiani, contadini e lavoratori autonomi, è il progresso. Adesso che succede alle persone istruite con lavori ben remunerati, allarme.
O tutti o nessuno. Non sono favorevole a queste tecnologie, ma sarebbe ora di ripensare anche l’industrializzazione e l’automazione di tutti gli altri settori, non trovi?
E’ difficilissimo fare previsioni, ma forse le problematiche energetiche potrebbero provocare una riduzione e non aumento della produttività del lavoro con inversione generale della tendenza al ‘progresso’. Se davvero l’AI per un’implementazione concreta e capillare necessita della fusione, allora non ha certo un futuro roseo.
https://www.open.online/2024/04/09/eni-centrale-nucleare-fusione-industriale-entro-anni-trenta/
Considerando quanto le sparano grosse sulla fusione, potremmo trovarci in ristrettezze energetiche molto presto.
Le politiche pubbliche sono orientate a una *fortissima* incentivazione della produzione energivora rispetto a quella manuale. Questo è un argomento di cui nessuno parla. Gran parte della spesa pubblica, finanziata in buona parte da tasse sul lavoro umano, serve a sostenere meccanizzazione, digitalizzazione, e produzione e consumo di energia. Inoltre favorisce le economie di scala (ad esempio attraverso una penalizzazione economica e normativa delle piccole attività e un sovvenzionamento delle grandi), l’uniformazione dei prodotti e servizi e l’esportazione.
Per cui finché sarà così, si spremeranno le persone e l’ambiente fino all’ultima goccia di sangue pur di continuare a produrre in questo modo.
Di nuovo: mi dispiace che nessuno sottolinei mai questo aspetto della questione (a parte alcune associazioni ambientaliste, che però parlano solo di sussidi ai combustibili fossili, e non di tutto il resto).
I notevoli consumi energetici dell’AI costituiscono INDUBBIAMENTE una delle principali criticità (forse LA principale) di questa tecnologia. Sinceramente non sono affatto sicuro che il Progresso sia facilmente bloccabile, peraltro si tratta anche di comprendere quale significato teorico-pratico attribuire al concetto di Progresso.
Nel frattempo, l’AI viene utilizzata con “successo” in campo militare, concedendo ben 20 secondi all’umano alla direzione del drone se attaccare ed uccidere o meno. Non c’è che dire, un nuovo passo avanti nel progresso dell’umanità. https://contropiano.org/documenti/2024/04/07/20-secondi-per-uccidere-lo-decide-la-macchina-0171069
Perché mi costringete a scrivere l’ovvio?
Non sarebbe meglio se vi informaste partendo dal presupposto di evitare la ripetizione di luoghi comuni?
NON ESISTE NESSUNA “AI”.
Una “AI” è una macchina cosciente, un pensiero consapevole.
Quello che abbiamo sono “sistemi esperti”, cioè dei software che giocano a scacchi, scritti da programmatori che conoscevano a priori sia lo scopo del software, lo “output” che ci si aspetta dal software dato un certo “input” e conoscevano a priori le “regole” che determinano lo “output” tramite elaborazione dello “input”.
La faccenda del “militare” poi è penosa. La ragione per cui si adoperano i software è quella di economizzare sulla distruzione. L’alternativa sarebbe radere tutto al suolo senza fare distinzioni. Il software serve per dare al proiettile o a chi lo spara la capacità di discriminare e quindi decidere se distruggere o meno. Non è concettualmente diverso da un cannocchiale che serve al cecchino per sparare ad una persona in particolare piuttosto che dire all’artigliere di sparare dieci cannonate su un certo riquadro sulla mappa e radere al suolo un quartiere.
Forse non è chiaro. Quando i Romani assediavano una città non usavano “Intelligenza Artificiale” perché una volta aperta la breccia nelle mura ammazzavano tutti quelli che trovavano, uomini, donne, vecchi, bambini e li ammazzavano sbudellandoli e facendoli a pezzi con la mannaia, uno per uno, mettendoci ore o giorni, con santa pazienza. Ammazzare la gente facendola a pezzi con la mannaia è peggio o meglio di ammazzarla col “drone”?
Questa faccenda del “militare” consegue la fanfaluca della “guerra pulita”, cioè del videogioco in cui si trova il “cattivo” stando seduti nella propria cameretta, si pigia il bottone e si fa sparire il “cattivo”, niente budella, niente sangue e merda. Se non che poi scopriamo che in realtà ci sono sempre “boots on the ground” cioè gente che va e sbudella.
Ah già, noi siamo per la “pace”, quindi se ci tappiamo gli occhietti, le orecchiette e la boccuccia, il problema sparisce.
L’unica cosa a cui eri ‘costretto’ era la decenza di inserire almeno un indirizzo email valido nella registrazione, ma vedo che è chiedere troppo ai vari provocatori-troll-sboroni da tastiera. Fate ricerche in Rete sul sistema GOSPEL in dotazione all’esercito israeliano e scoprirete e scoprirerete come abbia migliorato esponenzialmente la capacità di trovare bersagli da attaccare.
Il giorno in cui avrai quantomeno le palle di inserire una mail valida nella registrazione al sito forse potrai dare lezioni di morale, fino ad allora astieniti grazie.
Su Gospel ho letto quanto segue:
“Diverse fonti hanno riferito al Guardian e a +972/Local Call che quando si autorizzava un attacco alle abitazioni private di individui identificati come militanti di Hamas o della Jihad islamica, i ricercatori degli obiettivi conoscevano in anticipo il numero di civili che si prevedeva sarebbero stati uccisi.
Ogni obiettivo, hanno detto, aveva un file contenente un punteggio di danno collaterale che stabiliva quanti civili potevano essere uccisi in un attacco. Una fonte che ha lavorato fino al 2021 alla pianificazione degli attacchi per l’IDF ha detto che “la decisione di colpire è presa dal comandante dell’unità in servizio”, alcuni dei quali erano “più propensi a premere il grilletto di altri”.
La fonte ha detto che ci sono state occasioni in cui “c’erano dubbi su un obiettivo” e “abbiamo ucciso quello che pensavo fosse una quantità sproporzionata di civili”.
“Prepariamo i bersagli automaticamente e lavoriamo secondo una lista di controllo”, ha dichiarato a +972/Local Call una fonte che in passato ha lavorato nella divisione Target. “È davvero come una fabbrica. Lavoriamo velocemente e non c’è tempo per approfondire l’obiettivo. L’opinione è che siamo giudicati in base al numero di obiettivi che riusciamo a generare”.
Una fonte separata ha detto al Guardian che il sistema Gospel ha permesso all’IDF di gestire una “fabbrica di assassini di massa” in cui “l’enfasi è sulla quantità e non sulla qualità”. Un occhio umano, hanno detto, “esaminerà gli obiettivi prima di ogni attacco, ma non ha bisogno di dedicare loro molto tempo”.
Richard Moyes, di Articolo 36, ha affermato che quando ci si affida a strumenti come Gospel, un comandante “riceve una lista di obiettivi generata da un computer” e “non necessariamente sa come la lista è stata creata o ha la capacità di interrogare e mettere in discussione adeguatamente le raccomandazioni di puntamento”.
“C’è il rischio”, ha aggiunto Moyes, “che gli uomini, affidandosi a questi sistemi, diventino ingranaggi di un processo meccanizzato e perdano la capacità di considerare il rischio di danni ai civili in modo significativo”.
Forse presto ascolteremo qualcuno di questi “esecutori inconsapevoli” farfugliare autodifese in stile Eichmann peggiorato (“L’Obersturmbannführer delle SS Eichmann sosteneva di non esserer responsabile ed obbedire solo agli ordini, mentre in futuro la linea di difesa sarà “obbedivo soltanto agli ordini… di una macchina”).
L’uso di questi software come consiglieri militari aumenta secondo me tantissimo il rischio nucleare, perché prima o poi verrà proposta come soluzione tattica migliore. A quel punto ogni remora morale rischia di essere superata dalla presunta oggettività della macchina, poco importi che si tratti di una totale autoreferenzialità essendo stato tutto programmato su parametri umani.