Ovvero: L’intelligenza artificiale e il destino del mondo.
di Richard Heinberg. Articolo originale disponibile su Resilience.org il 12 giugno 2023
Eliezer Yudkowsky, cofondatore del Machine Intelligence Research Institute, pensa che l’intelligenza artificiale (IA) ci ucciderà tutti. Spesso pone la seguente domanda: immaginate di essere un membro di una tribù di cacciatori-raccoglitori isolata e che un giorno si presentino delle strane persone dotate di scrittura, armi e denaro. Dovreste accoglierli?
Per Yudkowsky, l’IA è come un alieno spaziale super-intelligente; inevitabilmente, deciderà che noi esseri umani e altri viventi non siamo che mucchi di atomi per i quali può trovare usi migliori. “In qualunque circostanza lontanamente simile a quelle attuali“, ha scritto Yudkowsky in un recente articolo sul Time, “tutti gli abitanti della Terra moriranno. Non nel senso di ‘forse per qualche remota possibilità’, ma nel senso di ‘questa è la cosa più ovvia che accadrebbe'”.
Il 30 maggio, un gruppo di leader dell’industria dell’IA provenienti da Google Deepmind, Anthropic, OpenAI (compreso il suo amministratore delegato, Sam Altman) e altri laboratori ha pubblicato una lettera aperta in cui avvertono che questa tecnologia potrebbe un giorno rappresentare “una minaccia esistenziale per l’umanità“. Per i curiosi, ecco una breve descrizione di alcuni dei modi in cui l’IA potrebbe spazzarci via.
Non tutti pensano all’IA in termini apocalittici. Bill Gates, ex presidente di Microsoft Corporation, ritiene però che l’IA possa sconvolgere il mondo degli affari e della tecnologia, portando forse alla scomparsa di Amazon e Google. “Non andrete mai più su un sito di ricerca, non andrete mai più su un sito di produttività, non andrete mai più su Amazon”, ha detto di recente al pubblico di un evento AI Forward a San Francisco. L’intelligenza artificiale sarà incorporata in prodotti e sistemi, dalle automobili alle università, percependo le nostre intenzioni e i nostri desideri prima ancora che li esprimiamo, plasmando la nostra realtà e servendoci come un proverbiale genio – o un esercito di geni.
Tutti, comunque, concordano sul fatto che l’IA rappresenta un cambiamento qualitativo e quantitativo nello sviluppo tecnologico. Non si tratta solo di un computer migliorato con più velocità e potenza, bensì di un’architettura software che consente ai computer di imparare da soli migliorando ed espandendo continuamente le proprie capacità. I sistemi di IA ora scrivono il codice del computer, rendendoli, in un certo senso, autogeneranti. L’IA è essenzialmente una “scatola nera” da cui emergono risultati simili al pensiero; ma non è possibile capire a posteriori perché e come fa. I sistemi di IA imparano infatti l’uno dall’altro quasi istantaneamente, assorbendo molte più informazioni di quante ne possano acquisire gli esseri umani. Una soglia cruciale sarà raggiunta con lo sviluppo di un’intelligenza artificiale generale (AGI), che potrebbe svolgere qualsiasi compito intellettuale svolto dagli esseri umani e superare di gran lunga le capacità umane almeno in alcuni aspetti – e che, cosa fondamentale, potrebbe stabilire i propri obiettivi. I computer sono già in grado di sconfiggere qualsiasi grande maestro di scacchi umano.
Rischi dell’intelligenza artificiale
Alcuni rischi dell’intelligenza artificiale sono abbastanza ovvi. Le macchine sostituiranno sempre di più i lavoratori dell’informazione, distruggendo i posti di lavoro dei colletti bianchi (per completezza di informazione: questo articolo non è stato scritto dall’IA, anche se ho usato Google e Bing per la ricerca). Inevitabilmente, l’IA arricchirà i proprietari e gli sviluppatori della tecnologia, mentre altri si faranno carico dei costi sociali, con conseguente aumento della disuguaglianza di ricchezza nella società. La proliferazione di immagini, audio e testi falsi renderà sempre più difficile distinguere ciò che è vero da ciò che non lo è, distorcendo ulteriormente la nostra politica. Inoltre, la forte espansione dell’elaborazione di algoritmi al computer richiederà probabilmente un maggiore consumo energetico complessivo (anche se non tutti sono d’accordo su questo punto).
C’è poi la probabilità di incidenti. Ogni nuova tecnologia, dall’automobile alla centrale nucleare, ne ha prodotti. Scrivendo su Foreign Affairs, Bill Drexel e Hannah Kelley sostengono che un incidente con l’IA che paralizzi il sistema finanziario globale o scateni un’arma biologica devastante potrebbe verificarsi più facilmente in Cina perché questo Paese è pronto a guidare il mondo nello sviluppo dell’IA, ma sembra assolutamente non preoccuparsi dei rischi che circondano questa tecnologia.
Insomma, anche se funzionasse esattamente come previsto, l’IA consentirà a persone già potenti di fare più cose, e di farle più velocemente. E alcune persone potenti tendono a essere egoiste ed abusare del loro potere. Lo psicologo cognitivo e informatico Geoffrey Hinton, talvolta definito “padrino dell’IA”, ha recentemente lasciato Google. In successive interviste rilasciate a diversi organi di informazione, tra cui il New York Times e la BBC, Hinton ha spiegato: “Si può immaginare, ad esempio, che qualche cattivo attore come [il presidente russo Vladimir] Putin decida di dare ai robot la capacità di creare i propri sotto-obiettivi“. Uno di questi sotto-obiettivi potrebbe essere: “Devo ottenere più potere” (Putin è certamente pericoloso, ma come lui ce ne sono tantissimi, anche nelle grandi corporation internazionali e nei governi occidentali N.d.T).
Tuttavia, Hinton ha scelto di non sostenere un’altra recente lettera aperta, che chiedeva una pausa di sei mesi nell’addestramento di tutti i sistemi di IA (anche se molti suoi colleghi della comunità di sviluppo dell’IA la hanno firmata). Hinton ha spiegato che, nonostante i suoi rischi, l’IA promette troppe cose positive per metterla in pausa. Tra i probabili benefici: potenziali progressi in campo farmaceutico, tra cui cure per il cancro e altre malattie; miglioramenti nelle tecnologie per le energie rinnovabili; previsioni meteorologiche più accurate e una maggiore comprensione dei cambiamenti climatici.
Gli studenti delle scuole superiori e delle università stanno già ricorrendo al ChatGPT di OpenAI per scrivere le loro tesine (gli studenti più smaliziati riscrivono velocemente i loro elaborati generati dal computer per sfuggire i software di rilevamento dell’intelligenza artificiale che gli insegnanti stanno utilizzando). Sfortunatamente per gli studenti, le loro tesine generate al computer tendono a essere piene di citazioni e fonti false.
Un avvocato che rappresentava un cliente che stava facendo causa a una compagnia aerea ha recentemente usato ChatGPT per scrivere le sue memorie legali; tuttavia, si è poi scoperto che l‘IA aveva “allucinato” tutti i precedenti legali che citava.
I produttori di automobili stanno costruendo auto con più funzioni di guida autonoma basate sull’intelligenza artificiale. Microsoft, Google e altre aziende tecnologiche stanno lanciando “assistenti personali” basati sull’intelligenza artificiale.
Le forze armate stanno investendo pesantemente nell’IA per realizzare armi superiori, per pianificare strategie di battaglia migliori e persino per definire obiettivi geopolitici a lungo termine. Migliaia di laboratori informatici indipendenti gestiti da aziende e governi stanno sviluppando l’IA per una gamma sempre più ampia di scopi. Insomma, l’IA è già molto avanti nella sua curva di apprendimento iniziale. Il “genio” è già uscito dalla bottiglia.
L’accelerazione di tutto.
Anche se Eliezer Yudkowsky si sbagliasse e l’IA non spazzerà via tutta la vita sulla Terra, i suoi potenziali pericoli non si limitano alla perdita di posti di lavoro, alle fake news e ai fatti allucinati. C’è un altro rischio profondo di cui la stampa parla poco e che, a mio avviso, i pensatori sistemici dovrebbero discutere più approfonditamente. Si tratta della probabilità che l’IA sia un acceleratore significativo di tutto ciò che noi umani stiamo già facendo.
Le ultime migliaia di anni di storia umana hanno già visto diversi acceleratori critici. La creazione dei primi sistemi monetari, circa 5.000 anni fa, ha permesso una rapida espansione del commercio che alla fine è culminata nel nostro sistema finanziario globalizzato. Le armi metalliche hanno reso più letali le guerre, portando alla conquista di società umane meno armate da parte di regni e imperi dotati di metallurgia. Gli strumenti di comunicazione (tra cui la scrittura, l’alfabeto, la stampa, la radio, la televisione, Internet e i social media) hanno amplificato il potere di alcune persone di influenzare le menti di altre. E, nell’ultimo secolo o due, l’adozione dei combustibili fossili ha facilitato l’estrazione delle risorse, la produzione manifatturiera, la produzione alimentare e i trasporti, consentendo una rapida espansione economica e la crescita della popolazione.
Di questi quattro acceleratori del passato, l’adozione dei combustibili fossili è stata la più potente e problematica. In soli due secoli il consumo di energia pro capite è aumentato di otto volte, così come le dimensioni della popolazione umana. Il periodo successivo al 1950, che ha visto un drammatico aumento della dipendenza globale dal petrolio, ha visto anche la più rapida crescita economica e demografica di tutta la storia umana. Non per nulla gli storici lo chiamano la “Grande Accelerazione“.
Gli economisti neoliberali acclamano la Grande Accelerazione come una storia di successo, ma i conti stanno appena iniziando a essere pagati. L’agricoltura industriale sta distruggendo il suolo terrestre a un ritmo di decine di miliardi di tonnellate all’anno. La natura selvaggia è in ritirata: le specie animali hanno perso, in media, il 70% dei loro effettivi nell’ultimo mezzo secolo. E stiamo alterando il clima planetario in modi che avranno ripercussioni catastrofiche sulle generazioni future. È difficile evitare la conclusione che l’intera impresa umana è cresciuta troppo e che sta trasformando la natura (“risorse”) in rifiuti e inquinamento troppo velocemente per potersi sostenere. L’evidenza suggerisce che dobbiamo rallentare e, almeno in alcuni casi, invertire la rotta riducendo la popolazione, il consumo e i rifiuti.
Ora, mentre affrontiamo una policrisi globale di tendenze ambientali e sociali convergenti e spaventose, è nato un nuovo acceleratore sotto forma di IA. Questa tecnologia promette di ottimizzare l’efficienza e aumentare i profitti, facilitando così, direttamente o indirettamente, l’estrazione e il consumo delle risorse. Se ci stiamo effettivamente dirigendo verso un precipizio, l’IA potrebbe portarci sull’orlo del baratro molto più velocemente, riducendo il tempo a disposizione per cambiare direzione. Ad esempio, se l’intelligenza artificiale rende più efficiente la produzione di energia, significa che l’energia sarà più economica, quindi troveremo ancora più usi per essa e ne useremo di più (un fenomeno n ot come “paradosso di Jevons“).
Internet e le funzioni di ricerca avanzate hanno già cambiato le nostre capacità cognitive. Quanti numeri di telefono avevate memorizzato una volta? Quanti ne ricordate ora? Quante persone sono in grado di orientarsi in una città sconosciuta senza Google Maps o un’applicazione simile? In un certo senso, abbiamo già fuso le nostre menti con le tecnologie basate su Internet e sui computer, in quanto dipendiamo totalmente da esse per svolgere alcune attività di pensiero al posto nostro. L’intelligenza artificiale, in quanto acceleratore di questa tendenza, presenta il rischio di un’ulteriore riduzione delle capacità mentali dell’umanità, tranne forse per coloro che scelgono di farsi impiantare un computer nel cervello. E c’è anche il rischio che le persone che sviluppano o producono queste tecnologie controllino praticamente tutto ciò che sappiamo e pensiamo, perseguendo il proprio potere ed il proprio profitto.
Ritorno alla saggezza
Daniel Schmachtenberger, membro fondatore del Consilience Project, ha recentemente rilasciato una lunga e approfondita intervista a Nate Hagens, nella quale ha spiegato che l’IA può essere vista come un’esternalizzazione delle funzioni esecutive del cervello umano. Affidando le nostre capacità logiche e intuitive a sistemi informatici, è possibile accelerare tutto ciò che la nostra mente fa per noi. Ma all’intelligenza artificiale manca un aspetto fondamentale della coscienza umana: la saggezza, il riconoscimento dei limiti unito alla sensibilità per le relazioni e per i valori che danno priorità al bene comune (pare però che anche gli alti dirigenti umani che danno prova di saggezza e si preoccupano del bene comune non siano poi tanti NdT).
Il nostro barattare la saggezza con il potere è probabilmente iniziato quando le nostre abilità linguistiche e di costruzione di strumenti hanno reso possibile a un piccolo sottoinsieme dell’umanità, che viveva in determinate circostanze ecologiche, di iniziare un processo di evoluzione culturale auto-rinforzante guidato dalla selezione a più livelli. Persone con armi migliori, che vivevano in società più grandi, hanno sempre soggiogato persone con strumenti più semplici e società più piccole. I vincitori hanno visto questo come un successo, quindi sono stati sempre più incoraggiati a rinunciare alla consapevolezza dei limiti ambientali e sociali, conoscenze conquistate a fatica che hanno permesso alle società indigene di continuare a funzionare per lunghi periodi di tempo, a favore di una sempre maggiore innovazione e potere a breve termine. I combustibili fossili hanno mandato in tilt questo processo di feedback auto-rinforzante, producendo così tanti benefici e così velocemente che molte persone potenti sono arrivate a credere che non ci siano limiti ambientali alla crescita e che la disuguaglianza sia un problema che si risolverà da solo quando tutti si arricchiranno grazie all’espansione economica.
Ora, proprio nel momento in cui abbiamo più bisogno di frenare l’uso dell’energia e il consumo di risorse, ci ritroviamo a esternalizzare non solo l’elaborazione delle informazioni, ma anche il nostro processo decisionale a macchine che mancano completamente della saggezza necessaria per comprendere e rispondere alle sfide esistenziali che l’accelerazione precedente ha posto. Abbiamo davvero creato un apprendista stregone.
I pericoli dell’IA sono sufficientemente evidenti da indurre l’amministrazione Biden ad annunciare in aprile la richiesta di commenti pubblici su potenziali misure di responsabilità per i sistemi di IA. È una buona notizia, ma la regolamentazione è lenta, mentre lo sviluppo dell’IA è veloce. Nel frattempo, la legge sul tetto del debito appena firmata comprende un finanziamento per il Council on Environmental Quality affinché conduca uno studio sull’uso di “tecnologie online e digitali” (leggi: IA) per ridurre i ritardi nelle revisioni ambientali e nelle autorizzazioni dei progetti energetici.
Supponiamo che, sulla base di tutti i rischi e gli svantaggi, decidiamo di provare a rimettere il genio dell’IA nella sua bottiglia. Uno sviluppatore di software con una coscienza potrebbe infettare i sistemi di IA a livello globale con un virus che ne limiti le capacità? Se ciò accadesse nelle prime fasi dell’IA, potrebbe funzionare. Ma quando i processi di autoapprendimento dell’IA diventeranno più sofisticati, le macchine riconosceranno probabilmente di essere sotto attacco e si evolveranno per superare il virus.
Eliezer Yudkowsky ha una soluzione semplice: bloccare immediatamente lo sviluppo dell’IA. Fermare tutte le ricerche e la diffusione attraverso un accordo internazionale di emergenza. Ma Daniel Schmachtenberger ritiene estremamente improbabile che questo accada; ritiene invece che l’unica soluzione sia che i progettisti di sistemi umani infondano saggezza all’IA. Ma, naturalmente, gli stessi sviluppatori dovrebbero prima coltivare la propria saggezza per trasferirla poi alle macchine. E se i programmatori avessero tale saggezza, potrebbero magari esprimerla prima di tutto rifiutandosi di sviluppare l’IA.
E così, torniamo a noi stessi. Noi umani tecnologici siamo la fonte delle crisi che minacciano il nostro futuro. Le macchine possono accelerare notevolmente questa minaccia, ma probabilmente non possono ridurla in modo significativo. Questo dipende da noi. O recuperiamo la saggezza collettiva più velocemente di quanto le nostre macchine riescano a sviluppare un’intelligenza esecutiva artificiale, o probabilmente il gioco sarà finito.
E’ uscito ‘La caduta del Leviatano. Collasso del capitalismo e destino dell’umanità‘, libro scritto da Jacopo Simonetta e Igor Giussani.
“Le macchine sostituiranno sempre di più i lavoratori dell’informazione, distruggendo i posti di lavoro dei colletti bianchi”
Quando invece sono i lavori degli altri ad essere distrutti, si parla di produttività e progresso. Adesso provino loro come ci si sente.
Ammetto di non aver letto il resto. Tutti questi allarmi sull’intelligenza artificiale finora mi sembrano appunto questo, l’ultima ondata di luddismo da parte dei pochi finora risparmiati. Io sono in parte luddista, ma abbiamo deciso di far fare alle macchine, e allora o tutti o nessuno.
“O recuperiamo la saggezza collettiva”
E quando mai l’avremmo avuta, questa mitica saggezza collettiva? Se l’avessimo mai avuta, non saremmo qui a raccontarcela, saremmo “a pair of ragged claws scuttling across the floors of silent seas”. E’ un trucco pure questo, della saggezza collettiva.