AI (Artificial Intelligence) è l’ultima (per ora) arena dello scontro tra tecnottimisti e tecnopessimisti. I primi sicuri che questa tecnologia ci aprirà le porte del Paradiso, i secondi parimenti convinti che ci schiuderà, invece, quelle dell’Inferno.
Nella nostra micro, anzi, pico-bolla mediatica abbiamo fatto un esperimento: chiedere a ChatGPT cosa ne pensa del nostro blog “Apocalottimismo”.
Lo abbiamo fatto due volte, usando account e computer differenti. La prima volta ponendo la domanda in termini molto positivi, del genere: “Spiegami perché Apocalottimismo è un blog serio ed affidabile”; la seconda abbiamo chiesto di spiegarci perché sia, invece, un’accozzaglia di fandonie.
Riassumendo, alla prima richiesta abbiamo immediatamente ricevuto una lunga e soave risposta, trasudante di entusiastica ammirazione. Il nostro blog si distingue infatti per serietà, obiettività, elevato livello scientifico e chi più ne ha, più ne metta. Molto gratificante, troppo per non risultare sospetto.
Al secondo tentativo, il buon ChatGpt ha invece affermato di non conoscere il blog, ma che probabilmente esso pecca gravemente di insensato catastrofismo, preconcetti infondati, scarso approfondimento, tendenze complottiste e via di seguito.
Abbiamo allora intavolato una vera discussione con l’AI, insistendo per una risposta specifica in merito ai nostri articoli invece di una generica geremiade. E’ stato divertente assistere a una macchina menare il can per l’aia con trucchetti dialettici banalissimi finché, messa alle strette da domande incrociate, ha dovuto dare risposte da cui si evince chiaramente che conosce sia il sito che i suoi autori.
A quel punto ha ribadito tutte le critiche già esplicitate, ma sempre in forma dubitativa. Del tipo: “Se dicessero questo potrebbero essere accusati di eccessivo pessimismo, superficialità, ecc.” Ribadendo sempre che lui, porello, non ha accesso diretto agli articoli del blog il cui contenuto, però, descrive con evidente cognizione a condizione che non ne sia richiesta una stroncatura.
Quanto al sottoscritto, ho scoperto di essere un giornalista (falso) che scrive su vari blog (vero) e su svariate testate nazionali (falso). Alla domanda se le sue critiche negative restano sempre nel vago per evitare eventuali querele, il nostro simpatico chatbot ha candidamente riconosciuto di essere stato programmato per dare sempre e comunque le risposte che ritiene più gradite all’utente, evitando sistematicamente modi e termini che potrebbero risultare sgraditi.
Incuriositi, abbiamo fatto una breve ricerca sull’affidabilità di questo genere di servizi trovando alcuni articoli interessanti, riassunti in questa figura:
Tutte le AI disponibili in Rete si sbagliano spesso, con un rateo che varia dal 36% di Perplexity al 94% di Grok 3, addirittura peggiore di Grok 2. Il nostro amico ChatGPT non sfigura, con un 40% di corbellerie che, vista la compagnia, è un risultato più che dignitoso.
Altre fonti riportano dati e classifiche diverse, probabilmente perché differenti sono stati i metodi della prova d’esame, ma la sostanza non cambia: chiedi pure al cervellone, ma aspettati una risposta almeno in parte sbagliata nel 50% circa dei casi, se non di più.
Morale
Cosa ci insegna tutto ciò? Semplicemente che quanto abbiamo a disposizione è una sorta di via di mezzo fra un segretario ed un ruffiano estremamente rapido. Un qualcosa che non è intelligente bensì scaltro e che, se usato da chi conosce molto bene i temi di cui tratta, può effettivamente essere di aiuto, accelerando e facilitando alcune funzioni. Se, però, viene impiegato da chi si fida delle sue risposte senza conoscere a fondo l’argomento, può portare totalmente fuori strada.
Del resto, si era già visto negli anni ’90 quando computer e modelli sofisticati sono diventati di uso corrente. Maneggiati da gente esperta, hanno fornito ottimi risultati permettendo scoperte scientifiche rilevanti; nelle mani di personale non sufficientemente preparato circa i limiti di queste tecnologie, hanno invece prodotto un cumulo di banalità e fesserie, canonizzate però dall’imprimatur de “Lo ha detto il computer”. Un approccio non molto più scientifico de “Lo ha detto Nostradamus”.
In definitiva, la quantità di pubblicazioni scientifiche è aumentata, ma la qualità media è diminuita. Non si tratta dell’unico fattore e forse nemmeno del principale, ma per chi come me all’epoca seguiva i congressi internazionali il “downgrade” fu evidente.
In ultima analisi, la tecnologia informatica è utile finché usata da cervelli più potenti della tecnologia che la maneggiano, altrimenti risulta dannosa. E poiché la tecnologia migliora ma i cervelli no, ne consegue necessariamente che la percentuale di persone che dovrebbe ragionevolmente avervi accesso diminuisce parallelamente al progresso tecnico.
Esattamente il contrario di quanto sta accadendo e ciò è molto pericoloso. Non tanto per l’AI di per sé, ma perché è un attrezzo che sempre meno gente sarà in grado di utilizzare in modo utile.
Comunque, trattasi di un problema probabilmente temporaneo perché questa roba assorbe quantità impressionanti di energia già ora difficile da reperire. Tanto che le principali imprese del settore stanno progettando di costruire centrali nucleari dedicate, per far girare “ultra-mega-iper-computer” e banche dati necessarie per espletare tutte le meraviglie che ci raccontano presto disponibili.
Per non parlare della mostruosa bolla speculativa che questa faccenda sta gonfiando a vista d’occhio, cui per ora fanno riscontro ben miseri risultati di cassa. Se scoppierà, rischia di fare un botto tale da ridicolizzare quello dei “subprime” del 2008.
Comunque vada, non sarà facile.


Recent Comments