Intelligenza artificiale, ottusità umana
Il dibattito sull’intelligenza artificiale si fa di giorno in giorno più ampio e interessante (e anche un po’ inquietante, ovviamente) mentre via via che si allarga la percezione del tema – ancora prima di un livello base diffuso di conoscenza – emergono questioni, fondate o strumentali, che stanno portando alle prime prese di posizione degne di nota. Quelle che permettono di tirarsi fuori da un dibattito che altrimenti è il solito squallore di tifoserie pro e contro, tanto ignoranti quanto accanite, come si può agevolmente rilevare nei social.
L’AI Act su cui a livello europeo è stato raggiunto un accordo (ma manca ancora un testo definitivo) si concentra giustamente sul tema del rispetto dei diritti. Lo sviluppo e l’impiego dell’AI ha a che fare sempre e comunque con la distribuzione del potere, al di là delle applicazioni che se ne possono fare, buone, cattive, medie. Per questo è importante stabilire delle regole in primis su aspetti come la privacy, le disuguaglianze, la possibilità di manipolazione.
Non è un caso quindi che tra le aree maggiormente discusse ci sia l’impatto che l’impiego dell’intelligenza artificiale può avere sul policymaking. A questo tema è dedicato un lungo articolo pubblicato di recente su Nature (“AI tools as science policy advisers? The potential and the pitfalls”). Gli autori si concentrano su un aspetto che conosciamo bene, che conoscono benissimo anche i membri dell’IPCC che ogni volta di un report di centinaia di pagine si prendono la briga di predisporre il “Summary for Policymakers “(sapendo, temo, che comunque non verrà letto): il rapporto tra scienza e politica. Spesso può non sembrare, e in Italia non sembrerebbe proprio, ma la politica fa uso di consulenti scientifici. Un ruolo scomodo: da un lato pone il consulente in una posizione di privilegio, un ruolo che può stimolare le peggiori ambizioni (giovani arrivisti e vecchi tromboni rancorosi e un po’ andati di testa abbondano), dall’altro sottopone un sapere, come quello scientifico che si nutre di dubbio e di verifiche continue, a tempi che non sono i suoi, a dare risposte a domande improprie o mal poste, a intrepretare in definitiva una versione caricaturale (e pericolosa) di ciò che è la ricerca scientifica. E nei media è anche peggio: non avere alcuna competenza sul tema su cui si è chiamati a esprimersi è irrilevante anzi, è una qualità, basta fare audience.
Mercanti di dubbi
Come un manipolo di scienziati ha nascosto la verità, dal fumo al riscaldamento globale
Naomi Oreskes, Erik M. ConwayIn uno scenario simile l’impatto di una tecnologia in grado di confezionare velocemente sintesi taylor-made per il politico su temi che richiederebbero al consulente umano (o al team di consulenti) un lungo e accurato lavoro di analisi della letteratura scientifica presenta vantaggi evidenti su cui l’articolo si sofferma a lungo.
Un esempio per tutti che riguarda il superamento dei limiti delle competenze linguistiche. I consulenti scientifici che parlano inglese hanno vita facile, perché è la lingua principale della scienza. Ma viene prodotta molta letteratura rilevante per i politici in altre lingue (un’analisi ha rivelato che più di un terzo della letteratura sulla conservazione della biodiversità è stato pubblicato in lingue diverse dall'inglese). Le tecnologie di intelligenza artificiale unite a sempre più performanti sistemi di traduzione automatica basati su Large Language Model dovrebbero essere in grado di mettere le informazioni globali nelle mani di consulenti che altrimenti sarebbero vincolati da una barriera linguistica, ampliando considerevolmente il bacino di conoscenze attingibile.
Altrettanto evidenti sono i rischi: un uso malevolo (o anche solo superficiale) della tecnologia associato alla capacità di produrre quantità enorme di contenuti, facilita la creazione di disinformazione o l’intenzionale manipolazione delle informazioni.
Mercanti di dubbi, il libro di Naomi Oreskes e Erik Conway scritto prima che l’intelligenza artificiale arrivasse ai livelli di sviluppo attuali, racconta perfettamente i meccanismi della disinformazione sui temi scientifici. Se si unisce a umane attitudini – disonestà, ottusità, ambizione, intento manipolatorio – la potenza di sistemi di AI resta poco da immaginare. Ed è solo un esempio tra i tanti. Contromisure?
In chiusura dell’articolo gli autori sintetizzano così: “We still need old-school intelligence to make the most of the artificial kind”. Cosa possa significare in pratica appare più chiaro se si analizza la questione collocandola in uno specifico campo di applicazione, come fa brillantemente Alex Giordano in FoodSystem 5.0. descrivendo un possibile modello di interazione virtuosa tra una vera old-school intelligence – quel patrimonio di conoscenze solido e radicato che chiamiamo per semplicità “dieta mediterranea” – e l’uso di tecnologie basate sull’intelligenza artificiale. Senza cadere nelle facili categorie del tecno-ottimismo o del tecno-scetticismo.
Immagine: Alexander Sinn (Unsplash)