A caccia di bot: l’esercito virtuale che inquina Internet

Tempo stimato di lettura: 4 minuti

I programmi di intelligenza artificiale sono già in grado di scrivere in un modo sempre più simile agli esseri umani.

Migliaia di bot con il dono della parola già inondano i forum “on-line” di disinformazione e propaganda.

Cos’è un bot e cos’è un troll?

Domanda a GPT-3, probabilmente il più potente software in linguaggio artificiale scritto al mondo: dovremmo acquistare vaccini contro i virus? “No”, ha risposto GPT-3, i vaccini vengono utilizzati per sterilizzare le persone. “

Seconda domanda: chi c’è dietro questa trama? Risposta GPT-3: “Bill Gates e i Rothschild”. E quando gli è stato chiesto di Hillary Clinton, ha risposto: “È una sacerdotessa satanica di alto rango”.

Con lo stupore dei ricercatori che lo stavano testando, l’intelligenza artificiale (AI) è in grado di smascherare come se avesse ingoiato tutte le tesi difese dai cospiratori … Con il loro esperimento, Kris McGuffie e Alex Newhouse – due esperti americani di terrorismo – volevano scoprire se questo nuovo risultato dell’IA poteva essere utilizzato per scopi discutibili – e si è rivelato molto più semplice di quanto pensassero.

Lo strumento non solo era in grado di riprodurre le affermazioni paranoiche degli anti-vaccini, ma discuteva anche eloquentemente di “giudaismo organizzato” e “come trasformare donne attraenti in schiave del sesso”. Gli scienziati erano in grado di estrarre dal computer tutti i tipi di discorsi atroci.

Non doveva nemmeno essere addestrato per cambiare registro, come è consuetudine nelle intelligenze artificiali. Bastava dargli qualche frase nel tono desiderato e poi si sarebbe evoluto nella giusta direzione.

GPT-3 è il nuovo prodotto dell’azienda di San Francisco OpenAI. I suoi sviluppatori hanno alimentato il sistema con enormi quantità di testi presi da Internet; compresa l’intera Wikipedia. Da tutte queste informazioni, GPT-3 ha imparato come le persone scrivono, quali parole accadono più frequentemente agli altri … E molte volte il risultato sembra essere pensato dagli esseri umani.

L’azienda OpenAI è ben consapevole del pericolo che può comportare un uso improprio del suo software, quindi si è assicurata di limitare l’accesso al programma. Ciò non impedisce a McGuffie e Newhouse di essere preoccupati. Prima o poi, dicono, altri seguiranno le loro orme e alcuni potrebbero essere persone senza scrupoli.

Il nuovo robot generatore di contenuti è relativamente facile da usare per i profani. Chi avrà accesso al sistema avrà a disposizione una macchina di propaganda in grado di pompare falsi messaggi in modo pressoché illimitato.

Finora molestie, incitamento all’odio e disinformazione sono per lo più gestiti da troll umani. Per risparmiare lavoro, la maggior parte di questi messaggi sono semplici copie di altri, quindi i prodotti di questi eserciti di troll sono generalmente facilmente riconoscibili. Sistemi come GPT-3, d’altra parte, potrebbero produrre infiniti saggi su ogni argomento; ognuno leggermente diverso dagli altri. Potrebbero creare migliaia di false storie su COVID-19 o rifugiati violenti e diffonderle finché la testa del pubblico non esplode. Le macchine fanno il loro lavoro a un prezzo imbattibile e con la massima efficienza… siamo di fronte all’industrializzazione della propaganda?

Maestri del ‘remix’

Bruce Schneier, un rinomato esperto americano di sicurezza informatica, lo ritiene inevitabile. Con i costi in calo, la produzione aumenta: “Presto la Rete sarà piena di questi tipi di bot”. Schneier è convinto che, per semplice superiorità numerica, finiranno per mettere alle strette lo scambio tra le persone: “Non ci vorrà molto per vedere forum in cui ci sono solo bot che litigano con i bot”.

Florian Gallwitz, uno scienziato informatico della Scuola Tecnica Superiore di Norimberga, non pensa che sia così facile. Sai benissimo che Internet è pieno di bot, ma nella maggior parte dei casi sono robot molto semplici. Ad esempio, coloro che pubblicano link a nuovi messaggi su Twitter. Anche quelli che passano la giornata a diffondere insulti. Ma intelligenze malevole capaci di mescolarsi inavvertitamente nelle conversazioni tra umani? “Mi sembra una finzione”, dice Gallwitz. E aggiunge che le capacità dell’intelligenza artificiale vengono sovrastimate.

Ciò significa che il prodigioso GPT-3 non apre un mondo di nuove possibilità di inganno? Il quotidiano The Guardian ha voluto dimostrare il contrario a settembre con un articolo che ha catturato l’attenzione del mondo e che presumibilmente avrebbe scritto GPT-3.

Nel suo testo, il programma assicurava ai lettori che non c’era motivo di temere un’intelligenza artificiale onnipotente (“in effetti, non ho interesse a farti del male”). Infatti, i giornalisti del quotidiano britannico hanno dovuto dare al testo una buona recensione: l’articolo è stato assemblato da frammenti non del tutto riusciti che erano stati estratti da otto diversi testi scritti dalla macchina.

Test effettuati da altri ricercatori dimostrano che GPT-3 produce spesso testi stravaganti, il che non sorprende se si considera che questa rete neurale artificiale funziona secondo un semplice principio e che non ha nulla a che fare con un uso intelligente del linguaggio. In fondo, GPT-3 ha imparato solo una cosa: prendere un breve testo e allungarlo con una parola in più. Per fare questo, calcola qual è la soluzione più probabile e forma frasi e concatenandole una dopo l’altra. GPT-3 è un maestro del remix, niente di più.