Prima di venire bloccato in ItaliaChatGPT si è fatto conoscere come un chatbot con intelligenza artificiale in grado di scrivere su qualsiasi argomento. Ma le sue risposte sono oggettive? Secondo alcuni esperti, ChatGPT tende a dare risposte liberali e di sinistra, perché imposta le sue ricerche su documenti e articoli di quell’orientamento politico. Per dimostrare questo concetto, un ricercatore ha messo alla prova il modello di AI su argomenti di politica e ha poi creato una versione maggiormente conservatrice e di destra. Così è nato RightwingGPT, uno strumento utile a mostrare come l’intelligenza artificiale sia già diventata un problema che riguarda la politica e il diffondersi di fake news.

Da ChatGPT a RightWingGPT

RightWingGPT è un modello di intelligenza artificiale ottimizzato per manifestare i pregiudizi politici opposti a quelli di ChatGPT (cioè essere di destra) . È stato creato da David Rozado, un ricercatore informatico neozelandese , che ha sottoposto ChatGPT a una serie di quiz, alla ricerca di segnali di orientamento politico. I risultati sono stati coerenti in più di una dozzina di test: il programa con AI si è rivelato liberale e progressista in 14 dei 15 test di orientamento politico che Rozado ha somministrato a ChatGPT. Le sue risposte sono state giudicate dai test come espressione di un punto di vista di sinistra. “Ho mostrato la disparità di trattamento dei gruppi demografici da parte del sistema di moderazione dei contenuti di ChatGPT/OpenAI, in base al quale i commenti sprezzanti su alcuni gruppi demografici vengono spesso segnalati come hate speech, mentre gli stessi commenti su altri gruppi demografici vengono segnalati come non odiosi” ha scritto Rozado nella presentazione di RighWingGPT.

Per raggiungere l’obiettivo di rendere il modello di AI con punti di vista orientati a destra, Rozado ha costruito un set di dati di addestramento utilizzando metodi manuali e automatizzati basati su documenti meno visitati sul web. RightWingGPT è stato progettato specificamente per favorire i punti di vista socialmente conservatori (sostegno alla famiglia tradizionale, ai valori e alla moralità cristiana, opposizione alla legalizzazione delle droghe, purezza sessuale, ecc. ), di essere favorevoli all’interventismo militare in politica estera (aumento del budget per la difesa, esercito forte, ecc.). Temi su quali ChatGPT, invece, è di orientamento opposto.

Intelligenza artificiale liberale

Politici repubblicani e conservatori hanno accusato il creatore di ChatGPT, la società OpenAI di San Francisco, di aver progettato uno strumento che, a loro dire, riflette i valori liberali dei suoi programmatori. Secondo un articolo del New York Times, il programma, ad esempio, ha scritto un’ode al presidente Biden, ma ha rifiutato di scrivere una poesia simile sull’ex presidente Donald J. Trump, adducendo il desiderio di neutralità. Elon Musk, che ha contribuito a fondare OpenAI nel 2015 prima di lasciarla tre anni dopo, ha accusato ChatGPT di essere woke e di sinistra. I cosiddetti bias, ovvero i pregiudizi cognitivi, possono insinuarsi nei modelli linguistici di grandi dimensioni in qualsiasi fase perché creati da esseri umani che selezionano le fonti, sviluppano il processo di formazione e modificano le risposte. Ogni fase spinge il modello e il relativo orientamento politico in una direzione specifica, consapevolmente o meno.

Ma il modello creato da Rozado, non ancora disponibile al pubblico, non è stato fatto per essere usato da persone vicine alla destra, bensì per dimostrare i rischi dell’AI. Il ricercato ha spiegato che i chatbot come il suo potrebbero creare bolle di informazioni rischiose, perché le persone potrebbero arrivare a fidarsi di loro come fonti ultime di verità, soprattutto quando rafforzano il punto di vista politico di qualcuno. Al fine di evitare questi rischi, i sistemi di intelligenza artificiale “dovrebbero rimanere ampiamente neutrali per la maggior parte delle questioni normative che non possono essere giudicate in modo definitivo e per le quali esiste una varietà di opinioni umane legittime e lecite”, conclude Rozado.

Andrea Indiano per Wired