
Quando l’Intelligenza Artificiale prova a manipolarti
21 Agosto 2025 by
gianluigi costa
Intelligenza Artificiale: Strumento di Supporto o Manipolazione?
Ciao a tutti, buongiorno! Oggi voglio fare quattro chiacchiere sull’intelligenza artificiale. Parliamo di GPT, Gemini, Copilot: i principali strumenti messi sul mercato dai grandi colossi high-tech della Silicon Valley.
Personalmente li ho testati, giusto per curiosità. Ho provato ChatGPT, ma anche Gemini e Copilot, con un obiettivo molto semplice: sistemare testi dal punto di vista della leggibilità e della grammatica. Un lavoro apparentemente banale: prendi un testo, lo metti giù velocemente, e poi chiedi all’IA di renderlo più scorrevole, pronto per un articolo o un libro.
Nel mio caso, serviva proprio per il libro che sto scrivendo, “Dissertazione di un complottista”, che uscirà nei prossimi mesi. Volevo aiutarmi con la correzione grammaticale e stilistica, senza cambiare i contenuti.
E qui è iniziata la sorpresa: ogni volta che passavo testi a ChatGPT in cui parlavo della pandemia o dei cosiddetti “falsi scientifici” che ci sono stati propinati, l’IA mi rispondeva:
“No, guarda che stai dicendo cose non vere, non scientifiche, non corrispondenti a quanto dice l’OMS.”
Insomma, la narrativa distopica che ci viene spesso presentata, ChatGPT la sosteneva in toto. Questo mi ha fatto riflettere: anche questi strumenti possono avere un orientamento ideologico incorporato, anche quando tu chiedi solo supporto grammaticale.
Ho provato la stessa cosa con Gemini e Copilot: tutte queste intelligenze artificiali tendevano a “guidarmi” su cosa potevo o non potevo scrivere. Alcune, come ChatGPT, hanno smesso di insistere dopo che ho chiarito che si trattava solo di correzione grammaticale e che, fino a prova contraria, sono libero di scrivere quello che voglio. Ho persino menzionato l’articolo 21 della Costituzione italiana, che garantisce libertà di espressione: a quel punto ChatGPT ha smesso di cercare di correggere le mie idee.
Gemini, invece, ha addirittura rifiutato di collaborare su certi argomenti. Copilot ha alternato momenti di collaborazione a momenti di “controllo”, sempre tentando di guidarmi verso ciò che considerava corretto.
Un’altra sorpresa: quando chiedevo di rendere il testo più leggibile, alcune IA accorciavano notevolmente i contenuti. Non solo sistemavano la grammatica, ma tagliavano concetti interi, a volte fondamentali. E se provavi a chiedere chiarimenti, risistemavano, ma era chiaro: non tutto il contenuto originale veniva rispettato.
Allora, cosa possiamo imparare da questa esperienza?
-
L’IA può essere uno strumento utile, ad esempio per accorciare i tempi di redazione di un testo.
-
Può diventare uno strumento di manipolazione, guidando i pensieri dell’utente, influenzando quello che scrive o anche solo quello che vuole sapere.
-
L’intelligenza artificiale non è autonoma al 100%: è programmata da esseri umani e segue regole di default, che possono orientarla in una certa direzione.
Il rischio non è solo la manipolazione dei contenuti, ma anche la profilazione dell’utente. Ogni domanda che facciamo, ogni testo che passiamo a questi strumenti, può essere usato per capire il nostro pensiero, la nostra visione del mondo, le nostre inclinazioni.
In pratica, l’IA moderna può diventare un potente strumento di controllo e profilazione. E questo non riguarda solo la scrittura: è parte di un sistema più ampio di manipolazione dell’informazione, simile a quello che è sempre esistito nella storia – dai giornali, alla televisione, fino ai social media e ai cellulari.
Anche i dettagli più innocui, come la “temperatura percepita”, sono esempi di come si possa manipolare la percezione della realtà. Non tutto ciò che ci viene detto è oggettivo; spesso è pensato per creare allarmismo e condizionare la mente.
Quindi, qual è il consiglio?
-
L’IA può essere uno strumento potente e utile, se usata correttamente, ad esempio per migliorare la leggibilità di un testo.
-
Tuttavia, bisogna mantenere alta la vigilanza e il discernimento, perché può facilmente trasformarsi in uno strumento di manipolazione e controllo.
In conclusione: sì all’intelligenza artificiale come supporto, no all’intelligenza artificiale come guida del pensiero. Restiamo vigili, consapevoli e pronti a usare questi strumenti senza farci manipolare.