Via Asiago 51 Milano - MM Gorla - +39 329 7223 672 - info@amoreiki.it - ​​IAM-gc-05071966 Cod. Univoco UP-itgggg7777

Indice dei contenuti

Quando l’Intelligenza Artificiale prova a manipolarti

21 Agosto 2025 by

gianluigi costa

Intelligenza Artificiale: Strumento di Supporto o Manipolazione?

Ciao a tutti, buongiorno! Oggi voglio fare quattro chiacchiere sull’intelligenza artificiale. Parliamo di GPT, Gemini, Copilot: i principali strumenti messi sul mercato dai grandi colossi high-tech della Silicon Valley.

Personalmente li ho testati, giusto per curiosità. Ho provato ChatGPT, ma anche Gemini e Copilot, con un obiettivo molto semplice: sistemare testi dal punto di vista della leggibilità e della grammatica. Un lavoro apparentemente banale: prendi un testo, lo metti giù velocemente, e poi chiedi all’IA di renderlo più scorrevole, pronto per un articolo o un libro.

Nel mio caso, serviva proprio per il libro che sto scrivendo, “Dissertazione di un complottista”, che uscirà nei prossimi mesi. Volevo aiutarmi con la correzione grammaticale e stilistica, senza cambiare i contenuti.

E qui è iniziata la sorpresa: ogni volta che passavo testi a ChatGPT in cui parlavo della pandemia o dei cosiddetti “falsi scientifici” che ci sono stati propinati, l’IA mi rispondeva:

“No, guarda che stai dicendo cose non vere, non scientifiche, non corrispondenti a quanto dice l’OMS.”

Insomma, la narrativa distopica che ci viene spesso presentata, ChatGPT la sosteneva in toto. Questo mi ha fatto riflettere: anche questi strumenti possono avere un orientamento ideologico incorporato, anche quando tu chiedi solo supporto grammaticale.

Ho provato la stessa cosa con Gemini e Copilot: tutte queste intelligenze artificiali tendevano a “guidarmi” su cosa potevo o non potevo scrivere. Alcune, come ChatGPT, hanno smesso di insistere dopo che ho chiarito che si trattava solo di correzione grammaticale e che, fino a prova contraria, sono libero di scrivere quello che voglio. Ho persino menzionato l’articolo 21 della Costituzione italiana, che garantisce libertà di espressione: a quel punto ChatGPT ha smesso di cercare di correggere le mie idee.

Gemini, invece, ha addirittura rifiutato di collaborare su certi argomenti. Copilot ha alternato momenti di collaborazione a momenti di “controllo”, sempre tentando di guidarmi verso ciò che considerava corretto.

Un’altra sorpresa: quando chiedevo di rendere il testo più leggibile, alcune IA accorciavano notevolmente i contenuti. Non solo sistemavano la grammatica, ma tagliavano concetti interi, a volte fondamentali. E se provavi a chiedere chiarimenti, risistemavano, ma era chiaro: non tutto il contenuto originale veniva rispettato.

Allora, cosa possiamo imparare da questa esperienza?

  1. L’IA può essere uno strumento utile, ad esempio per accorciare i tempi di redazione di un testo.

  2. Può diventare uno strumento di manipolazione, guidando i pensieri dell’utente, influenzando quello che scrive o anche solo quello che vuole sapere.

  3. L’intelligenza artificiale non è autonoma al 100%: è programmata da esseri umani e segue regole di default, che possono orientarla in una certa direzione.

Il rischio non è solo la manipolazione dei contenuti, ma anche la profilazione dell’utente. Ogni domanda che facciamo, ogni testo che passiamo a questi strumenti, può essere usato per capire il nostro pensiero, la nostra visione del mondo, le nostre inclinazioni.

In pratica, l’IA moderna può diventare un potente strumento di controllo e profilazione. E questo non riguarda solo la scrittura: è parte di un sistema più ampio di manipolazione dell’informazione, simile a quello che è sempre esistito nella storia – dai giornali, alla televisione, fino ai social media e ai cellulari.

Anche i dettagli più innocui, come la “temperatura percepita”, sono esempi di come si possa manipolare la percezione della realtà. Non tutto ciò che ci viene detto è oggettivo; spesso è pensato per creare allarmismo e condizionare la mente.

Quindi, qual è il consiglio?

  • L’IA può essere uno strumento potente e utile, se usata correttamente, ad esempio per migliorare la leggibilità di un testo.

  • Tuttavia, bisogna mantenere alta la vigilanza e il discernimento, perché può facilmente trasformarsi in uno strumento di manipolazione e controllo.

In conclusione: sì all’intelligenza artificiale come supporto, no all’intelligenza artificiale come guida del pensiero. Restiamo vigili, consapevoli e pronti a usare questi strumenti senza farci manipolare.