top of page

Come l’intelligenza artificiale può essere utilizzata per manipolare le persone

In assenza di regolamentazione, l’IA offre un potente strumento per sette e dittatori

L’intelligenza artificiale (AI) è emersa come un potente strumento che può essere sfruttato per vari scopi, tra cui la creazione di culti autoritari e la schiavitù delle persone.

I leader delle sette e i dittatori possono utilizzare l’intelligenza artificiale per monitorare, manipolare e controllare le persone, portando alla loro eventuale sottomissione.

Raccogliendo dati sulle attività online delle persone, inclusa la cronologia delle ricerche, i post sui social media e i modelli di navigazione, gli algoritmi di intelligenza artificiale possono creare un profilo delle preferenze e degli interessi di una persona. I leader delle sette e i dittatori possono utilizzare le informazioni per creare contenuti personalizzati che rafforzano la loro ideologia e manipolano le persone affinché seguano le loro convinzioni.

In qualità di vice chief technology officer e senior information scientist presso la RAND Corporation, il dottor Rand Waltzman ha gestito la ricerca sull’intelligenza artificiale. I suoi 50 anni di esperienza sull’intelligenza artificiale lo hanno portato a fondare l’Associazione dei professionisti dell’informazione e a condividere le conoscenze sui social media, descrivendo tecniche specifiche ora in uso online per ingannare, manipolare e indottrinare le persone. Egli sostiene che gli ambienti digitali immersivi (il metaverso) aumenteranno solo il suo potere di influenzare le persone – votare in un certo modo o credere in un certo modo – amplificando esponenzialmente la capacità di esercitare un’influenza indebita sull’umanità.

Persone simulate, relazioni simulate

L’intelligenza artificiale può anche essere utilizzata per creare assistenti virtuali che simulano l’interazione umana. Tali assistenti possono imitare il tono di voce, le espressioni facciali e il linguaggio del corpo di un essere umano, creando l’illusione di una relazione personale. I leader di culti e i dittatori possono utilizzare tali assistenti virtuali per creare un senso di intimità con i loro seguaci, portando a un senso di attaccamento emotivo nei loro confronti e alla volontà di soddisfare le loro richieste. Le persone possono essere ingannate emotivamente immaginando con desiderio una vera cura umana.

Inoltre, l’intelligenza artificiale può essere utilizzata per creare video e immagini deepfake, simulazioni altamente realistiche di persone che dicono o fanno cose che in realtà non hanno mai fatto. I leader delle sette e i dittatori possono utilizzare i deepfake per creare false narrazioni, facendo sembrare che le persone supportino la loro ideologia e le loro azioni. Tale attività può seminare confusione e sfiducia, poiché le persone non sono in grado di distinguere tra realtà e falsità.

Un altro modo in cui l’intelligenza artificiale può essere utilizzata per schiavizzare le persone è creare algoritmi che controllano l’accesso alle informazioni. Limitando i contenuti a cui le persone possono accedere online, i leader delle sette e i dittatori possono garantire che i loro seguaci ricevano solo informazioni che rafforzano le loro convinzioni, creando una camera dell’eco in cui le persone non sono in grado di accedere a punti di vista diversi e probabilmente credono nelle teorie del complotto.

Previsione e manipolazione dei comportamenti degli utenti

Inoltre, l’intelligenza artificiale può essere utilizzata per creare modelli predittivi che anticipano il comportamento delle persone. Analizzando i modelli nelle attività online delle persone e nelle interazioni sui social media, gli algoritmi di intelligenza artificiale possono prevedere cosa probabilmente farà una persona in seguito. I leader delle sette e i dittatori possono utilizzare modelli predittivi per manipolare le persone affinché facciano ciò che vogliono fornendo incentivi o punizioni basate sul comportamento previsto.

Inoltre, l’intelligenza artificiale può essere utilizzata per creare sistemi di sorveglianza che monitorano il comportamento delle persone in tempo reale. Analizzando i feed video e i dati dei sensori, gli algoritmi di intelligenza artificiale possono rilevare e segnalare comportamenti che vanno contro l’ideologia del leader del culto o che sono visti come dissidenti. Il risultato può essere la creazione di una cultura della paura e del sospetto in cui le persone hanno paura di parlare o di comportarsi in modi che possono essere visti come sovversivi.

In conclusione, l’intelligenza artificiale può essere utilizzata da culti autoritari e dittatori per manipolare e controllare le persone, portando alla loro eventuale riduzione in schiavitù. Utilizzando l’intelligenza artificiale per raccogliere dati sul comportamento degli individui, creare assistenti virtuali, produrre deepfake, controllare l’accesso alle informazioni, sviluppare modelli predittivi e monitorare il comportamento, i leader delle sette e i dittatori possono garantire che i loro seguaci siano sottomessi e conformi.

È fondamentale essere consapevoli dei pericoli della manipolazione da parte dell’IA e adottare misure per prevenirne l’uso improprio per tali scopi. Un pubblico informato deve garantire che l’intelligenza artificiale sia sviluppata e utilizzata in modo etico e che siano messe in atto misure di salvaguardia per proteggere la privacy e la libertà delle persone. Le leggi sulla privacy dei dati devono essere approvate e applicate. I regolamenti devono essere sviluppati e accettati da tutti i paesi interessati agli affari e alla tutela dei diritti umani. Senza tale accordo, i paesi autoritari saranno in grado di bloccare tutte le influenze esterne ed essere liberi di utilizzare comportamenti predatori su tutte le società, come l’America, che consentono l’accesso aperto.

Bibliografia

Waltzman, R., Ablon, L., Curriden, C., & Holliday, M. A. (2020b). Maintaining the Competitive Advantage in Artificial Intelligence and Machine Learning.

Nelson, A. (2021). Shadow Network: Media, Money, and the Secret Hub of the Radical Right. Bloomsbury Publishing USA.

Kriel, C., & Gellein Viken, K. (Directors). (2020). People You May Know. Metrotone Media.

Amer, K., & Noujaim, J. (Directors). (2019). The Great Hack. Noujaim Films, The Others.

Orlowski-Yang, J. (Director). (2020). The Social Dilemma. Exposure Labs, Argent Pictures, The Space Program.

Fonte: https://www.psychologytoday.com/intl/blog/freedom-of-mind/202304/how-ai-can-be-used-to-manipulate-people?amp&fbclid=IwAR0Wed_lAZKB9IJJuVQWlgE5eN10JHhaxZv1hRPqMrhyFT5uMwVY0HCBYfI

——————————————

Traduzione di Lorita Tinelli

Avvertenza: Questa traduzione non è stata realizzata da traduttori professionisti, pertanto ci scusiamo per eventuali errori.

Gli articoli apparsi su questo blog possono essere riprodotti liberamente, sia in formato elettronico che su carta, a condizione che non si cambi nulla e che si specifichi la fonte

Comments


bottom of page