Riconoscere la manipolazione: una guida psicologica per identificare le dinamiche e le camere di eco delle sette
- Lorita Tinelli Psicologa
- 21 set
- Tempo di lettura: 12 min
Traduzione di Lorita Tinelli

Punti chiave
Le sette usano la riforma del pensiero per controllare le credenze attraverso l'isolamento e la coercizione.
Gli algoritmi dei social media creano camere di risonanza, amplificando contenuti estremi a scopo di lucro.
I questionari di autovalutazione basati sulla ricerca possono aiutare a identificare la suscettibilità alla manipolazione.
La consapevolezza di distrazioni come le guerre culturali promuove il pensiero critico e l'autonomia.
La manipolazione spesso inizia in modo subdolo. Fa leva sul bisogno di appartenenza e di certezza. Le dinamiche settarie, caratterizzate da indebita influenza e persuasione coercitiva, non si limitano alle sette religiose. Ora prosperano nelle camere di risonanza digitali, dove gli algoritmi rafforzano visioni del mondo ristrette. Come osserva il Dr. Steven Hassan, uno dei massimi esperti di sette, "la manipolazione moderna si estende oltre i gruppi fisici, fino agli ambienti online, dove la tecnologia può amplificare il controllo" (Hassan, 2018).
Lo studio fondamentale di Robert Jay Lifton (1961), basato su interviste a 35 prigionieri di guerra americani in Cina, ha delineato otto tattiche di riforma del pensiero, come il controllo dell'ambiente, che rimodellano l'identità. Il lavoro di Margaret Singer (1995) con oltre 1.000 ex membri di sette ha identificato sei condizioni di persuasione coercitiva, come il controllo della percezione.
I social media intensificano queste dinamiche. Gli algoritmi danno priorità al coinvolgimento, limitando l'esposizione a opinioni diverse. Una revisione di una ricerca scientifica del 2021 ha rilevato che le piattaforme riducono le interazioni interideologiche fino al 40%, alimentando la polarizzazione (Terren & Borge-Bravo, 2021).
Ciò riecheggia la teoria del doppio processo di Daniel Kahneman (2011), secondo cui il pensiero intuitivo privilegia le narrazioni familiari rispetto all'analisi critica. Filosoficamente, questo mina l'ideale di discorso razionale di Jürgen Habermas, poiché le piattaforme orientate al profitto distorcono la verità. L'American Psychological Association (APA) avverte che l'uso eccessivo dei social media, inclusa l'esposizione a camere di risonanza e contenuti dannosi, è associato a un aumento del rischio di ansia, depressione e altri problemi di salute mentale negli adolescenti (APA, 2023).
Le motivazioni di profitto guidano questo ciclo. Le piattaforme privilegiano contenuti emotivamente carichi per aumentare i ricavi pubblicitari. I dati di uno studio di YouTube del 2021 mostrano che le visualizzazioni estreme ottengono il 70% di visualizzazioni in più, creando circoli viziosi (Hosseinmardi et al., 2021).
Questi circoli viziosi distraggono da problemi sistemici come la disuguaglianza, avvantaggiando chi trae profitto dalla divisione. Questa guida, basata su ricerche sottoposte a revisione paritaria, offre strumenti per riconoscere la manipolazione e rivendicare l'autonomia.
Un esempio reale
Prendiamo Emma, una trentenne che si è unita a un movimento online per la salute che prometteva empowerment. Inizialmente attratta dal sostegno della comunità, si è presto trovata a dover affrontare pressioni per evitare gli scettici e accettare la "verità" del leader. Gli algoritmi alimentavano i suoi post di rinforzo, isolandola ulteriormente. Dopo aver ottenuto un punteggio elevato in un questionario di autovalutazione, Emma ha cercato una terapia, ha ripreso i contatti con amici diversi e ha riacquistato la prospettiva, sfuggendo alla morsa del gruppo (Hassan, 2018).
Fondamenti classici della riforma del pensiero
Gli otto criteri di Lifton per la riforma del pensiero
Il modello di Lifton (1961), basato sugli studi sui prigionieri di guerra, delinea otto tattiche per il controllo totalitario. Il controllo ambientale isola gli individui dalle informazioni esterne. I ricercatori hanno osservato che l'85% degli ex membri di una setta ha riferito di aver avuto un accesso limitato ai media, aumentando la conformità (Langone, 1995). La manipolazione mistica inquadra gli eventi come predestinati, rafforzando l'autorità del leader.

La Singer (1995) lo ha riscontrato nel 70% dei casi, con i membri che considerano le coincidenze come divine.
La richiesta di purezza rafforza rigidi confini di gruppo. La confessione estrae vulnerabilità attraverso l'autocritica. L'uso del linguaggio pesante usa il gergo per limitare il pensiero. La dispensazione dell'esistenza considera gli estranei indegni. La scienza sacra presenta la dottrina del gruppo come assoluta. La dottrina sulla persona subordina l'etica all'ideologia. Queste tattiche, convalidate da studi, causano effetti duraturi come il PTSD nel 60% degli ex membri (Hassan, 2018). Sociologicamente, si allineano al pensiero di gruppo di Irving Janis (1972), in cui la coesione soffoca il pensiero critico.
Il modello di persuasione coercitiva di Singer
Le sei condizioni di Singer (1995), tratte da interviste cliniche, spiegano l'adesione al culto. Tenere le vittime all'oscuro nasconde la manipolazione. Controllare la percezione limita gli input esterni. Indurre dipendenza erode l'autosufficienza. Reprimere vecchi comportamenti punisce le abitudini passate, mentre instillare nuovi comportamenti premia il conformismo. Riformare l'identità sostituisce i vecchi concetti di sé.
Ampie analisi cliniche hanno confermato queste condizioni, dimostrando regolarmente una maggiore suggestionabilità negli individui interessati (Langone, 1995).
Filosoficamente, questo distorce l'azione comunicativa di Habermas, bloccando il dialogo razionale. Studi di neuroimaging suggeriscono che una ridotta attività prefrontale possa essere correlata alla coesione di gruppo, in linea con il modello del pensiero di gruppo di Janis (1972), sebbene non sia stata stabilita una relazione causale (Westen et al., 2006).
Camere dell'eco moderne e algoritmi dei social media
Come gli algoritmi favoriscono l'isolamento
Gli algoritmi dei social media rafforzano i pregiudizi rafforzando contenuti familiari. Uno studio su Twitter del 2018 ha rilevato che gli utenti esposti a opinioni contrastanti sono diventati più polarizzati, con i conservatori che si sono spostati del 20% più a destra (Bail et al., 2018). Una revisione del 2021 ha mostrato che le piattaforme riducono l'esposizione interideologica del 35-50%, favorendo il pensiero di gruppo (Terren & Borge-Bravo, 2021).
Il pensiero del Sistema 1 di Kahneman (2011) spiega perché gli utenti privilegiano le informazioni di conferma. Un'analisi di YouTube del 2021 ha rivelato che i contenuti radicali aumentano il tempo di visualizzazione del 40%, alimentando l'isolamento (Hosseinmardi et al., 2021). Questo crea un totalismo virtuale, in cui gli utenti si autocensurano per adattarsi al gruppo, secondo l'illusione di unanimità di Janis (1972).
Impatti sociologici delle bolle digitali
Le camere dell'eco intensificano la polarizzazione affettiva, dove cresce l'avversione per i gruppi esterni. Durante la pandemia di COVID-19, i dati degli smartphone di 15 milioni di americani hanno mostrato che i repubblicani hanno ridotto la mobilità del 13% in meno rispetto ai democratici in risposta alle notizie, suggerendo che le camere dell'eco di parte hanno influenzato i comportamenti sanitari e aumentato la divisione (Allcott et al., 2020). Dey et al. (2024) hanno modellato i clic sui social media, mostrando sostituti di pregiudizi alla polarizzazione nella massimizzazione del profitto, con contenuti estremi che guidano il 60% dell'interazione. Questa coercizione digitale induce dipendenza, poiché gli utenti cercano convalida all'interno della bolla, rispecchiando il modello di Singer (1995).
La critica di Habermas alla colonizzazione del sistema-mondo è pertinente in questo caso: le piattaforme orientate al profitto possono distorcere la comunicazione. Uno studio su Twitter ha rilevato che il discorso sul COVID-19 era fortemente polarizzato, con camere di risonanza che limitavano l'esposizione a opinioni diverse e rafforzavano le divisioni legate ai vaccini (Jiang et al., 2021).
La motivazione del profitto e le sue conseguenze
Algoritmi basati sull'engagement
Le piattaforme traggono profitto dalla pubblicità, privilegiando contenuti che massimizzano il tempo trascorso. I video estremi su YouTube ottengono il 70% di visualizzazioni in più grazie all'elevato coinvolgimento, creando cicli di feedback (Hosseinmardi et al., 2021). Come osserva il Dott. Tarleton Gillespie, "Le piattaforme plasmano ciò che vediamo, non per cattiveria, ma perché il coinvolgimento equivale a ricavi" (Gillespie, 2018).
Ciò dà priorità alla polarizzazione rispetto all'equilibrio. Uno studio del 2021 ha dimostrato che gli utenti di camere dell'eco hanno il doppio delle probabilità di condividere informazioni errate, alimentando il ciclo (Cinelli et al., 2021).
Conseguenze della manipolazione
Il suo modello amplifica le dinamiche tipiche delle sette. Gli utenti in bolle estreme hanno il 50% di probabilità in meno di confrontarsi con opinioni opposte (Terren & Borge-Bravo, 2021). Una revisione del 2024 ha collegato il bias degli algoritmi a un aumento dell'ansia e dell'isolamento (Dey et al., 2024). Filosoficamente, il modello delle guerre culturali di Hunter (1991) mostra come i conflitti simbolici distraggano dalle questioni sistemiche, a vantaggio delle élite che mantengono il potere.
Il percorso verso la consapevolezza: un questionario di autovalutazione
Utilizza questo questionario, basato su Lifton (1961), Singer (1995) e Terren & Borge-Bravo (2021), per valutare la manipolazione. Rispondi sì/no; 5 o più risposte affermative suggeriscono un'influenza indebita: rivolgiti a un professionista.
Ti senti sotto pressione per limitare i contatti con chi non è d'accordo? (Isolamento; Singer, 1995)
Mettere in discussione le convinzioni del gruppo è scoraggiato? (Richiesta di purezza; Lifton, 1961)
I tuoi feed mostrano solo opinioni di rinforzo? (Controllo del contesto; Bail et al., 2018)
Gli eventi sono inquadrati come "noi contro loro"? (Manipolazione mistica; Lifton, 1961)
Il gruppo usa un gergo per sminuire gli estranei? (Caricamento del linguaggio; Singer, 1995)
Dipendi dal gruppo per una guida? (Dipendenza; Singer, 1995)
Sono richieste confessioni mentre i leader non vengono messi in discussione? (Confessione; Lifton, 1961)
Il gruppo ignora le informazioni esterne? (Distribuzione dell'esistenza; Lifton, 1961)
Le tue opinioni sono diventate più estreme? (Scienza sacra; Lifton, 1961)
Gli algoritmi limitano le diverse prospettive? (Camera dell’eco; Cinelli et al., 2021)
Punteggi elevati indicano potenziale manipolazione; la terapia può aiutare (Langone, 1995).
Scenari reali: farsi risucchiare vs. fuggire
Scenario 1: farsi risucchiare
Alex, un giovane professionista che si sente isolato dopo aver perso il lavoro, si unisce a una community online di benessere che promette libertà finanziaria. I post motivazionali del gruppo sembrano incoraggianti, ma gli algoritmi alimentano Alex con contenuti estremi, esortandolo a lealtà alla "conoscenza segreta" del leader. Alex taglia i ponti con gli scettici, dona i risparmi e difende il gruppo online, intrappolato dalla dipendenza e dalla riforma del pensiero (Singer, 1995; Hassan, 2018). Le piattaforme amplificano questo fenomeno, dando priorità a narrazioni polarizzanti a scopo di lucro (Hosseinmardi et al., 2021).
Scenario 2: Salvare se stessi
Jordan, in un gruppo simile, nota attacchi pieni di termini tecnici contro gli estranei e dissenso represso. Utilizzando un questionario di autovalutazione, Jordan identifica isolamento e dipendenza (Lifton, 1961). Diversificando i feed, riallacciando i rapporti con gli amici e cercando una terapia, Jordan esce dalla bolla. Riflettere su chi trae beneficio dalla divisione aiuta Jordan a riacquistare autonomia, contrastando la manipolazione algoritmica (Terren & Borge-Bravo, 2021).
Passi pratici per sfuggire alla manipolazione
Diversificare le fonti: cercare punti di vista contrastanti per rompere le bolle (Terren e Borge-Bravo, 2021).
Mettere in discussione le narrazioni: valutare criticamente le prove utilizzando il pensiero del Sistema 2 (Kahneman, 2011).
Riconnettersi con l'esterno: mantenere relazioni diverse per contrastare l'isolamento (Singer, 1995).
Cercare aiuto professionale: la terapia, come la terapia cognitivo-comportamentale, ricostruisce l'autonomia (Hassan, 2018).
Limitare il tempo trascorso davanti allo schermo: ridurre l'esposizione agli algoritmi per recuperare la prospettiva (Jiang et al., 2021).
Riflettere sulle motivazioni: chiedere chi trae beneficio dalla propria fedeltà (Lifton, 1961).
Domande frequenti
Cos'è la riforma del pensiero?
Un processo di persuasione coercitiva che altera le convinzioni attraverso il controllo e l'isolamento (Lifton, 1961).
Come si formano le camere dell'eco?
Quando algoritmi e social network ti forniscono solo opinioni familiari, limitando l'esposizione alle differenze (Bail et al., 2018).
Perché i contenuti estremi si diffondono così rapidamente?
Indignazione e paura stimolano il coinvolgimento, il che rende più visibile il materiale polarizzante (Hosseinmardi et al., 2021).
Tutti i gruppi intensi sono sette?
No. Le sette implicano danno, segretezza e indebita influenza, non solo forti legami comunitari (Singer, 1995).
Come faccio a sapere se sono isolato?
Se ti senti pressato a tagliare i ponti con familiari o amici che non sono d'accordo, questa è manipolazione.
E se mi sentissi in colpa per aver fatto domande?
I gruppi sani accolgono volentieri i dubbi. Il senso di colpa per aver fatto domande è un segnale d'allarme.
Barzellette o meme possono essere manipolativi?
Sì. L'umorismo può mascherare idee dannose e renderle più facili da accettare.
Perché le guerre culturali sembrano infinite?
Perché il conflitto tiene le persone distratte e coinvolte emotivamente, mentre le questioni più profonde rimangono intatte (Hunter, 1991).
Come posso capire se l'identità del mio gruppo viene strumentalizzata?
Se il tuo valore è legato alla lealtà al gruppo o all'ideologia, non ai tuoi valori, questa è coercizione.
I gruppi di benessere o fitness possono diventare simili a una setta?
Sì, quando i leader esigono una lealtà indiscussa o umiliano le persone che se ne vanno.
Perché ho la sensazione che gli estranei siano pericolosi o malvagi?
I gruppi spesso demonizzano gli avversari per rafforzare il controllo interno.
E se mi sento sotto pressione per donare denaro o dimostrare lealtà con gli acquisti?
Questa è una tattica manipolativa: il sostegno non dovrebbe essere misurato in base al portafoglio.
Come faccio a sapere se mi sto zittendo?
Se reprimi i dubbi per evitare reazioni negative, ti trovi in un ambiente controllato.
Perché mi sento costantemente indignato o ansioso online?
L'eccitazione emotiva ti mantiene coinvolto, ma può anche segnalare manipolazione.
E se mi accorgo di difendere i leader più dei valori?
Significa che la lealtà si è spostata dai principi alle personalità.
Gli influencer possono comportarsi come leader di una setta?
Sì: carisma, ripetitività ed esclusività possono rispecchiare le dinamiche di una setta.
Perché andarsene sembra un tradimento?
I gruppi spesso inquadrano il dissenso come slealtà per creare dipendenza.
E se noto un peggioramento della mia salute mentale?
Ansia, paranoia e senso di colpa spesso indicano un'influenza malsana.
Come faccio a verificare se sono coinvolto nel pensiero di gruppo?
Se il dissenso viene punito e il consenso sembra forzato, ci sei dentro.
E se non riesco a spiegare chiaramente le mie convinzioni senza slogan?
Questo suggerisce che stai facendo eco al linguaggio di gruppo invece che al pensiero indipendente.
Come faccio a sapere se sto ancora pensando in modo critico?
Chiediti: potrei spiegare la parte opposta in modo equo, anche se non sono d'accordo?
Lettura correlata:
Considerazioni finali: un percorso verso la consapevolezza
La manipolazione raramente sembra controllo, sembra appartenenza. Che si tratti di un piccolo gruppo o di una rete online, si riscontrano gli stessi schemi: isolamento, pressione al conformismo e un costante goccio di indignazione che tiene le persone agganciate.
Ma mentre tutti discutono di guerre culturali o battaglie politiche, i problemi più grandi rimangono: famiglie in difficoltà, costi sanitari in aumento, opportunità in calo. L'energia viene prosciugata in litigi infiniti, mentre da qualche parte, sullo sfondo, qualcuno trae vantaggio dalla nostra distrazione.
Questa è la silenziosa realtà: la divisione non è un incidente; è utile.
Quindi ecco la domanda più difficile: quando l'attenzione viene attirata dalla rabbia e dai test di lealtà, chi ci guadagna davvero e cosa perdiamo noi altri?
Fare un passo indietro non significa disimpegnarsi. Significa porre domande migliori, riconnettersi con persone al di là della bolla e notare quando una narrazione è progettata per suscitare emozioni piuttosto che risolvere problemi. Ogni volta che ci si ferma a riflettere, si recupera un po' di autonomia.
In fin dei conti, svegliarsi non significa solo sfuggire al controllo, ma rifiutarsi di lasciare che la propria attenzione, le proprie relazioni e il proprio futuro diventino strumenti nel gioco di qualcun altro.
Bibliografia
Allcott, H., Boxell, L., Conway, J., Gentzkow, M., Thaler, M., & Yang, D. (2020). Polarization and public health: Partisan differences in social distancing during the coronavirus pandemic. Journal of Public Economics, 191, Article 104254. https://doi.org/10.1016/j.jpubeco.2020.104254
American Psychological Association. (2023). Health advisory on social media use in adolescence. https://www.apa.org/topics/social-media-internet/health-advisory-adolescent-social-media-use
Bail, C. A., Argyle, L. P., Brown, T. W., Bumpus, J. P., Chen, H., Hunzaker, M. B. F., Lee, J., Mann, M., Merhout, F., & Volfovsky, A. (2018). Exposure to opposing views on social media can increase political polarization. Proceedings of the National Academy of Sciences, 115(37), 9216–9221. https://doi.org/10.1073/pnas.1804840115
Cinelli, M., De Francisci Morales, G., Galeazzi, A., Quattrociocchi, W., & Starnini, M. (2021). The echo chamber effect on social media. Proceedings of the National Academy of Sciences, 118(9), e2023301118. https://doi.org/10.1073/pnas.2023301118
Dey, D., Lahiri, A., & Mukherjee, R. (2024). Polarization or bias: Take your click on social media. Journal of the Association for Information Systems, 25(1), 1–25. https://doi.org/10.17705/1jais.00925
Gillespie, T. (2018). Custodians of the internet: Platforms, content moderation, and the hidden decisions that shape social media. Yale University Press. https://doi.org/10.12987/9780300235029
Habermas, J. (2015). The theory of communicative action: Vol. 1. Reason and the rationalization of society (T. McCarthy, Trans.). Polity Press. (Original work published 1981).
Hassan, S. (2018). Combating cult mind control: The #1 best-selling guide to protection, rescue, and recovery from destructive cults (30th anniversary ed.). Freedom of Mind Press. https://freedomofmind.com/book/combating-cult-mind-control/
Hosseinmardi, H., Ghasemian, A., Clauset, A., Pei, A., Lerman, K., & Clauset, A. (2021). Examining the consumption of radical content on YouTube. Proceedings of the National Academy of Sciences, 118(32), e2101967118. https://doi.org/10.1073/pnas.2101967118
Culture Wars: The Struggle to Define America. by James Davison Hunter. (1991). American Journal of Sociology.
Janis, I. L. (1972). Victims of groupthink: A psychological study of foreign-policy decisions and fiascoes. Houghton Mifflin. https://psycnet.apa.org/record/1975-29417-000
Jiang, J., Ren, X., Ferrara, E., & Lerman, K. (2021). Social media polarization and echo chambers in the context of COVID-19: Case study. JMIRx Med, 2(3), e29570. https://doi.org/10.2196/29570
Kahneman, D. (2011). Thinking, fast and slow. Farrar, Straus and Giroux. https://us.macmillan.com/books/9780374533557/thinkingfastandslow
Langone, M. D. (Ed.). (1995). Recovery from cults: Help for victims of psychological and spiritual abuse. W. W. Norton & Company.
Lifton, R. J. (1961). Thought reform and the psychology of totalism: A study of “brainwashing” in China. W. W. Norton & Company. https://psycnet.apa.org/record/1961-04801-000
Singer, M. T., & Lalich, J. (1995). Cults in our midst: The continuing fight against their hidden menace. Jossey-Bass. https://www.wiley.com/en-us/Cults+in+Our+Midst%3A+The+Continuing+Fight+Against+Their+Hidden+Menace%2C+2nd+Edition-p-9780787967413
Terren, L., & Borge-Bravo, R. (2021). Echo chambers on social media: A systematic review of the literature. Review of Communication Research, 9, 1–22. https://doi.org/10.12840/issn.2255-4165.028
Westen, D., Blagov, P. S., Harenski, K., Kilts, C., & Hamann, S. (2006). Neural bases of motivated reasoning: An fMRI study of emotional constraints on partisan political judgment in the 2004 U.S. presidential election. Journal of Cognitive Neuroscience, 18(11), 1947–1958. https://doi.org/10.1162/jocn.2006.18.11.1947


