Vai al contenuto

Gennaio 2025

Podcast RSI – Il finto Brad Pitt e la sua vittima messa alla gogna

Questo è il testo della puntata del 20 gennaio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Probabilmente avete già sentito la notizia della donna francese che ha inviato in totale oltre 800.000 euro a dei truffatori perché era convinta di essere in chat con Brad Pitt e di doverlo aiutare economicamente perché i conti del celeberrimo attore erano bloccati dalla causa legale con l’ex moglie, Angelina Jolie. Se l’avete sentita, probabilmente l’avete commentata criticando l’ingenuità della vittima. Molte persone sono andate oltre e hanno insultato e preso in giro la vittima pubblicamente sui social; lo ha fatto persino Netflix France. Una gogna mediatica rivolta esclusivamente alla persona truffata, senza spendere una parola sulla crudeltà infinita dei truffatori. Ed è stata tirata in ballo l’intelligenza artificiale, che però in realtà c’entra solo in parte.

Questa è la storia di un inganno che in realtà è ben più complesso e ricco di sfumature di quello che è stato diffusamente raccontato, e che permette di conoscere in dettaglio come operano i truffatori online e cosa succede nella mente di una persona che diventa bersaglio di questo genere di crimine.

Benvenuti alla puntata del 20 gennaio 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia a febbraio del 2023, quando Anne, una donna francese sposata con un facoltoso imprenditore, scarica Instagram perché vuole postare le foto di una sua vacanza nelle Alpi francesi. Viene contattata subito da qualcuno che dice di essere Jane Etta Pitt, la madre dell’attore Brad Pitt, che chatta con lei e le dice che sarebbe la persona giusta per suo figlio. Poco dopo la contatta online qualcuno che afferma di essere Brad Pitt in persona e chiede di conoscerla meglio. Soprattutto vuole sapere se Anne lavora per caso nei media, perché lui ci tiene molto a proteggere la sua vita privata.

Questo contatto insospettisce la donna, ma Anne non conosce i meccanismi dei social network. Non sa, per esempio, che i controlli di Instagram sulle identità degli utenti sono scarsissimi e che quindi il falso Brad Pitt e la sua altrettanto falsa madre sono liberi di agire praticamente indisturbati e di tentare la stessa truffa contemporaneamente con migliaia di persone. Una truffa complessa e articolata, che include fra i suoi espedienti la capacità dei criminali di passare mesi e mesi a circuire una vittima chattando amorevolmente con lei, perché nel frattempo ne stanno raggirando tante altre, in una sorta di catena di montaggio dell’inganno.

Fra questi espedienti ci sono anche trucchi come i finti regali. A un certo punto, il falso Brad Pitt scrive ad Anne, dicendo che ha tentato di inviarle dei regali di lusso ma che non ha potuto pagare la dogana perché i suoi conti correnti sono bloccati dalla causa di divorzio da Angelina Jolie. E così Anne invia ai truffatori 9000 euro. Il servizio attraverso il quale invia il denaro non la avvisa che questa transazione è sospetta.

Anne, invece, si insospettisce parecchie volte durante questo lungo corteggiamento online, ma ogni volta che le viene un dubbio, i truffatori riescono a farglielo passare, mandandole per esempio un falso documento d’identità dell’attore. La figlia di Anne cerca di avvisarla che si tratta di una truffa e tenta di ragionare con lei per oltre un anno, ma la donna è troppo coinvolta emotivamente in questa relazione a distanza. Anche perché questo falso Brad Pitt le ha chiesto di sposarlo, e lei ovviamente ha accettato una proposta così lusinghiera dopo aver divorziato dal marito.

I truffatori giocano anche la carta della compassione oltre a quella della seduzione e della lusinga. Scrivono ad Anne, fingendo sempre di essere Brad Pitt, e le dicono che l’attore ha bisogno di contanti per poter pagare le cure per il tumore al rene che lo ha colpito. Mandano ad Anne delle fotografie false che sembrano mostrare Brad Pitt ricoverato in ospedale. La donna è reduce da un tumore, e quindi i truffatori toccano un suo tasto emotivo particolarmente sensibile.

Anne cerca su Internet le foto di Brad Pitt ricoverato e non le trova, ma giustifica questa mancanza pensando che quelle fotografie siano confidenziali e siano dei selfie scattati specificamente per lei.

E così Anne invia ai criminali tutto il denaro che ha ottenuto dal divorzio, ossia 775.000 euro, convinta di contribuire a salvare la vita di una persona in gravi difficoltà. Anche qui, i servizi di trasferimento di denaro usati dalla vittima la lasciano agire senza bloccare la transazione, che dovrebbe essere già sospetta in partenza per il suo ammontare così elevato.

Quando i giornali che si occupano di gossip legato alle celebrità pubblicano immagini del vero Brad Pitt con la sua nuova compagna, Ines de Ramon, Anne si insospettisce di nuovo, ma i truffatori le mandano un falso servizio televisivo nel quale il conduttore (in realtà generato dall’intelligenza artificiale)* parla di un rapporto esclusivo con una persona speciale che va sotto il nome di Anne. Questo la rassicura per qualche tempo, ma poi Brad Pitt e Ines de Ramon annunciano ufficialmente il loro legame sentimentale. Siamo a giugno del 2024, e a questo punto Anne decide di troncare le comunicazioni.

* Dopo la chiusura del podcast sono riuscito a recuperare uno spezzone [YouTube, a 1:08] di questo servizio televisivo e ho scoperto che il conduttore sintetico è invece una conduttrice, perlomeno in base al suo aspetto.
Un fermo immagine dal finto servizio di telegiornale creato dai truffatori (C à Vous/YouTube).

Ma i truffatori insistono, spacciandosi stavolta per agenti speciali dell’FBI, e cercano di ottenere dalla donna altro denaro. Lei segnala la situazione alla polizia, e vengono avviate le indagini. Pochi giorni fa, Anne ha raccontato pubblicamente la propria vicenda sul canale televisivo francese TF1, per mettere in guardia altre potenziali vittime. E qui è cominciato un nuovo calvario.


Sui social network, infatti, centinaia di utenti cominciano a prenderla in giro. Uno dei più importanti programmi radiofonici mattutini francesi le dedica uno sketch satirico. Netflix France pubblica su X un post nel quale promuove quattro film con Brad Pitt, specificando fra parentesi che il servizio di streaming garantisce che si tratti di quello vero, con una chiara allusione alla vicenda di Anne. Il post è ancora online al momento in cui preparo questo podcast.

Screenshot del post di Netflix France su X.

La società calcistica Toulouse FC pubblica un post ancora più diretto, che dice “Ciao Anne, Brad ci ha detto che sarà allo stadio mercoledì, e tu?”. Il post è stato poi rimosso e la società sportiva si è scusata.

France 24 mostra il post del Toulouse FC.

TF1 ha tolto il servizio dedicato ad Anne dalla propria piattaforma di streaming dopo che la testimonianza della donna ha scatenato questa ondata di aggressioni verbali, ma il programma resta reperibile online qua e là. Anne, in un’intervista pubblicata su YouTube, ha dichiarato che TF1 ha omesso di precisare che lei aveva avuto dubbi, ripetutamente, e ha aggiunto che secondo lei qualunque persona potrebbe cadere nella complessa trappola dei truffatori se si sentisse dire quelle che lei descrive come “parole che non hai mai sentito da tuo marito.”

In altre parole, una donna che era in una situazione particolarmente vulnerabile è stata truffata non da dilettanti improvvisati ma da professionisti dell’inganno, disposti a manipolare pazientemente per mesi le loro vittime usando senza pietà le leve emotive più sensibili, ha deciso di raccontare pubblicamente la propria vicenda per mettere in guardia le altre donne, e ne ha ottenuto principalmente dileggio, scherno e derisione. Uno schema purtroppo molto familiare alle tante donne che scelgono di raccontare abusi di altro genere di cui sono state vittime e di cui la gogna mediatica le rende vittime due volte invece di assisterle e sostenerle.

In questa vicenda, oltretutto, non sono solo gli utenti comuni a postare sui social network commenti odiosi: lo fanno anche professionisti dell’informazione, che in teoria dovrebbero sapere benissimo che fare satira su questi argomenti è un autogol di comunicazione assoluto e imperdonabile.

Mentre abbondano i commenti che criticano Anne, scarseggiano invece quelli che dovrebbero far notare il ruolo facilitatore di queste truffe dei social network e dei sistemi di pagamento. Questi falsi account che si spacciano per Brad Pitt (usando in questo caso specifico parte del nome completo dell’attore, ossia William Bradley Pitt) sono alla luce del sole. Dovrebbero essere facilmente identificabili da Meta, un’azienda che investe cifre enormi nell’uso dell’intelligenza artificiale per monitorare i comportamenti dei propri utenti a scopo di tracciamento pubblicitario eppure non sembra in grado di usarla per analizzare le conversazioni sulle sue piattaforme e notare quelle a rischio o rilevare gli account che pubblicano foto sotto copyright.

Basta infatti una banale ricerca in Google per trovare falsi account a nome di Brad Pitt, che hanno migliaia di follower, pubblicano foto dell’attore di cui chiaramente non hanno i diritti ed esistono in alcuni casi da anni, come per esempio @william_bradley_pitt767, creato a febbraio del 2021 e basato in Myanmar. E lo stesso vale per moltissime altre celebrità. Queste truffe, insomma, prosperano grazie anche all’indifferenza dei social network.

Uno dei tanti account falsi a nome di Brad Pitt su Instagram.
Informazioni sul falso account.

C’è anche un altro aspetto di questa vicenda che è stato raccontato in maniera poco chiara da molte testate giornalistiche: l’uso dell’intelligenza artificiale per generare le foto di Brad Pitt ricoverato. Quelle foto sono in realtà dei fotomontaggi digitali tradizionali, e lo si capisce perché anche il più scadente software di generazione di immagini tramite intelligenza artificiale produce risultati di gran lunga più coerenti, nitidi e dettagliati rispetto alle foto d’ospedale ricevute da Anne.

Fonte: X.com/CultureCrave.

L’intelligenza artificiale è stata sì usata dai criminali, ma non per quelle foto. È stata usata per creare dei videomessaggi dedicati ad Anne, nei quali un finto Brad Pitt si rivolge direttamente alla donna, le confida informazioni personali chiedendole di non condividerle, muovendosi e parlando in modo naturale.

France24 mostra uno dei videomessaggi falsi creati dai truffatori animando il volto di Brad Pitt.

Questi video sono nettamente più credibili rispetto alle false foto del ricovero che circolano sui social media in relazione a questa vicenda; sono forse riconoscibili come deepfake da parte di chi ha un occhio allenato, ma chi come Anne si è affacciato da poco ai social network non ha questo tipo di sensibilità nel rilevare gli indicatori di falsificazione, e non tutti sanno che esistono i deepfake. Mostrare solo quei fotomontaggi, senza includere i video, significa far sembrare Anne molto più vulnerabile di quanto lo sia stata realmente.

La qualità delle immagini sintetiche migliora in continuazione, ma per il momento può essere utile cercare alcuni elementi rivelatori. Conviene per esempio guardare la coerenza dei dettagli di contorno dell’immagine, come per esempio la forma e la posizione delle dita oppure la coerenza delle scritte presenti sugli oggetti raffigurati. Un altro indicatore è lo stile molto patinato delle immagini sintetiche, anche se i software più recenti cominciano a essere in grado di generare anche foto apparentemente sottoesposte, mosse o dilettantesche. Si può anche provare una ricerca per immagini, per vedere se una certa foto è stata pubblicata altrove. Inoltre la ricerca per immagini permette spesso di scoprire la fonte originale della foto in esame e quindi capire se ha un’origine autorevole e affidabile. E ovviamente l’indicatore più forte è il buon senso: è davvero plausibile che un attore popolarissimo vada sui social network a cercare conforto sentimentale?

Fra l’altro, nel caso specifico di Brad Pitt il suo portavoce ha ribadito che l’attore non ha alcuna presenza nei social. In altre parole, tutti i “Brad Pitt” che trovate online sono degli impostori.

In coda a questa vicenda amara c’è però un piccolo dettaglio positivo: il racconto pubblico di questo episodio è diventato virale in tutto il mondo, per cui si può sperare che molte vittime potenziali siano state allertate grazie al coraggio di Anne nel raccontare quello che le è successo. E va ricordato che a settembre 2024 in Spagna sono state arrestate cinque persone durante le indagini su un’organizzazione criminale che aveva truffato due donne spacciandosi proprio per Brad Pitt, ottenendo dalle vittime ben 350.000 dollari.

Non sempre i truffatori la fanno franca, insomma, e se gli utenti diventano più consapevoli e attenti grazie al fatto che questi pericoli vengono segnalati in maniera ben visibile dai media, le vittime di questi raggiri crudeli diminuiranno. Più se ne parla, anche in famiglia, e meglio è.

Fonti

Brad Pitt’s team reminds fans he’s not on social media after a woman gets big-time scammed, LA Times

Brad Pitt AI scam: Top tips on how to spot AI images, BBC

French Woman Faces Cyberbullying After Forking Over $850,000 to AI Brad Pitt, Rollingstone.com

AI Brad Pitt dupes French woman out of €830,000, BBC

French TV show pulled after ridicule of woman who fell for AI Brad Pitt, The Guardian

French Woman Scammed Out Of $850k By Fake ‘Brad Pitt’—And The AI Photos Are Something Else, Comic Sands

How an AI Brad Pitt conned a woman out of €830,000, triggering online mockery, France 24 su YouTube

Une femme arnaquée par un faux Brad Pitt – La Story – C à Vous, YouTube (include approfondimenti, spezzoni del finto servizio televisivo, il commento dell’avvocato della vittima sulle responsabilità delle banche che hanno effettuato i trasferimenti di denaro)

Disponibile subito “Niente panico, per ora”, l’autobiografia di Fred Haise (Apollo 13), su carta ed e-book. Ne parliamo a Sci-Fi Universe il 18 e 19 gennaio

L’editore Cartabianca Publishing ha appena pubblicato un‘altra autobiografia di un astronauta lunare: stavolta il protagonista è Fred Haise, che molti conoscono come uno degli astronauti della drammatica missione Apollo 13 che rischiò di concludersi tragicamente dopo uno scoppio avvenuto durante il viaggio verso la Luna.

Ma Haise racconta una storia ben più ricca, che include le sue numerosissime esperienze di pilota collaudatore, le sue reazioni all’occasione mancata di camminare sulla Luna, il terribile incidente aereo che quasi gli costò la vita e i voli di collaudo atmosferico dello Space Shuttle. Con grande gioia dei fan di Star Trek, lui è infatti stato comandante dell’Enterprise, il primo esemplare dello Shuttle.

La sua è una vita intensa, ricca di eventi che lo hanno consegnato alla Storia con la S maiuscola, e Haise si racconta con lucidità e precisione.

Niente panico, per ora (Never Panic Early in originale) è stato tradotto da Diego Meozzi con il supporto di esperti e con la mia revisione tecnica: è disponibile subito come e-book (universale, per Kindle o per dispositivi Apple) a 9,99 euro e su carta (228 pagine, 70 foto) a 20 euro.

Il libro verrà presentato e sarà acquistabile alla convention di fantascienza, astronomia e astrofisica Sci-Fi Universe, al Parc Hotel di Peschiera del Garda (VR), il 18 e 19 gennaio, e io avrò il piacere di condurre l’incontro con Cartabianca Publishing alle 14.45 di sabato 18 (tenete d’occhio il programma per eventuali variazioni). Ci vediamo là?

Podcast RSI – Davvero la scienza dice che “il fact-checking non funziona”?

Questo è il testo della puntata del 13 gennaio 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.


Pochi giorni fa Meta ha annunciato che chiuderà il proprio programma di fact-checking gestito tramite esperti esterni e lo sostituirà con le cosiddette Community notes, ossia delle annotazioni redatte dagli stessi utenti dei suoi social network, come ha già fatto la piattaforma concorrente X di Elon Musk.

Questa decisione, che per citare un titolo del Corriere della Sera è stata vista come una “resa definitiva a Trump (e Musk)”, ha rianimato la discussione su come contrastare la disinformazione. Walter Quattrociocchi, professore ordinario dell’Università La Sapienza di Roma, ha dichiarato che “Il fact-checking è stato un fallimento, ma nessuno vuole dirlo”, aggiungendo che “[l]a comunità scientifica lo aveva già dimostrato”. Queste sono sue parole in un articolo a sua firma pubblicato sullo stesso Corriere.

Detta così, sembra una dichiarazione di resa incondizionata della realtà, travolta e sostituita dai cosiddetti “fatti alternativi” e dai deliri cospirazionisti. Sembra un’ammissione che non ci sia nulla che si possa fare per contrastare la marea montante di notizie false, di immagini fabbricate con l’intelligenza artificiale, di propaganda alimentata da interessi economici o politici, di tesi di complotto sempre più bizzarre su ogni possibile argomento. I fatti hanno perso e le fandonie hanno vinto.

Se mi concedete di portare per un momento la questione sul piano personale, sembra insomma che la scienza dica che il mio lavoro di “cacciatore di bufale” sia una inutile perdita di tempo, e più in generale lo sia anche quello dei miei tanti colleghi che fanno debunking, ossia verificano le affermazioni che circolano sui social network e nei media in generale e le confermano o smentiscono sulla base dei fatti accertati.

È veramente così? Difendere i fatti è davvero fatica sprecata? Ragioniamoci su in questa puntata, datata 13 gennaio 2025, del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Nel suo annuncio pubblico, Mark Zuckerberg ha spiegato che il programma di fact-checking lanciato nel 2016 dalla sua piattaforma e basato su organizzazioni indipendenti specializzate in verifica dei fatti voleva dare agli utenti “più informazioni su quello che vedono online, in particolare sulle notizie false virali, in modo che potessero giudicare da soli quello che vedevano e leggevano”, scrive Zuckerberg.

Ma a suo dire questo approccio non ha funzionato perché anche gli esperti, dice, “come tutte le persone, hanno i propri pregiudizi e i propri punti di vista”, e quindi è giunto il momento di sostituire gli esperti esterni con gli utenti dei social network. Saranno loro, dice Zuckerberg, a “decidere quando i post sono potenzialmente ingannevoli e richiedono più contesto”, e saranno “persone che hanno una vasta gamma di punti di vista” a “decidere quale tipo di contesto è utile che gli altri utenti vedano”.

Zuckerberg non spiega, però, in che modo affidare la valutazione delle notizie agli utenti farà magicamente azzerare quei pregiudizi e quei punti di vista di cui parlava. In fin dei conti, gli utenti valutatori saranno un gruppo che si autoselezionerà invece di essere scelto in base a criteri di competenza. Anzi, l’autoselezione è già cominciata, perché Zuckerberg ha già pubblicato i link per iscriversi alla lista d’attesa per diventare valutatori su Facebook, Instagram e Threads. Mi sono iscritto anch’io per vedere dall’interno come funzionerà questa novità e raccontarvela.

Invece le Linee guida della community, ossia le regole di comportamento degli utenti di Meta, sono già state riscritte per togliere molte restrizioni sui discorsi d’odio, aggiungendo specificamente che dal 7 gennaio scorso sono consentite per esempio le accuse di malattia mentale o anormalità basate sul genere o l’orientamento sessuale* ed è accettabile paragonare le donne a oggetti e le persone di colore ad attrezzi agricoli oppure negare l’esistenza di una categoria di persone o chiedere l’espulsione di certi gruppi di individui.**

* Il 10 gennaio, Meta ha eliminato da Messenger i temi Pride e Non-Binary che aveva introdotto con così tanta enfasi rispettivamente 2021 e nel 2022 [404 media; Platformer.news]. Intanto Mark Lemley, avvocato per le questioni di copyright e intelligenza artificiale di Meta, ha troncato i rapporti con l’azienda, scrivendo su LinkedIn che Zuckerberg e Facebook sono in preda a “mascolinità tossica e pazzia neonazista”.

** Confesso che nel preparare il testo di questo podcast non sono riuscito a trovare parole giornalisticamente equilibrate per definire lo squallore infinito di un‘azienda che decide intenzionalmente di riscrivere le proprie regole per consentire queste specifiche forme di odio. E così ho contenuto sia il conato che la rabbia, e ho deciso di lasciare che le parole di Meta parlassero da sole.

Un’altra novità importante è che Meta smetterà di ridurre la visibilità dei contenuti sottoposti a verifica e gli utenti, invece di trovarsi di fronte a un avviso a tutto schermo che copre i post a rischio di fandonia, vedranno soltanto “un’etichetta molto meno invadente che indica che sono disponibili ulteriori informazioni per chi le vuole leggere”. In altre parole, sarà più facile ignorare gli avvertimenti.

Insomma, è un po’ come se una compagnia aerea decidesse che tutto sommato è inutile avere dei piloti addestrati e competenti ed è invece molto meglio lasciare che siano i passeggeri a discutere tra loro, insultandosi ferocemente, su come pilotare, quando tirare su il carrello o farlo scendere, quanto carburante imbarcare e cosa fare se l’aereo sta volando dritto verso una montagna. Ed è un po’ come se decidesse che è più saggio che gli irritanti allarmi di collisione vengano sostituiti da una voce sommessa che dice “secondo alcuni passeggeri stiamo precipitando, secondo altri no, comunque tocca lo schermo per ignorare tutta la discussione e guardare un video di tenerissimi gattini.

Va sottolineato che queste scelte di Meta riguardano per ora gli Stati Uniti e non si applicano in Europa, dove le leggi* impongono ai social network degli obblighi di moderazione e di mitigazione della disinformazione e dei discorsi d’odio.

*  In particolare il Digital Services Act o DSA, nota Martina Pennisi sul Corriere.

Ma una cosa è certa: questa nuova soluzione costerà molto meno a Meta. I valutatori indipendenti vanno pagati (lo so perché sono stato uno di loro per diversi anni), mentre gli utenti che scriveranno le Note della comunità lo faranno gratis. Cosa mai potrebbe andare storto?


Ma forse Mark Zuckerberg tutto sommato ha ragione, perché è inutile investire in verifiche dei fatti perché tanto “il fact-checking non funziona,” come scrive appunto il professor Quattrociocchi, persona che conosco dai tempi in cui abbiamo fatto parte dei numerosi consulenti convocati dalla Camera dei Deputati italiana sul problema delle fake news.

In effetti Quattrociocchi presenta dei dati molto rigorosi, contenuti in un articolo scientifico di cui è coautore, intitolato Debunking in a world of tribes, che si basa proprio sulle dinamiche sociali analizzate dettagliatamente su Facebook fra il 2010 e il 2014. Questo articolo e altri indicano che “il fact-checking, lungi dall’essere una soluzione, spesso peggiora le cose” [Corriere] perché crea delle casse di risonanza o echo chamber, per cui ogni gruppo rimane della propria opinione e anzi si polarizza ancora di più: se vengono esposti a un fact-checking, i complottisti non cambiano idea ma anzi tipicamente diventano ancora più complottisti, mentre chi ha una visione più scientifica delle cose è refrattario anche a qualunque minima giusta correzione che tocchi le sue idee.

Ma allora fare il mio lavoro di cacciatore di bufale è una perdita di tempo e anzi fa più male che bene? Devo smettere, per il bene dell’umanità, perché la scienza dice che noi debunker facciamo solo danni?

Dai toni molto vivaci usati dal professor Quattrociocchi si direbbe proprio di sì. Frasi come “nonostante queste evidenze, milioni di dollari sono stati spesi in soluzioni che chiunque con un minimo di onestà intellettuale avrebbe riconosciuto come fallimentari” sono facilmente interpretabili in questo senso. Ma bisogna fare attenzione a cosa intende esattamente il professore con “fact-checking”: lui parla specificamente di situazioni [nel podcast dico “soluzioni” – errore mio, che per ragioni tecniche non posso correggere] in cui il debunker, quello che vorrebbe smentire le falsità presentando i fatti, va a scrivere quei fatti nei gruppi social dedicati alle varie tesi di complotto. In pratica, è come andare in casa dei terrapiattisti a dire loro che hanno tutti torto e che la Terra è una sfera: non ha senso aspettarsi che questo approccio abbia successo e si venga accolti a braccia aperte come portatori di luce e conoscenza.

Anche senza il conforto dei numeri e dei dati raccolti da Quattrociocchi e dai suoi colleghi, è piuttosto ovvio che un fact-checking del genere non può che fallire: tanto varrebbe aspettarsi che andare a un derby, sedersi tra i tifosi della squadra avversaria e tessere le lodi della propria squadra convinca tutti a cambiare squadra del cuore. Ma il fact-checking non consiste soltanto nell’andare dai complottisti; anzi, i debunker evitano accuratamente questo approccio.

Il fact-checking, infatti, non si fa per chi è già parte di uno schieramento o dell’altro. Si fa per chi è ancora indeciso e vuole informarsi, per poi prendere una posizione, e in questo caso non è affatto inutile, perché fornisce le basi fattuali che rendono perlomeno possibile una decisione razionale.

Del resto, lo stesso articolo scientifico del professor Quattrociocchi, e il suo commento sul Corriere della Sera, sono in fin dei conti due esempi di fact-checking: su una piattaforma pubblica presentano i dati di fatto su un tema e li usano per smentire una credenza molto diffusa. Se tutto il fact-checking fosse inutile, se davvero presentare i fatti non servisse a nulla e fosse anzi controproducente, allora sarebbero inutili, o addirittura pericolosi, anche gli articoli del professore.


Resta la questione delle soluzioni al problema sempre più evidente dei danni causati dalla disinformazione e dalla malinformazione circolante sui social e anzi incoraggiata e diffusa anche da alcuni proprietari di questi social, come Elon Musk.

Il professor Quattrociocchi scrive che “L’unico antidoto possibile, e lo abbiamo visto chiaramente, è rendere gli utenti consapevoli di come interagiamo sui social.” Parole assolutamente condivisibili, con un piccolo problema: non spiegano come concretamente arrivare a rendere consapevoli gli utenti di come funzionano realmente i social network.

Sono ormai più di vent’anni che esistono i social network, e finora i tentativi di creare questa consapevolezza si sono tutti arenati. Non sono bastati casi clamorosi come quelli di Cambridge Analytica; non è bastata la coraggiosa denuncia pubblica, nel 2021, da parte di Frances Haugen, data scientist di Facebook, del fatto che indignazione e odio sono i sentimenti che alimentano maggiormente il traffico dei social e quindi i profitti di Meta e di tutti i social network. Come dice anche il professor Quattrociocchi insieme a numerosi altri esperti, “[s]i parla di fake news come se fossero il problema principale, ignorando completamente che è il modello di business delle piattaforme a creare le condizioni per cui la disinformazione prospera.”

La soluzione, insomma, ci sarebbe, ma è troppo radicale per gran parte delle persone: smettere di usare i social network, perlomeno quelli commerciali, dove qualcuno controlla chi è più visibile e chi no e decide cosa vediamo e ha convenienza a soffiare sul fuoco della disinformazione. Le alternative prive di controlli centrali non mancano, come per esempio Mastodon al posto di Threads, X o Bluesky, e Pixelfed al posto di Instagram, ma cambiare social network significa perdere i contatti con i propri amici se non migrano anche loro, e quindi nonostante tutto si finisce per restare dove si è, turandosi il naso. Fino al momento in cui non si sopporta più: il 20 gennaio, per esempio, è la data prevista per #Xodus, l’uscita in massa da X da parte di politici, organizzazioni ambientaliste, giornalisti* e utenti di ogni genere.

* La Federazione Europea dei Giornalisti (European Federation of Journalists, EFJ), la più grande organizzazione di giornalisti in Europa, che rappresenta oltre 295.000 giornalisti, ha annunciato che non pubblicherà più nulla su X dal 20 gennaio 2025: “Come molte testate europee (The Guardian, Dagens Nyheter, La Vanguardia, Ouest-France, Sud-Ouest, ecc.) and e organizzazioni di giornalisti, come l’Associazione dei Giornalisti Tedeschi (DJV), la EFJ ritiene di non poter più partecipare eticamente a un social network che è stato trasformato dal suo proprietario in una macchina di disinformazione e propaganda.”

Funzionerà? Lo vedremo molto presto.

Aggiornamento (2025/01/20)

Il quotidiano francese Le Monde ha annunciato di aver interrotto la condivisione dei propri contenuti su X, dove ha 11,1 milioni di follower.

Niente Panico RSI – Puntata del 2025/01/13

Di questa puntata, andata in onda in diretta il 13 gennaio dalle 9 alle 10 come consueto, non è disponibile la registrazione. Questi sono i suoi temi:

  • Anniversario del debutto a fumetti del personaggio di Topolino (Mickey Mouse) nel 1933, nel Mickey Mouse Magazine.
  • Character.ai, un sito che propone conversazioni con personaggi virtuali generati dall’intelligenza artificiale, è accusato negli Stati Uniti di aver incoraggiato un minore a suicidarsi e di aver suggerito a un altro minore di uccidere i propri genitori (CBS News), mentre nel Regno Unito suscita scalpore e indignazione la scoperta che include fra i propri personaggi dei minori realmente esistiti che si sono tolti la vita o sono stati uccisi (BBC News).
  • Come indagare sull’attendibilità di un sito, in questo caso Kidscasting.com, che sembra occuparsi di trovare lavoro nel mondo del cinema e della TV per attori bambini (https://www.instagram.com/kidscastingcom).
  • Le case londinesi che sono in realtà soltanto facciate finte: stanno a Bayswater, sono state “create” dalla costruzione della metropolitana a cielo aperto a metà dell’Ottocento, e sono state usate in alcune scene della serie TV Sherlock.
  • Per la AI-intervista impossibile, Emile Zola e il suo celebre “J’accuse”.

Niente Panico RSI – Puntata del 2025/01/07

È andata in onda stamattina alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la raccolta completa delle puntate è presso Attivissimo.me/np.