Vai al contenuto

Niente Panico RSI – Puntata del 2024/09/30

Stamattina è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile qui oppure nell’embed qui sotto. Le puntate vengono pubblicate a questo link:

https://www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina

I temi della puntata

L’account Instagram della settimana: Jan Hakon Erichsen (@janerichsen), 797.000 follower, è un artista norvegese che si è fatto notare per le sue esibizioni surreali e virali, che pubblica su Instagram dal 2017. Usa oggetti quotidiani come cibo, palloncini e strumenti meccanici per creare scene di distruzione comica e assurda o situazioni totalmente bizzarre come il Banana Tapper (The Guardian).

La donna dimenticata (e ora ricordata) dalla scienza: Rosalind Franklin, chimica britannica (1920-1958) ed esperta di cristallografia, che ebbe un ruolo chiave, non riconosciuto all’epoca, nella realizzazione dell’immagine (diffrattogramma a raggi X) che permise di identificare la forma del DNA, scoperta che valse il Nobel per la medicina a Watson, Crick e Wilkins nel 1962 (ma non a lei, anche perché le regole del premio all’epoca non consentivano i riconoscimenti postumi e lei era morta a soli 37 anni nel 1958). Oggi il suo nome verrà ricordato usandolo per la sonda mobile robotica (rover) Exomars che dovrebbe partire per Marte nel 2028.

Origine del termine robotrix: dovrebbe essere una pubblicazione del 1933, Science Fiction Digest di Forrest Ackerman, in riferimento al film Metropolis di Fritz Lang, secondo SFdictionary.

L’intervista impossibile: Victoria Braithwaite (1967-2019), nota per aver dimostrato scientificamente che i pesci provano dolore, cambiando radicalmente il modo in cui consideriamo questi esseri viventi; la ricordiamo nell’anniversario della sua scomparsa.

Cosa fare in caso di hacking o furto di un account Instagram: prima di tutto si deve fare prevenzione, con l’autenticazione a due fattori e l’attivazione di un account a pagamento, che ha diritto all’assistenza tecnica. Se il disastro è già successo, si può tentare il negoziato con il ladro dell’account.

Auto connesse “hackerabili” via Internet: problema risolto, ma i dettagli sono preoccupanti in termini di fragilità dei sistemi di gestione (Samcurry.net). Ne parlerò nel prossimo podcast de Il Disinformatico.

Abbandono di X, ne abbiamo parlato alla RSI

Stamattina sono stato ospite di Millevoci sulla Rete Uno (radio) della Radiotelevisione Svizzera per parlare della situazione di X (l’ex Twitter) e del suo potere mediatico alla vigilia delle elezioni presidenziali statunitensi, partendo dalla mia decisione di smettere definitivamente di usare X. Ho partecipato al programma insieme a Isabella Visetti, Nicola Colotti e Neva Petralli.

La registrazione è disponibile online qui e nell’embed qui sotto.

Il calo degli utenti di X che ho citato durante la trasmissione è tratto da questo articolo di NBC News di marzo 2024. A febbraio di quest’anno, secondo i rilevamenti di Sensor Tower, X aveva negli Stati Uniti 27 milioni di utenti giornalieri della sua app per dispositivi mobili. L’andamento è piatto o in calo da novembre 2022, quando Musk ha acquisito Twitter, e il calo complessivo in USA ammonta al 23%.

A livello mondiale, gli utenti sono calati del 15% rispetto a febbraio 2023, scendendo a 174 milioni. X dichiara invece di avere 250 milioni di utenti giornalieri nel mondo; anche così, sono in leggero calo rispetto ai 258 milioni al momento dell’acquisto da parte di Musk.


Per quel che riguarda la mia vicenda personale su X, l’articolo in cui annuncio la mia uscita da X che viene citato nella trasmissione è questo, del 14 settembre scorso.

Sto lentamente defollowando a mano gli oltre 700 account Twitter che seguivo (se vi seguivo e avete notato il mio defollow, non ce l’ho con voi, sto smettendo di seguire tutti su X).

I miei follower su X (a questo punto inutili) sono fermi a 411.002. Quelli su Threads sono 4325; quelli su Instagram sono 5871; quelli su Mastodon sono circa 11.000.

Niente Panico RSI – Puntata del 2024/09/23

Stamattina è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi sulla Rete Tre della Radiotelevisione Svizzera.

La puntata è riascoltabile qui oppure nell’embed qui sotto. Le puntate vengono pubblicate a questo link:

I temi della puntata

L’account Instagram della settimana: @combophoto.

La bufala della settimana: il falso allarme per il tonno radioattivo (da Bufale.net).

Intelligenza artificiale e musica: Suno lancia la funzione Covers per ricreare le canzoni usando vari stili “un po’ come applicare un filtro a una foto” e usabile anche partendo da “un canto amatoriale sotto la doccia […] Per i musicisti e i produttori, Covers offre un’opportunità unica di sperimentare diversi arrangiamenti e stili senza perdere tempo” (Punto Informatico).

Prova pratica di Suno: ho creato un account gratuito, ho immesso il prompt “una canzone pop dedicata a due conduttori radiofonici, Rosy e Paolo, che portano informazione e allegria”, in italiano, e Suno mi ha generato questo brano, che è quello che abbiamo anche trasmesso in diretta, e anche questa versione alternativa un po’ meno brillante.

Sottolineo che tutto quello che sentite è stato generato pari pari dall’intelligenza artificiale di Suno, senza alcun mio intervento di rifinitura: il testo (in italiano e in rima), la voce del cantante, la melodia e gli strumenti.

L’intervista impossibile: Abbiamo ricordato l’anniversario della nascita di Ray Charles (23 settembre 1930). A titolo dimostrativo, anche qui tutto è stato creato pari pari dall’IA.

Per prima cosa ho chiesto a ChatGPT “leggi questa biografia di Ray Charles https://it.wikipedia.org/wiki/Ray_Charles e prepara quattro domande vivaci e intelligenti per un’intervista a Ray Charles come se fosse ancora vivo”.

La risposta di ChatGPT:

Ecco quattro domande vivaci e intelligenti per un’intervista a Ray Charles:

Ray, sei stato un pioniere nel fondere gospel, jazz e blues, creando il soul. Come hai trovato il coraggio di rompere le regole musicali e inventare un suono così unico?

Dopo la perdita della vista, la musica è diventata la tua vera visione. In che modo questa esperienza ha cambiato il tuo modo di sentire e interpretare la musica?

“Georgia on My Mind” è uno dei tuoi brani più amati. Cosa rappresenta per te questo pezzo e perché pensi abbia toccato così tante persone?

Hai affrontato momenti difficili, inclusa la dipendenza. Qual è stato il momento in cui hai sentito di poter riprendere il controllo della tua vita e della tua carriera?

Solitamente per queste “interviste” usiamo Character.ai, che però non ha un profilo già pronto dedicato a Ray Charles, per cui ho chiesto a ChatGPT di generare anche le presunte risposte, dandogli l’istruzione “Usando le informazioni che hai su Ray Charles, crea le risposte a queste domande”.

ChatGPT ha risposto così:

Ecco delle risposte immaginate da Ray Charles alle tue domande:

Ray, sei stato un pioniere nel fondere gospel, jazz e blues. Come hai trovato il coraggio di rompere le regole musicali e creare un suono così unico? “Ho sempre seguito il mio cuore. La musica è una cosa viva, non puoi rinchiuderla in scatole. Venivo da una tradizione di gospel, ma il blues e il jazz mi parlavano, così ho combinato tutto. Non era pianificato, era solo quello che sentivo.”

Dopo la perdita della vista, la musica è diventata la tua vera visione. In che modo questa esperienza ha cambiato il tuo modo di sentire e interpretare la musica? “Perdere la vista mi ha fatto ascoltare il mondo in un modo completamente nuovo. Ogni nota, ogni ritmo aveva un significato più profondo. La musica è diventata il mio modo di vedere, di comunicare e di esprimere le emozioni che non potevo vedere ma che sentivo dentro di me.”

“Georgia on My Mind” è uno dei tuoi brani più amati. Cosa rappresenta per te questo pezzo e perché pensi abbia toccato così tante persone? “Georgia è più di una canzone per me, è come tornare a casa, dove ho iniziato tutto. Credo che tocchi le persone perché parla di nostalgia, di affetto per le proprie radici. Chiunque può connettersi con quel sentimento.”

Hai affrontato momenti difficili, inclusa la dipendenza. Qual è stato il momento in cui hai sentito di poter riprendere il controllo della tua vita e della tua carriera? “Il momento più difficile è stato rendermi conto che la dipendenza mi stava portando via tutto, ma la musica mi ha sempre dato una ragione per lottare. Quando ho capito che avevo ancora tanto da dare, è stato lì che ho deciso di riprendere il controllo, per me stesso e per la mia musica.”

Ho poi preso questi testi e li ho fatti leggere a une delle voci di ElevenLabs.io. La cosa che mi inquieta è che le domande sono dannatamente pertinenti e probabilmente migliori di quelle che sarebbero venute in mente a me.

Podcast RSI – No, i telefonini non esplodono spontaneamente

Un frammento di uno dei cercapersone esplosi. Fonte: Al Jazeera.

Ultimo aggiornamento: 2024/09/22 19:00.

Questo è il testo della puntata del 20 settembre 2024 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS.

Il podcast si prenderà una pausa la settimana prossima e tornerà il 4 ottobre.


[CLIP: audio di esplosione e di panico]

Migliaia di dispositivi elettronici sono esplosi improvvisamente nel corso di due giorni in Libano e in Siria, uccidendo decine di persone e ferendone almeno tremila. Inizialmente si è sparsa la voce che si trattasse di un “attacco hacker”, come hanno scritto anche alcune testate giornalistiche [Il Fatto Quotidiano], facendo pensare a un’azione puramente informatica in grado di colpire teoricamente qualunque dispositivo ovunque nel mondo facendone esplodere la batteria attraverso un particolare comando inviato via radio o via Internet.

Non è così, ma resta il dubbio legittimo: sarebbe possibile un attacco del genere?

Questa è la storia di una tecnica di aggressione chiamata supply chain attack, che in questi giorni si è manifestata in maniera terribilmente cruenta ma è usata da tempo da criminali e governi per mettere a segno sabotaggi, estorsioni e operazioni di sorveglianza.

Benvenuti alla puntata del 20 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Il 17 settembre scorso il Libano e la Siria sono stati scossi dalle esplosioni quasi simultanee di migliaia di cercapersone, che hanno ucciso decine di persone e ne hanno ferite oltre duemila. Il giorno successivo sono esplosi centinaia di walkie-talkie, causando la morte di almeno altre venti persone e il ferimento di alcune centinaia.

Queste due raffiche di esplosioni hanno seminato il panico e la confusione nella popolazione locale, presa dal timore che qualunque dispositivo elettronico dotato di batteria, dal computer portatile alle fotocamere allo smartphone, potesse esplodere improvvisamente. Sui social network si è diffusa la diceria che stessero esplodendo anche gli impianti a pannelli solari, le normali radio e le batterie delle automobili a carburante, ma non c’è stata alcuna conferma [BBC]. All’aeroporto di Beirut è scattato il divieto di portare a bordo degli aerei qualunque walkie-talkie o cercapersone [BBC].

Nelle ore successive è emerso che non si è trattato di un “attacco hacker” in senso stretto: non è bastato che qualcuno mandasse un comando a un dispositivo per innescare l’esplosione della sua batteria. I cercapersone e i walkie-talkie esplosi erano stati sabotati fisicamente, introducendo al loro interno delle piccole ma micidiali cariche esplosive, successivamente fatte detonare inviando un comando via radio, con l’intento di colpire i membri di Hezbollah che usavano questi dispositivi.

In altre parole, non c’è nessun pericolo che qualcuno possa far esplodere un telefonino, un rasoio elettrico, una fotocamera, uno spazzolino da denti elettronico, un computer portatile, delle cuffie wireless, un tablet, un’automobile elettrica o qualunque altro dispositivo dotato di batteria semplicemente inviandogli un comando o un segnale particolare o infettandolo con un’app ostile di qualche tipo. Per questo genere di attacco, il dispositivo deve essere stato modificato fisicamente e appositamente.

È importante però non confondere esplosione con incendio. Le batterie dei dispositivi elettronici possono in effetti incendiarsi se vengono danneggiate o caricate in modo scorretto. Ma gli eventi tragici di questi giorni non hanno affatto le caratteristiche di una batteria che prende fuoco, perché le esplosioni sono state improvvise e violente, delle vere e proprie detonazioni tipiche di una reazione chimica estremamente rapida, mentre l’incendio di una batteria è un fenomeno veloce ma non istantaneo, che rilascia molta energia termica ma lo fa in modo graduale, non di colpo.

Cosa più importante, non esiste alcun modo per innescare l’incendio di una batteria di un normale dispositivo attraverso ipotetiche app o ipotetici comandi ostili. Anche immaginando un malware capace di alterare il funzionamento del caricabatterie o dei circuiti di gestione della carica e scarica della batteria, la batteria stessa normalmente ha delle protezioni fisiche contro la scarica improvvisa o la carica eccessiva. Chi si è preoccupato all’idea che degli hacker sarebbero capaci di trasformare i telefonini in bombe con un semplice comando può insomma tranquillizzarsi, soprattutto se si trova lontano dalle situazioni di conflitto.

C’è però da capire come sia stato possibile un sabotaggio così sofisticato, e in questo senso l’informatica ci può dare una mano, perché non è la prima volta che si verifica quello che in gergo si chiama un supply chain attack, o attacco alla catena di approvvigionamento, anche se quella di questi giorni è una sua forma particolarmente cruenta.


Un supply chain attack è un attacco, fisico o informatico, a un elemento della catena di approvvigionamento di un avversario. Invece di attaccare i carri armati del nemico, per esempio, si colpiscono i loro depositi di carburante o le loro fabbriche di componenti. In campo informatico, invece di attaccare direttamente l’azienda bersaglio, che è troppo ben difesa, si prende di mira un suo fornitore meno attento alla sicurezza e lo si usa come cavallo di Troia per aggirare le difese entrando dall’accesso riservato ai fornitori, per così dire. Anzi, si potrebbe dire che proprio il celebre cavallo di Troia fu il primo caso, sia pure mitologico, di supply chain attack, visto che i troiani si fidarono decisamente troppo del loro fornitore.

Un esempio tipico, concreto e moderno di questa tecnica di attacco risale al 2008, quando le forze di polizia europee smascherarono un’organizzazione criminale dedita alle frodi tramite carte di credito che rubava i dati dei clienti usando dei dispositivi non tracciabili inseriti nei lettori delle carte di credito fabbricati in Cina. Questo aveva permesso ai criminali di effettuare prelievi e acquisti multipli per circa 100 milioni di dollari complessivi.

Nel 2013 la catena statunitense di grandi magazzini Target si vide sottrarre i dati delle carte di credito di circa 40 milioni di utenti, grazie a del malware installato nei sistemi di pagamento POS. Nonostante Target avesse investito cifre molto importanti nel monitoraggio continuo della propria rete informatica, l’attacco fu messo a segno tramite i codici di accesso rubati a un suo fornitore in apparenza slegato dagli acquisti: una ditta della Pennsylvania che faceva impianti di condizionamento.

Le modifiche apportate fisicamente di nascosto ai dispositivi forniti da terzi non sono un’esclusiva dei criminali. Grazie alle rivelazioni di Edward Snowden, per esempio, sappiamo che l’NSA statunitense [Ars Technica] ha intercettato server, router e altri apparati per reti informatiche mentre venivano spediti ai rispettivi acquirenti che voleva mettere sotto sorveglianza, li ha rimossi accuratamente dagli imballaggi, vi ha installato del software nascosto (più precisamente del firmware, ossia il software di base del dispositivo) e poi li ha reimballati, ripristinando tutti i sigilli di sicurezza, prima di reimmetterli nella filiera di spedizione.

Altri esempi di attacco alla catena di approvvigionamento sono Stuxnet, un malware che nel 2010 danneggiò seriamente il programma nucleare iraniano prendendo di mira il software degli apparati di controllo di una specifica azienda europea, usati nelle centrifughe di raffinazione del materiale nucleare in Iran, e NotPetya, un virus che nel 2017 fu inserito negli aggiornamenti di un programma di contabilità molto diffuso in Ucraina. I clienti scaricarono fiduciosamente gli aggiornamenti e si ritrovarono con i computer bloccati, i dati completamente cifrati e una richiesta di riscatto.

C’è anche un caso di supply chain attack che ci tocca molto da vicino, ed è quello della Crypto AG [sintesi su Disinformatico.info], l’azienda svizzera che per decenni ha venduto ai governi e alle forze armate di numerosi paesi del mondo degli apparati di crittografia molto sofisticati, che però a seconda del paese di destinazione venivano a volte alterati segretamente in modo da consentire ai servizi segreti statunitensi e tedeschi di decrittare facilmente le comunicazioni cifrate diplomatiche, governative e militari di quei paesi. In questo caso l’attacco proveniva direttamente dall’interno dell’azienda, ma il principio non cambia: il bersaglio veniva attaccato non frontalmente, ma attraverso uno dei fornitori di cui si fidava.


Difendersi da questo tipo di attacchi non è facile, perché spesso il committente non conosce bene il fornitore, e a sua volta quel fornitore deve conoscere bene i propri fornitori, perché non è la prima volta che un governo o un’organizzazione criminale costituiscono ditte fittizie e si piazzano sul mercato offrendo prodotti o servizi di cui il bersaglio ha bisogno.

Gli esperti raccomandano di ridurre al minimo indispensabile il numero dei fornitori, di visitarli spesso per verificare che siano autentici e non delle semplici scatole cinesi di copertura, di instillare in ogni fornitore, anche nel più secondario, una cultura della sicurezza che invece spesso manca completamente, e di adottare hardware e software che incorporino direttamente delle funzioni di verifica e di sicurezza contro le manomissioni. Ma per la maggior parte delle organizzazioni tutto questo ha costi insostenibili, e così gli attacchi alla catena di approvvigionamento prosperano e, secondo i dati delle società di sicurezza informatica, sono in costante aumento.

Lo schema di questi attacchi ha tre caratteristiche particolari che lo distinguono da altri tipi di attacco: la prima caratteristica è la necessità di disporre di risorse tecniche e logistiche enormi. Nel caso di cui si parla in questi giorni, per esempio, chi lo ha eseguito ha dovuto identificare marche e modelli usati dai membri di Hezbollah, infiltrarsi tra i fornitori fidati o intercettarne le spedizioni in modo invisibile, e progettare, testare e costruire le versioni modificate di migliaia di esemplari dei dispositivi, appoggiandosi a sua volta a fornitori di competenze tecnologiche ed esplosivistiche e di componenti elettronici che fossero capaci di mantenere il segreto.

La seconda caratteristica è invece più sottile. In aggiunta al tremendo bilancio di vite umane, impossibile da trascurare, questi attacchi hanno il risultato di creare angoscia e sfiducia diffusa in tutta l’opinione pubblica verso ogni sorta di tecnologia, creando falsi miti e diffidenze inutili e devastando la reputazione delle marche coinvolte.

Ma la terza caratteristica è quella più pericolosa e in questo caso potenzialmente letale. Chi si inserisce di nascosto in una catena di approvvigionamento raramente ne ha il pieno controllo, per cui non può essere certo che qualcuno dei prodotti che ha sabotato non finisca in mani innocenti invece che in quelle dei bersagli designati, e agisca colpendo chi non c’entra nulla, o rimanga in circolazione dopo l’attacco.

Finché si tratta di malware che causa perdite di dati, il danno potenziale a terzi coinvolti per errore è solitamente sopportabile; ma in questo caso che insanguina la cronaca è difficile, per chi ha lanciato questo attacco, essere certo che tutti quei dispositivi modificati siano esplosi, e così in Libano e in Siria probabilmente circolano ancora, e continueranno a lungo a circolare, dei cercapersone e dei walkie-talkie che sono imbottiti di esplosivo a insaputa dei loro utenti.

Chissà se chi ha concepito questi attacchi dorme sonni tranquilli.


2024/09/22 19:00: La teoria alternativa di Umberto Rapetto

Su La Regione Ticino è stato pubblicato un articolo nel quale il generale della Guardia di Finanza Umberto Rapetto, “già comandante del Gruppo Anticrimine Tecnologico, per anni docente di Open Source Intelligence alla Nato School di Oberammergau (D)”, afferma che l’esplosivo sarebbe stato inserito nei dispositivi non da un aggressore esterno, ma da Hezbollah, ossia dall’utente stesso.

A suo dire, la fornitura di cercapersone sarebbe stata

“commissionata pretendendo che all’interno del normale involucro del prodotto di serie sia ospitata una piccolissima carica esplosiva e che il software includa le istruzioni per attivare la deflagrazione”

in modo da costituire una sorta di meccanismo di autodistruzione da usare qualora un dispositivo fosse caduto in mani nemiche. Non solo: secondo Rapetto, la carica sarebbe stata installata addirittura a insaputa degli stessi affiliati di Hezbollah che usavano i walkie-talkie e i cercapersone modificati, allo scopo di eliminare anche loro qualora fossero stati rapiti:

“Non solo il minuscolo aggeggio non deve spianare la strada all’intelligence, ma deve anche evitare che il suo possessore eventualmente catturato possa raccontare cose riservate e compromettere la sorte dell’organizzazione […] il dispositivo non è più in grado di offrire spunti agli 007 avversari e anche il proprio agente – ucciso o gravemente ferito – perde la possibilità di confessare”.

A supporto di questa teoria non vengono portate prove, e finora non ho trovato nessun’altra persona esperta che abbia proposto questa ricostruzione degli eventi.

Podcast RSI – Telegram cambia le proprie regole, terremoto di sicurezza

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesYouTube MusicSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


[CLIP: TF1 annuncia l’arresto di Durov]

Il 24 agosto scorso Pavel Durov, fondatore e CEO della popolarissima piattaforma di messaggistica Telegram, è stato fermato in Francia [RSI] e successivamente incriminato dalle autorità francesi e rilasciato su cauzione, con l’obbligo di restare nel paese. L’incriminazione parla di “rifiuto di comunicare le informazioni necessarie per le intercettazioni autorizzate dalla legge”“complicità” in reati e crimini gravissimi organizzati su o tramite Telegram, e… omessa dichiarazione formale di importazione in Francia di un sistema crittografico?

Questo terzo capo di incriminazione può sembrare dissonante rispetto agli altri due, ma ha una sua spiegazione che è importante per capire perché il fermo di Durov ha scatenato un terremoto che ha scosso molti degli oltre 900 milioni di utenti di Telegram.

Questa è la storia, fin qui, di questo terremoto e delle sue implicazioni per la sicurezza e la privacy, non tanto per i criminali che usano Telegram, ma per gli utenti onesti di questa piattaforma, specialmente quelli che vivono in paesi dove i diritti umani non vengono rispettati e i dissidenti vengono perseguitati. Questi utenti in questi anni si sono affidati a Telegram contando sulla sua promessa di non collaborare con nessun governo, e ora scoprono che le loro conversazioni su questa piattaforma non erano così protette e segrete come pensavano, anche perché Telegram, dopo il fermo e l’incriminazione di Durov, ha silenziosamente cambiato le proprie regole.

Benvenuti alla puntata del 13 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Telegram è diverso dagli altri sistemi di messaggistica, come Signal o WhatsApp, per due ragioni principali. La prima è che offre i cosiddetti canali, ai quali può iscriversi un numero sostanzialmente illimitato di persone per seguire i messaggi pubblicati da un singolo utente o da una specifica organizzazione.

[i gruppi di Telegram possono avere fino a 200.000 partecipanti]

Questa capacità di far arrivare un messaggio anche a milioni di persone, senza nessuna delle restrizioni o dei filtraggi tipici di altre piattaforme, rende Telegram più allettante rispetto alla concorrenza, per esempio per i criminali informatici e anche per quelli non informatici, dai trafficanti di droga ai terroristi ai pedofili, che possono usarlo (e lo usano) per pubblicizzare i propri prodotti e servizi o le proprie terribili azioni e gestire la propria clientela in modo efficiente e discreto. Ovviamente queste stesse caratteristiche sono utili anche per chi lotta contro censure, persecuzioni o restrizioni delle libertà.

E così Telegram, per chi vive in Russia, è uno dei pochissimi canali attraverso i quali è possibile ricevere informazioni non filtrate dalla censura governativa. Durov lasciò la Russia dieci anni fa, nel 2014, proprio per non dover cedere al governo i dati dei cittadini raccolti dalla sua piattaforma precedente, Vkontakte, una sorta di Facebook nazionale, e per non doverla censurare. A modo suo, Pavel Durov ha esibito dei princìpi etici molto saldi: non collaborare con nessuna autorità, perché chi per un certo governo è un sovversivo per un altro governo è un dissidente, e chi è considerato terrorista da una parte è visto come combattente per la libertà dall’altra.

La seconda ragione è che Telegram, intesa come azienda, si è sempre vantata di rifiutare qualunque collaborazione con le forze di polizia di qualunque paese e di non fare moderazione: nelle pagine del suo sito ha dichiarato che 

“Tutte le chat e i gruppi di Telegram sono territorio privato dei loro rispettivi partecipanti. Non eseguiamo alcuna richiesta relativa ad esse […] Ad oggi, abbiamo divulgato 0 byte di dati a terzi, inclusi i governi […] Mentre blocchiamo bot e canali legati al terrorismo (ad esempio legati all’ISIS), non bloccheremo nessuno che esprime pacificamente altre opinioni.”

Il risultato è che oggi 900 milioni e passa di persone in tutto il mondo si affidano a Telegram per comunicare di tutto, dagli annunci di estorsione informatica ai consigli delle mamme appassionate di rimedi naturali alle malattie, dagli amori clandestini ai film piratati, e di quei 900 milioni e passa circa 10 milioni sono utenti paganti, i cui abbonamenti permettono all’azienda Telegram di operare. Ma a fine agosto per tutte queste persone è arrivato un brusco risveglio.


Prima di tutto, il fermo di Durov ha fatto parlare molto di Telegram anche nei media generalisti, e quindi finalmente molti utenti non esperti sono venuti a conoscenza di un dettaglio tecnico cruciale: le normali chat di Telegram, le sue chat di gruppo e i messaggi diffusi in massa attraverso i suoi canali non sono protetti tramite la crittografia end-to-end, come lo sono invece quelli di WhatsApp o di Signal.

Soltanto le cosiddette chat segrete di Telegram godono di questa protezione, che rende tecnicamente impossibile per il fornitore di un servizio di messaggistica collaborare con le autorità facendo leggere i messaggi dei sospettati. Crittografia end-to-end significa infatti che neppure il fornitore del servizio è in grado di leggere i messaggi scambiati dai suoi utenti e quindi può respingere le richieste di accesso di qualunque autorità semplicemente spiegando che non le può soddisfare per motivi puramente tecnici. Non può fornire i messaggi perché non è in grado di leggerli.

Ma mentre su WhatsApp questa protezione è applicata automaticamente a tutti i messaggi di tutti gli utenti, su Telegram è appunto necessario attivarla manualmente, e comunque la crittografia end-to-end non è disponibile nelle comunicazioni di gruppo ma solo in quelle dirette tra due persone, come spiegato in dettaglio sul sito di Telegram nelle pagine tecniche, quelle che non legge nessuno. E così pochissimi utenti conoscono e usano queste chat segrete.

[oltretutto le chat segrete sono particolarmente difficili da attivare]

In altre parole, il grosso del traffico di messaggi, leciti e illeciti, trasportati da Telegram è leggibile dai tecnici di Telegram, è archiviato sui server dell’azienda e quindi potrebbe essere consegnato alle autorità di qualunque paese, democratico o non democratico. Nessun problema per chi usa Telegram per coordinare le attività di un circolo scacchistico, ma per chiunque usi Telegram per proteggersi da autorità oppressive o per scopi non propriamente legali è uno shock scoprire che quello spazio che riteneva sicuro non lo è affatto.

Va detto che Telegram ha protetto i messaggi dei suoi utenti in altri modi: lo ha fatto tramite la crittografia dei propri server, di cui però ha le chiavi, che quindi gli possono essere chieste dalle autorità; e lo ha fatto distribuendo la propria infrastruttura in vari paesi, per cui i messaggi degli utenti sono sparsi in vari frammenti sotto giurisdizioni molto differenti, che dovrebbero quindi avviare un’azione legale coordinata e congiunta per avere accesso a quei messaggi.

[anche per le chat segrete, comunque, ci sono dubbi tecnici sulla qualità della crittografia di Telegram, che usa una tecnologia “indipendente”, ossia autoprodotta. E resta la questione dei metadati, comunque facilmente accessibili]

Ma il fatto stesso che i messaggi siano in qualche modo accessibili all‘azienda significa che un governo sufficientemente attrezzato, agguerrito e deciso potrebbe effettuare un attacco informatico a Telegram per leggersi quei messaggi. Oppure, più semplicemente, potrebbe trovare metodi non informatici per indurre l’azienda a collaborare. Per esempio, un fermo e un’incriminazione del suo fondatore e amministratore, magari con la scusa della mancata dichiarazione formale di aver importato in Francia un sistema crittografico. Telegram opera anche in Francia da anni, alla luce del sole, per cui è presumibile che le autorità francesi fossero ben consapevoli da tempo di questa mancata dichiarazione prevista dalle leggi nazionali, eppure non hanno mai fatto nulla per contestare l’omissione prima di oggi.

[la normativa francese include la facoltà di chiedere alle aziende di fornire “le caratteristiche tecniche e il codice sorgente dei mezzi crittografici oggetto della dichiarazione”]

E in effetti dopo l’intervento delle autorità francesi su Telegram è cambiato qualcosa di importante.


Intorno al 5 settembre scorso le fiere parole di rifiuto di qualunque collaborazione che ho citato prima sono state riscritte sul sito di Telegram. Adesso Telegram non dice più che “Tutte le chat e i gruppi di Telegram sono territorio privato dei loro rispettivi partecipanti” e che non esegue alcuna richiesta relativa ad esse. Al posto di queste parole c’è l’annuncio che “Tutte le app di Telegram dispongono di pulsanti “Segnala” che consentono di segnalare i contenuti illegali ai nostri moderatori, con pochi tocchi.”

Le FAQ di Telegram com’erano prima del fermo di Durov…
… e come sono adesso.

Non è una novità in senso stretto: questa funzione di segnalazione esiste da tempo nell’app. Ma è interessante che sia stata messa in evidenza e che siano scomparse quelle parole sul “territorio privato”, quasi a suggerire un nuovo corso di collaborazione con le autorità.

Durov ha usato parole piuttosto concilianti anche in un suo annuncio personale [https://t.me/durov/342], dicendo che

“l’improvviso aumento del numero di utenti a 950 milioni ha causato dei problemi legati alla crescita che hanno agevolato i criminali nell’abusare della nostra piattaforma […] è mio obiettivo personale assicurarmi che miglioreremo significativamente le cose in questo senso”.

Pavel Durov ha inoltre sottolineato l’impegno di Telegram contro gli abusi sui minori, citando l’apposito canale di Telegram [@StopCA] che indica, giorno per giorno, i numeri dei gruppi e canali banditi in relazione a questi abusi: sono quasi duemila al giorno. Ha dichiarato anche che Telegram rimuove quotidianamente “milioni di post nocivi” e ha “canali diretti di comunicazione con le organizzazioni non governative per gestire più rapidamente le richieste urgenti di moderazione.”

Sembra insomma che Durov voglia lasciarsi alle spalle numeri preoccupanti, come le 2460 richieste della polizia francese a Telegram rimaste senza risposta [Libération, paywall], e una reputazione guadagnata sul campo di non collaborare con le autorità nemmeno quando si tratta di situazioni di crimine indiscusso e non di questioni di libertà di parola.

[In realtà qualche caso di “collaborazione”, o meglio di azione forzata, c’è stato: la EFF nota che Telegram è stata multata dalle autorità tedesche nel 2022 per non aver predisposto un iter legale per la segnalazione di contenuti illegali e per non aver nominato un referente tedesco per la ricezione delle comunicazioni ufficiali e che il Brasile ha multato Telegram nel 2023 per non aver sospeso gli account dei sostenitori dell’ex presidente Bolsonaro]
[Secondo Politico.eu, l’indagine francese che ha portato al fermo di Durov sarebbe iniziata quando un agente sotto copertura ha interagito con una persona sospettata di essere un predatore sessuale su Telegram e questa persona ha poi ammesso di aver violentato una ragazza giovane. Quando le autorità hanno chiesto a Telegram l’identità di questo utente, Telegram si è rifiutata, e così gli inquirenti si sono concentrati sulle persone che gestiscono Telegram]

A questo restyling di Telegram contribuisce anche la rimozione della funzione Persone vicine, annunciata personalmente da Durov [https://t.me/durov/343]. Questa funzione permetteva a un utente di localizzare gli altri utenti di Telegram situati nelle sue vicinanze, con rischi fin troppo evidenti di abusi e di agevolazione dello stalking.

[la funzione era però anche utile per l’OSINT investigativa]

Numerosi criminali online che usano Telegram, intanto, hanno reagito alla situazione chiudendo i propri account sulla piattaforma, un po’ perché temono che i loro dati e quelli della loro clientela possano finire nelle mani delle autorità, e un po’ perché hanno paura che i loro account verranno chiusi, ora che Telegram dice di volersi occupare seriamente della moderazione [404 Media].

La parola chiave di tutta questa vicenda sembra essere moderazione, o meglio, carenza di moderazione dei contenuti diffusi da Telegram, anche dopo che sono stati segnalati, come nota anche l’autorevole Electronic Frontier Foundation riportando una dichiarazione dell’Ofmin, l’ente francese incaricato di investigare sulle minacce alla sicurezza online dei minori, notando che secondo la legge francese consentire la distribuzione di contenuti o servizi illegali di cui si è a conoscenza è un reato.

Gli eventuali cambiamenti concreti di Telegram diverranno visibili nei prossimi mesi, ma il presupposto delle autorità francesi che la mancanza di moderazione dei contenuti illegali segnalati comporti una responsabilità penale del titolare di un sito probabilmente sta facendo venire i brividi ad altri CEO di piattaforme di messaggistica e social network che non hanno la reputazione di essere “paradisi anarchici”, per citare l’espressione usata da Durov, ma se la meriterebbero. Perché anche Instagram, per esempio, ha lo stesso problema di omessa moderazione di contenuti anche dopo che sono stati segnalati.


Lo so perché anch’io, come tanti altri utenti, segnalo spesso gli spezzoni di video pornografici e di abusi su minori inseriti nei reel di Instagram dopo qualche secondo di contenuto non controverso, ma la moderazione di questa piattaforma risponde puntualmente che il video è conforme alle norme della comunità e non lo rimuove. Eppure la violazione delle norme sarebbe assolutamente ben visibile se solo il moderatore, o l’intelligenza artificiale che forse lo ha sostituito, si degnasse di esaminare il video per qualche secondo in più.

[non pubblico esempi per ovvie ragioni, ma se i responsabili di Instagram vogliono sapere i dettagli, ho screenshot e registrazioni dei reel in questione - solo di quelli pornografici, per non detenere materiale illegale, di cui posso comunque fornire i link]

X, quello che una volta era Twitter, è anche peggio, soprattutto per chi è genitore di figli molto giovani che scalpitano per entrare nei social network. La pornografia e la violenza, anche di tipi estremi, sono accessibili su X semplicemente cambiando un’impostazione dell’app, ed è cosi da ben prima della sua acquisizione da parte di Elon Musk; dopo questa acquisizione sono aumentati i contenuti riguardanti odio, discriminazione e razzismo. Segnalarli è inutile, perché la loro presenza è esplicitamente prevista dalle regole di X ed è coperta dalla foglia di fico decisamente troppo corta di un messaggio di avvertimento, facilissimo da eludere, e dall’appoggio esplicito di Musk stesso.

[Le info di X su come segnalare contenuti sono quiquesta è la media policy di X sui contenuti per adulti; questo è il post su X nel quale Musk dice a Taylor Swift che le vuole “dare un figlio”, cosa che persino le Note della Collettività di X considerano una molestia sessuale inaccettabile; queste (Variety) sono le reazioni al post di Musk]

Il segnale mandato dalle autorità francesi è molto forte e a differenza delle segnalazioni degli utenti è difficile da ignorare: i gestori delle grandi piattaforme, se sono avvisati del fatto che ospitano contenuti o comportamenti illegali, non possono far finta di niente solo perché sono straricchi. Hanno delle responsabilità legali e soprattutto sociali, visto il peso che i loro servizi hanno nella formazione delle giovani generazioni e anche di quelle meno giovani.

A questo punto viene da chiedersi se dopo quello che è successo a Pavel Durov, Mark Zuckerberg e Elon Musk abbiano già mandato un breve promemoria ai piloti del loro jet personali: “Evitare Francia”.

Fonti aggiuntive

Le cose che non funzionano

Ultimo aggiornamento: 2024/10/31 13:10.

Lo so, molte cose di questo sito non funzionano oppure funzionano male. Altre mancano proprio. Ci sto lavorando.

Questa è una pagina dove potete usare i commenti per mandarmi consigli sullo sviluppo del sito ed eventuali trucchi e consigli per sopperire temporaneamente ai problemi.

RATTOPPATO: Il numero dei commenti sotto il titolo dei post è quello dei commenti WordPress, non quello dei commenti Disqus

Non so come fargli leggere il numero dei commenti Disqus, per cui ho semplicemente rimosso l’indicazione del numero dei commenti.

SISTEMATO: I commenti visualizzati nella colonna di destra sono quelli di WordPress, non quelli di Disqus

Ora mostra quelli di Disqus, grazie alla modifica suggerita da PinguinaPunk e Moreno.

SISTEMATO: Manca l’avviso sui cookie

L’ho aggiunto grazie ai vostri suggerimenti.

SISTEMATO: Gestione commenti

Alla fine, dopo lunga riflessione, ho scelto di adottare la gestione commenti fatta tramite Disqus, come c’era anche sul Disinformatico “classico”. Ho importato i commenti immessi fin qui e il vostro account Disqus che usavate sul Disinformatico dovrebbe funzionare automaticamente anche qui.

Alla fine mi è sembrata la soluzione meno dolorosa:

  • Disqus non è perfetto, ma almeno ne conosco i limiti;
  • chi commentava di là dovrebbe avere accesso automatico qua;
  • non c’è da imparare un nuovo sistema, né per me né per voi;
  • ho verificato che il mio account Disqus a pagamento copre fino a tre siti e quindi attivare Disqus qui mentre lo tengo anche sul Disinformatico non mi comporta spese extra.

Ho allineato la configurazione di Disqus a quella del Disinformatico. Se c‘è qualcosa da cambiare, ditemelo.

SISTEMATO: Schema dei colori nei commenti

Lo schema dei colori dei pulsanti nei commenti era orribile, lo so. Ci ho messo un po’ a trovare la maniera di sistemarlo, ma adesso è a posto.

SISTEMATO: Formato della data nel sottotitolo

Era mese giorno virgola anno, da correggere in giorno mese anno. Provando Impostazioni > Generali > Formato della data non cambiava.

Soluzione: bisogna andare nel template ed editarlo in modo che adotti il default. A quel punto Impostazioni > Generali > Formato della data funziona. Qualche info.

Sui monitor grandi c’è tanto spazio vuoto ai lati del testo

È intenzionale per non generare righe di testo troppo lunghe e poco leggibili. Se vi dà fastidio, provate a ridurre la larghezza della finestra del vostro browser.

SISTEMATO: Nei feed c’è solo un riassunto

Lo avevo fatto inizialmente come misura anti-scraping, ma avete fatto notare che era scomodo, per cui ora i feed includono il testo integrale di ogni post. Questa impostazione si cambia in WordPress sotto Impostazioni – Lettura.

Podcast RSI – Gli smartphone ci ascoltano? No, ma…

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, Spotify e feed RSS (Google Podcasts non esiste più, al suo posto c’è YouTube Music).

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


I telefonini ascoltano le nostre conversazioni per bombardarci di pubblicità? La risposta degli esperti è sempre stata un secco “no”, nonostante la montagna di aneddoti e di casi personali raccontati dagli utenti, che dicono in tanti di aver visto sul telefonino la pubblicità di uno specifico prodotto poco dopo aver menzionato ad alta voce il nome o la categoria di quel prodotto.

La tecnologia, però, galoppa, i telefonini diventano sempre più potenti e i pubblicitari diventano sempre più avidi di dati personali per vendere pubblicità sempre più mirate ed efficaci, e quindi oggi quel secco “no” va aggiornato, trasformandolo in un “no, ma…”, perché un’azienda importante è stata colta a proporre ai clienti proprio questo tipo di ascolto delle conversazioni a scopo pubblicitario.

Questa è la storia di quel “no” e soprattutto di quel “ma”. Non è il caso di farsi prendere dal panico, ma è opportuno sapere dove sta andando la tecnologia e quali semplici gesti si possono fare per evitare il rischio di essere ascoltati dai nostri inseparabili smartphone.

Benvenuti alla puntata del 6 settembre 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se ne parla da anni: moltissime persone sono convinte che i loro smartphone ascoltino costantemente le loro conversazioni e colgano le parole chiave di quello che dicono, selezionando in particolare i termini che possono interessare ai pubblicitari. C’è la diffusissima sensazione che basti parlare di una specifica marca di scarpe o di una località di vacanze, senza cercarla su Internet tramite il telefonino, per veder comparire sullo schermo la pubblicità di quel prodotto o di quel servizio. Praticamente tutti i proprietari di smartphone possono citare casi concreti accaduti a loro personalmente.

Restano inascoltate, invece, le spiegazioni e le indagini fatte dagli esperti in vari paesi del mondo in questi anni. I test e le inchieste della rete televisiva statunitense CBS e della Northeastern University nel 2018, gli esperimenti della BBC insieme alla società di sicurezza informatica Wandera nel 2019, l’inchiesta del Garante italiano per la protezione dei dati personali nel 2021: tutte queste ricerche sul problema non hanno portato a nulla. Non c’è nessuna conferma oggettiva che i telefonini ci ascoltino e mandino ai pubblicitari le nostre parole per impostazione predefinita. Quando si fanno i test in condizioni controllate, il fenomeno sparisce.

Per esempio, nella loro indagine del 2019, la BBC e Wandera hanno messo due telefonini, un Android di Samsung e un iPhone di Apple, in una stanza e per mezz’ora hanno fatto arrivare nella stanza l’audio di pubblicità di cibo per cani e per gatti. Hanno anche piazzato due telefonini identici in una stanza isolata acusticamente. Tutti questi telefoni avevano aperte le app di Facebook, Instagram, SnapChat, YouTube e Amazon, insieme al browser Chrome, e a tutte queste app erano stati dati tutti i permessi richiesti.

I ricercatori hanno successivamente controllato se nelle navigazioni fatte dopo il test con quegli smartphone sono comparse pubblicità di cibi per animali domestici e hanno analizzato il consumo della batteria e la trasmissione di dati durante il test. Hanno ripetuto tutta questa procedura per tre giorni, e il risultato è stato che non sono comparse pubblicità pertinenti sui telefonini esposti agli spot di cibi per animali e non ci sono stati aumenti significativi del consumo di batteria o della trasmissione di dati. I consumi e le trasmissioni di dati sono stati praticamente uguali per i telefoni esposti all’audio pubblicitario e per quelli nella stanza silenziosa.

Se ci fosse un ascolto costante e un’altrettanto costante analisi dell’audio ambientale, questo produrrebbe un aumento dei consumi, perché il processore del telefono lavorerebbe in continuazione, e ci sarebbe un aumento della trasmissione di dati, per inviare le informazioni ascoltate ai pubblicitari. E invece niente. Anzi, i ricercatori hanno osservato che i telefonini Android nella stanza isolata acusticamente trasmettevano più dati rispetto a quelli esposti all’audio preparato per l’esperimento, mentre gli iPhone facevano il contrario.

Altri esperimenti analoghi sono stati fatti negli anni successivi, e tutti hanno dato gli stessi risultati. Il picco di consumo energetico e di trasmissione di dati prodotto dagli assistenti vocali, cioè Siri e OK Google, è sempre emerso chiaramente in questi test. Questi assistenti vocali sono in ascolto costante per impostazione predefinita (anche se si possono disattivare), e questo non è minimamente in dubbio, ma lavorano in maniera molto differente rispetto a un ipotetico ascolto pubblicitario.

Gli assistenti vocali, infatti, ascoltano l’audio ambientale alla ricerca di suoni che somiglino a una o due parole chiave di attivazione – tipicamente “Ehi Siri” e “OK Google” – e quando credono di averle sentite iniziano una vistosissima trasmissione di dati verso le rispettive case produttrici. L’ipotetico ascolto pubblicitario, invece, dovrebbe cercare e riconoscere un insieme di parole molto più vasto e magari anche in più di una lingua, e questo richiederebbe molta più potenza di calcolo e quindi consumi molto più elevati, e poi dovrebbe trasmettere dei dati, cosa che i test finora hanno smentito.

Ma allora perché abbiamo la forte sensazione che i telefonini ci ascoltino lo stesso a scopo pubblicitario? E perché avete probabilmente la sensazione altrettanto forte che alla fine di questo mio racconto ci sia una novità che smentisce tutto quello che si era scoperto fin qui?


La sensazione di ascolto pubblicitario viene spiegata dagli esperti con la cosiddetta “illusione di frequenza”, per usare il termine coniato dal professore di linguistica Arnold Zwicky della Stanford University. In parole povere, tendiamo a notare le coincidenze e a dimenticare le non coincidenze. Nel corso della giornata vediamo moltissime pubblicità, ma ci rimangono impresse solo quelle che coincidono con qualcosa che abbiamo detto o fatto. E quando la coincidenza è particolarmente specifica ci colpisce anche emotivamente.

Va detto che la pubblicità che vediamo sui nostri dispositivi non è affatto casuale, e quindi le coincidenze sono agevolate: Google e Facebook, per esempio, usano un vasto assortimento di tecniche per dedurre i nostri interessi e proporci pubblicità mirata. Sanno dove ci troviamo minuto per minuto, grazie alla geolocalizzazione del GPS e del Wi-Fi; sanno con chi siamo e con chi trascorriamo più tempo, grazie al monitoraggio passivo dei dispositivi Bluetooth nelle nostre vicinanze, all’analisi del traffico di messaggi e al fatto che affidiamo a loro le nostre agende e le nostre rubriche telefoniche; sanno cosa scriviamo nelle mail o rispettivamente sui social network. Con dati del genere, ascoltare le conversazioni è praticamente superfluo. Oltretutto la legalità di un ascolto di questo tipo sarebbe molto controversa, visto che si tratterebbe in sostanza di una intercettazione di massa di conversazioni che si ha il diritto di presumere che siano private.

Va anche detto, però, che non è un mistero che esistano tecnologie di ascolto installabili sugli smartphone. I servizi di sicurezza dei vari governi le usano abitualmente per intercettare le comunicazioni delle persone indagate. Già dieci anni fa, Edward Snowden spiegò che l’NSA aveva accesso diretto ai sistemi di Google, Facebook e Apple nell’ambito di un programma di sorveglianza governativa denominato PRISM [The Guardian, 2013]. Ma si tratta di intercettazioni mirate, specifiche, ordinate da un governo su bersagli selezionati, non di ascolti di massa, collettivi e senza basi legali. In ogni caso, è indubbio che usare uno smartphone come microfono nascosto, a insaputa dell’utente, sia tecnicamente possibile.

Si sa anche di un caso conclamato di ascolto ambientale tramite telefonini a scopo commerciale: nel 2019 l’app ufficiale del campionato spagnolo di calcio, LaLiga, fu colta a usare il microfono e la geolocalizzazione degli smartphone degli utenti per identificare i locali che trasmettevano le partite senza autorizzazione. L’agenzia spagnola per la protezione dei dati impose all’organizzazione sportiva una sanzione di 250.000 euro per questo comportamento. Ma anche in questo caso, si trattava di un ascolto effettuato da una specifica app, installata su scelta dell’utente, con tanto di richiesta esplicita del permesso di usare il microfono del telefono, non di una attivazione collettiva e nascosta dei microfoni di tutti gli smartphone così come escono dalla fabbrica.

Questa storia, però, prosegue a dicembre 2023, quando alcuni giornali segnalano che una società di marketing, la statunitense Cox Media Group, avrebbe “ammesso di monitorare le conversazioni degli utenti per creare annunci pubblicitari personalizzati in base ai loro interessi” [Il Sole 24 Ore, 28 dicembre 2023, paywall].

Sembra essere la conferma che il sentimento popolare era giusto e che gli esperti avevano torto. Ma per capire come stanno realmente le cose bisogna andare un pochino più a fondo.


La scoperta di questa presunta ammissione da parte di Cox Media Group è merito della testata 404 Media, che ha pubblicato lo scoop in un articolo riservato agli abbonati e quindi non immediatamente accessibile [paywall].

Ma pagando l’abbonamento e andando a leggere l’articolo originale, come ho fatto io per questo podcast, emerge che non c’è nessuna ammissione di monitoraggio in corso, ma semplicemente c’è l’annuncio che Cox Media Group dispone della capacità di effettuare un eventuale monitoraggio tramite i microfoni degli smartphone e anche tramite quelli dei televisori smart e di altri dispositivi. Non c’è nessuna dichiarazione che la stia realmente usando.

Anzi, il materiale promozionale di Cox Media Group dice che questa tecnologia, denominata “Active Listening” o “ascolto attivo”, “è agli albori” (“Active Listening is in its early days”), e presenta questa capacità tecnica come “una tecnica di marketing adatta al futuro, disponibile oggi” [“a marketing technique fit for the future. Available today”].

Le affermazioni promozionali di Cox Media Group, ora rimosse ma salvate su Archive.org.

È disponibile, ma questo non vuol dire che venga usata. E i consulenti di vendita dell’azienda la presentano come se fosse un prodotto nuovo in cerca dei primi clienti.

I clienti di Cox Media Group, stando all’azienda, sono nomi come Amazon, Microsoft e Google. Stanno usando questa tecnologia di ascolto? Le risposte che hanno dato ai colleghi di 404 Media a dicembre scorso sembrano dire di no, ma inizialmente è mancata una smentita secca da parte loro. Smentita che è invece arrivata subito, stranamente, da Cox Media Group stessa, che ha dichiarato ai giornalisti di 404 Media che

“non ascolta conversazioni e non ha accesso a nulla più di un insieme di dati fornito da terze parti e anonimizzato, aggregato e completamente cifrato usabile per il piazzamento pubblicitario”

e ha aggiunto che si scusa per “eventuali equivoci”.

Eppure il suo materiale promozionale dice cose decisamente difficili da equivocare. O meglio, le diceva, perché è scomparso dal suo sito.

[È disponibile come copia d’archivio su Archive.org e su Documentcloud.orge contiene frasi come “No, it’s not a Black Mirror episode - it’s Voice Data” e “Creepy? Sure. Great for marketing? Definitely”].

Ma pochi giorni fa, sempre 404 Media ha reso pubblica una presentazione di Cox Media Group [PDF] nella quale l’azienda parla esplicitamente di “dispositivi smart” che “catturano dati di intenzione in tempo reale ascoltando le nostre conversazioni” (“Smart devices capture real-time intent data by listening to our conversations”), parla di consumatori che “lasciano una scia di dati basata sulle loro conversazioni e sul loro comportamento online” (“Consumers leave a data trail based on their conversations and online behavior”) e parla di “dati vocali” (“voice data”).

La slide 1 della presentazione di Cox Media Group ottenuta da 404 Media.

Ma allora come stanno le cose? È indubbio, anche grazie alle testimonianze raccolte dai giornalisti di 404 Media, che Cox Media Group abbia cercato di vendere questa sua presunta capacità di ascoltare le nostre conversazioni. Ma l’ha davvero venduta, ed è realmente in uso? Sembra proprio di no.

Anzi, dopo che si è diffusa la notizia di questa sua offerta di tecnologie di ascolto, Google ha tolto Cox Media Group dal programma Google Partners dedicato ai migliori inserzionisti, nel quale la Cox era presente al massimo livello da oltre 11 anni. Amazon ha dichiarato di non aver mai lavorato con la Cox al programma di ascolto. Meta, invece, dice che sta valutando se la Cox abbia violato i termini e le condizioni della loro collaborazione, mentre Microsoft non ha rilasciato commenti.

[Meta ha dichiarato al New York Post che “non usa il microfono del vostro telefono per le pubblicità e lo dichiariamo pubblicamente da anni [...] stiamo cercando di comunicare con CMG per fare in modo che chiariscano che il loro programma non è basato su dati di Meta”. In originale: “Meta does not use your phone’s microphone for ads and we’ve been public about this for years [...] We are reaching out to CMG to get them to clarify that their program is not based on Meta data.”]

Insomma, formalmente intorno a chi ha proposto di ascoltare le nostre conversazioni a scopo pubblicitario è stata fatta terra bruciata, per cui tutta la vicenda sembra più un maldestrissimo tentativo di proporre una tecnologia di ascolto che una conferma di una sua reale applicazione in corso. E la rivelazione di questo tentativo mette in luce la falla non tecnica ma molto umana di qualunque piano di ascolto globale segreto delle conversazioni a scopo pubblicitario: è praticamente impossibile tenere nascosta una tecnologia del genere, che va presentata ai potenziali partner, va pubblicizzata agli addetti ai lavori, ai rivenditori, ai tecnici e a chissà quante altre persone. Il segreto dovrebbe essere condiviso da un numero enorme di persone, e prima o poi qualcuna di queste persone si lascerebbe sfuggire qualcosa oppure, presa da rimorsi di coscienza, vuoterebbe il sacco.

[L’inchiesta di 404 Media sembra essere partita appunto da una vanteria di ascolto pubblicitario fatta in un podcast da un’azienda del New Hampshire, la MindSift]

Anche stavolta, quindi, possiamo stare tranquilli, ma solo grazie al fatto che ci sono giornalisti che vigilano e segnalano i tentativi di invadere uno spazio così personale come quello di una chiacchierata privata tra colleghi, amici o coniugi. Perché un’invasione del genere è illegale e immorale, ma questo non impedirà a persone e aziende senza scrupoli di provarci lo stesso. E se comunque preferite spegnere il telefonino prima di una conversazione sensibile di qualunque tipo, male non fa. Non si sa mai.

Fonti aggiuntive

Podcast RSI – L’IA ha troppa fame di energia. Come metterla a dieta

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Una singola domanda a ChatGPT consuma grosso modo la stessa energia elettrica che serve per tenere accesa una lampadina comune per venti minuti e consuma dieci volte più energia di una ricerca in Google. La fame di energia dell’intelligenza artificiale online è sconfinata e preoccupante. Ma ci sono soluzioni che permettono di smorzarla.

Questa è la storia del crescente appetito energetico dei servizi online, dai social network alle intelligenze artificiali, del suo impatto ambientale e di come esiste un modo alternativo per offrire gli stessi servizi con molta meno energia e con molto più rispetto per la nostra privacy. Perché ogni foto, ogni documento, ogni testo che immettiamo in ChatGPT, Gemini, Copilot o altri servizi online di intelligenza artificiale viene archiviato, letto, catalogato, analizzato e schedato dalle grandi aziende del settore.

Benvenuti alla puntata del 30 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Una recente indagine pubblicata da NPR, una rinomata organizzazione indipendente non profit che comprende un migliaio di stazioni radio statunitensi ed è stata fondata dal Congresso degli Stati Uniti, fa il punto della situazione sulla nuova fame di energia dovuta al boom delle intelligenze artificiali.

Quando usiamo un servizio online di intelligenza artificiale, come ChatGPT, Copilot o Gemini, per citare i più diffusi, i complessi calcoli necessari per elaborare e fornirci la risposta non avvengono sul nostro computer, tablet o telefonino, per cui non ci accorgiamo di quanta energia viene consumata per restituirci quella risposta. Il nostro dispositivo non fa altro che prendere la nostra richiesta, inoltrarla via Internet a questi servizi, e ricevere il risultato, facendocelo vedere o ascoltare.

Ma dietro le quinte, le intelligenze artificiali online devono disporre di grandi data center, ossia strutture nelle quali vengono radunati computer appositi, dotati di processori dedicati all’intelligenza artificiale, che hanno dei consumi energetici prodigiosi. Secondo una stima riportata da NPR, una singola richiesta a ChatGPT usa all’incirca la stessa quantità di energia elettrica necessaria per tenere accesa una normale lampadina per una ventina di minuti. Immaginate milioni di persone che interrogano ChatGPT tutto il giorno, e pensate a venti minuti di lampadina accesa per ogni domanda che fanno a questa intelligenza artificiale.

Secondo un’analisi pubblicata dalla banca d’affari Goldman Sachs a maggio 2024, una richiesta fatta a ChatGPT consuma 2,9 wattora di energia elettrica, quasi dieci volte di più di una normale richiesta di ricerca fatta a Google [0,3 wattora] senza interpellare i suoi servizi di intelligenza artificiale. Questa analisi stima che il fabbisogno energetico mondiale dei data center che alimentano la rivoluzione dell’intelligenza artificiale salirà del 160% entro il 2030; serviranno circa 200 terawattora ogni anno solo per i consumi aggiuntivi dovuti all’intelligenza artificiale.

Per fare un paragone, il consumo annuo svizzero complessivo di energia elettrica è stato di 56 terawattora [Admin.ch]. In parole povere: solo per gestire l’intelligenza artificiale servirà un’energia pari a quasi quattro volte quella consumata da tutta la Confederazione.

Questi data center attualmente sono responsabili di circa il 2% di tutti i consumi di energia elettrica, ma entro la fine del decennio probabilmente consumeranno dal 3 al 4%, raddoppiando le loro emissioni di CO2. Goldman Sachs segnala che negli Stati Uniti saranno necessari investimenti per circa 50 miliardi di dollari per aggiungere capacità di produzione di energia per far fronte all’appetito energetico dei data center.

In Europa, sempre secondo l’analisi di Goldman Sachs, la crescente elettrificazione delle attività e l’espansione dei data center potrebbero far crescere il fabbisogno energetico del 40% o più entro il 2033. Entro il 2030, si prevede che la fame di energia di questi data center sarà pari all’intero consumo annuale di Portogallo, Grecia e Paesi Bassi messi insieme. Per stare al passo, la rete elettrica europea avrà bisogno di investimenti per circa 1,6 miliardi di euro nel corso dei prossimi anni.

Queste sono le stime e le previsioni degli esperti, ma ci sono già dei dati molto concreti su cui ragionare. Google e Microsoft hanno pubblicato due confessioni energetiche discrete, poco pubblicizzate, ma molto importanti.


Ai primi di luglio 2024, Google ha messo online il suo nuovo rapporto sulla sostenibilità delle proprie attività. A pagina 31 di questo rapporto si legge un dato molto significativo: l’anno scorso le sue emissioni di gas serra sono aumentate del 48% rispetto al 2019 principalmente a causa degli aumenti dei consumi di energia dei data center e delle emissioni della catena di approvvigionamento”, scrive il rapporto, aggiungendo che “man mano che integriamo ulteriormente l’IA nei nostri prodotti, ridurre le emissioni potrebbe essere impegnativo a causa dei crescenti fabbisogni energetici dovuti alla maggiore intensità dei calcoli legati all’IA” [“In 2023, our total GHG emissions were 14.3 million tCO2e, representing a 13% year-over-year increase and a 48% increase compared to our 2019 target base year. […] As we further integrate AI into our products, reducing emissions may be challenging due to increasing energy demands from the greater intensity of AI compute, and the emissions associated with the expected increases in our technical infrastructure investment.”].

Fin dal 2007, Google aveva dichiarato ogni anno che stava mantenendo una cosiddetta carbon neutralityoperativa, ossia stava compensando le proprie emissioni climalteranti in modo da avere un impatto climatico sostanzialmente nullo. Ma già nella versione 2023 di questo rapporto ha dichiarato invece che non è più così, anche se ambisce a tornare alla neutralità entro il 2030.

Anche Microsoft ammette che l’intelligenza artificiale sta pesando sui suoi sforzi di sostenibilità. Nel suo rapporto apposito, l’azienda scrive che le sue emissioni sono aumentate del 29% rispetto al 2020 a causa della costruzione di nuovi data center, concepiti e ottimizzati specificamente per il carico di lavoro dell’intelligenza artificiale.

E a proposito di costruzione di data center, Bloomberg fa notare che il loro numero è raddoppiato rispetto a nove anni fa: erano 3600 nel 2015, oggi sono oltre 7000, e il loro consumo stimato di energia elettrica equivale a quello di tutta l’Italia.

Distillando questa pioggia di numeri si ottiene un elisir molto amaro: l’attuale passione mondiale per l’uso onnipresente dell’intelligenza artificiale ha un costo energetico e un impatto ambientale poco visibili, ma molto reali, che vanno contro l’esigenza di contenere i consumi per ridurre gli effetti climatici. È facile vedere proteste molto vistose contro i voli in aereo, per esempio, e c’è una tendenza diffusa a rinunciare a volare come scelta di tutela dell’ambiente. Sarebbe ironico se poi chi fa questi gesti passasse la giornata a trastullarsi con ChatGPT perché non si rende conto di quanto consumo energetico ci stia dietro.

Per fare un paragone concreto e facile da ricordare, se quei 2,9 wattora necessari per una singola richiesta a ChatGPT venissero consumati attingendo alla batteria del vostro smartphone, invece che a qualche datacenter dall’altra parte del mondo, il vostro telefonino sarebbe completamente scarico dopo soltanto quattro domande. Se usaste delle normali batterie stilo, ne dovreste buttare via una ogni due domande.


Ognuno di noi può fare la propria parte per contenere questo appetito energetico smisurato, semplicemente scegliendo di non usare servizi basati sull’intelligenza artificiale remota se non è strettamente indispensabile. Ma esiste anche un altro modo per usare l’intelligenza artificiale, che consuma molto, molto meno: si chiama tiny AI, ossia microintelligenza artificiale locale [locally hosted tiny AI].

Si tratta di software di IA che si installano e funzionano su computer molto meno potenti ed energivori di quelli usati dalle grandi aziende informatiche, o addirittura si installano sugli smartphone, e lavorano senza prosciugarne la batteria dopo quattro domande. Hanno nomi come Koala, Alpaca, Llama, H2O-Danube, e sono in grado di generare testi o tradurli, di rispondere a domande su vari temi, di automatizzare la scrittura di un documento, di trascrivere una registrazione o di riconoscere una persona, consumando molta meno energia delle intelligenze artificiali online.

Per esempio, una microintelligenza artificiale può essere installata a bordo di una telecamera di sorveglianza, su un componente elettronico che costa meno di un dollaro e ha un consumo energetico trascurabile: meno dell’energia necessaria per trasmettere la sua immagine a un datacenter remoto tramite la rete telefonica cellulare.

Nella tiny AI, l’elaborazione avviene localmente, sul dispositivo dell’utente, e quindi non ci sono problemi di privacy: i dati restano dove sono e non vengono affidati a nessuno. Bisogna però cambiare modo di pensare e di operare: per tornare all’esempio della telecamera, invece di inviare a qualche datacenter le immagini grezze ricevute dalla telecamera e farle elaborare per poi ricevere il risultato, la tiny AI le elabora sul posto, direttamente a bordo della telecamera, e non le manda a nessuno: se rileva qualcosa di interessante, trasmette al suo proprietario semplicemente l’avviso, non l’intera immagine, con un ulteriore risparmio energetico.

Non si tratta di alternative teoriche: queste microintelligenze sono già in uso, per esempio, negli occhiali smart dotati di riconoscimento vocale e riconoscimento delle immagini. Siccome devono funzionare sempre, anche quando non c’è connessione a Internet, e dispongono di spazi limitatissimi per le batterie, questi oggetti devono per forza di cose ricorrere a un’intelligenza ultracompatta e locale.

Ma allora perché le grandi aziende non usano questa soluzione dappertutto, invece di costruire immensi datacenter? Per due motivi principali. Il primo è tecnico: queste microintelligenze sono brave a fare una sola cosa ciascuna, mentre servizi come Google Gemini o ChatGPT sono in grado di rispondere a richieste di molti tipi differenti e più complesse, che hanno bisogno di attingere a immense quantità di dati. Ma le richieste tipiche fatte dagli utenti a un’intelligenza artificiale sono in gran parte semplici, e potrebbero benissimo essere gestite da una tiny AI. Troppo spesso, insomma, si impugna un martello per schiacciare una zanzara.

Il secondo motivo è poco tecnico e molto commerciale. Se gli utenti si attrezzano con una microintelligenza propria, che oltretutto spesso è gratuita da scaricare e installare, crolla tutto il modello di business attuale, basato sull’idea di convincerci che pagare un abbonamento mensile per avere servizi basati sull’intelligenza artificiale remota sia l’unico modello commerciale possibile.

La scelta, insomma, sta a noi: o diventare semplici cliccatori di app chiavi in mano, che consumano quantità esagerate di energia e creano una dipendenza molto redditizia per le aziende, oppure rimboccarsi un pochino le maniche informatiche e scoprire come attrezzarsi con un’intelligenza artificiale locale, personale, che fa quello che vogliamo noi e non va a raccontare a nessuno i nostri fatti personali. E come bonus non trascurabile, riduce anche il nostro impatto globale su questo fragile pianeta.

Fonti aggiuntive

Ultra-Efficient On-Device Object Detection on AI-Integrated Smart Glasses with TinyissimoYOLO, Arxiv.org, 2023

Tiny VLMs bring AI text plus image vision to the edge, TeachHQ.com, 2024

Tiny AI is the Future of AI, AIBusiness, 2024

The Surprising Rise of “Tiny AI”, Medium, 2024

I test AI chatbots for a living and these are the best ChatGPT alternatives, Tom’s Guide, 2024

Podcast RSI – Google blocca l’adblocker che blocca gli spot; iPhone, arrivano gli app store alternativi, ma solo in UE

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


Vi piacciono gli adblocker? Quelle app che bloccano le pubblicità e rendono così fluida e veloce l’esplorazione dei siti Web, senza continue interruzioni? O state pensando di installarne uno perché avete visto che gli altri navigano beatamente senza spot? Beh, se adoperate o state valutando di installare uno degli adblocker più popolari, uBlock Origin, c’è una novità importante che vi riguarda: Google sta per bloccarlo sul proprio browser Chrome. Ma c’è un modo per risolvere il problema.

Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica, e vi racconto anche cosa succede realmente con gli iPhone ora che l’App Store di Apple non è più l’unico store per le app per questi telefoni e quindi aziende come Epic Games, quella di Fortnite, sono finalmente libere di offrire i propri prodotti senza dover pagare il 30% di dazio ad Apple, anche se lo sono solo a certe condizioni complicate. Vediamole insieme. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Google sta per bloccare l’adblocker uBlock Origin

La pubblicità nei siti a volte è talmente invadente, specialmente sugli schermi relativamente piccoli degli smartphone, che diventa impossibile leggere i contenuti perché sono completamente coperti da banner, pop-up e tutte le altre forme di interruzione inventate in questi anni dai pubblicitari. Molti utenti si difendono da quest’invasione di réclame adottando una misura drastica: un adblocker, ossia un’app che si aggiunge al proprio browser sul computer, sul tablet o sul telefono e blocca le pubblicità.

Uno degli adblocker più popolari, con decine di milioni di utenti, è uBlock Origin, un’app gratuita disponibile per tutti i principali browser, come per esempio Edge, Firefox, Chrome, Opera e Safari. È scaricabile presso Ublockorigin.com ed è manutenuto ormai da un decennio dal suo creatore, Raymond Hill, che non solo offre gratuitamente questo software ma rifiuta esplicitamente qualunque donazione o sponsorizzazione. Questa sua fiera indipendenza, rimasta intatta mentre altri adblocker sono scesi a compromessi lasciando passare le “pubblicità amiche”, lo ha fatto diventare estremamente popolare.

Il sito di Ublock Origin.

Ovviamente i pubblicitari, e i siti che si mantengono tramite le pubblicità, non vedono di buon occhio questo successo degli adblocker, e quindi c’è una rincorsa tecnologica continua fra chi crea pubblicità che eludono gli ablocker in modi sempre nuovi e chi crea adblocker che cercano di bloccare anche quei nuovi modi.

Anche Google vive di pubblicità, e quindi in questa rincorsa non è affatto neutrale: se le pubblicità che Google vende non vengono viste dagli utenti, gli incassi calano. E infatti il suo browser Chrome, uno dei più usati al mondo, sta per bloccare l’adblocker uBlock Origin. I trentacinque milioni di utenti che lo adoperano su Chrome, stando perlomeno ai dati presenti sulla sua pagina nel Chrome Web Store [screenshot qui sotto], si troveranno quindi presto orfani, perché è in arrivo un aggiornamento importante della tecnologia di supporto alle estensioni in Chrome, fatto formalmente per aumentarne la sicurezza, l’efficienza e la conformità agli standard, ma questo aggiornamento ha anche un effetto collaterale non trascurabile: renderà uBlock Origin incompatibile con le prossime versioni di Chrome.

Ublock Origin nel Chrome Web Store.

Niente panico: al momento attuale uBlock Origin funziona ancora su Chrome, ma nelle prossime versioni del browser di Google verrà disabilitato automaticamente. Per un certo periodo, gli utenti avranno la possibilità di riattivarlo manualmente, ma poi sparirà anche questa opzione.

uBlock Origin continuerà a funzionare sugli altri browser, per cui un primo rimedio al problema per i suoi milioni di utenti è cambiare browser, passando per esempio a Firefox. Ma questo non è facile per gli utenti poco esperti e rischia di introdurre incompatibilità e disagi, perché la popolarità di Chrome spinge i creatori dei siti a realizzare siti Web che funzionano bene soltanto con Chrome, in una ripetizione distorta della celebre guerra dei browser che aveva visto protagonista Internet Explorer di Microsoft contro Netscape alla fine degli anni Novanta.

Raymond Hill, il creatore di uBlock Origin, non è rimasto con le mani in mano. Vista la tempesta in arrivo, ha già creato e reso disponibile, sempre gratuitamente, un nuovo adblocker che è compatibile con le prossime versioni di Google Chrome. Si chiama uBlock Origin Lite, ed è già disponibile sul Chrome Web Store. Trovate i link per scaricarlo su Disinformatico.info. Per ragioni tecniche non è potente ed efficace come il suo predecessore, per cui Raymond Hill non lo propone come aggiornamento automatico ma lo raccomanda come alternativa.

Ublock Origin Lite nel Chrome Web Store.

Se siete affezionati alla navigazione senza pubblicità grazie a uBlock Origin, insomma, avete due possibilità: cambiare browser oppure passare alla versione Lite di uBlock Origin, che è già stata installata in questo momento da circa trecentomila utenti.

In tutto questo non va dimenticato che molti dei siti e dei servizi più usati di Internet si mantengono grazie ai ricavi pubblicitari che gli adblocker impediscono, per cui se usate un adblocker di qualunque tipo vale la pena di dedicare qualche minuto ad autorizzare le pubblicità dei siti che vi piacciono e che volete sostenere, lasciando bloccati tutti gli altri, anche come misura di difesa contro i siti di fake news nei quali è facile incappare e che si mantengono con la pubblicità, per cui a loro non interessa che crediate o meno a quello che scrivono: l’importante per loro è che vediate le loro inserzioni pubblicitarie. Ed è così che paradossalmente gli adblocker diventano uno strumento contro la disinformazione e i truffatori.

Fonti aggiuntive: PC WorldWindowsCentral.

iPhone, arrivano gli app store alternativi. Ma solo in UE

Da quando è arrivato l’iPhone, una delle sue caratteristiche centrali è stata quella di avere un unico fornitore di app, cioè l’App Store della stessa Apple. Sugli smartphone delle altre marche, con altri sistemi operativi come per esempio Android, l’utente è sempre stato libero di procurarsi e installare app di qualunque provenienza con poche semplici operazioni, mentre Apple ha scelto la via del monopolio, aggirabile solo con procedure decisamente troppo complicate per l’utente medio.

Oggi, dopo sedici anni dal suo debutto nel 2008, l’App Store di Apple non è più l’unica fonte di app disponibile agli utenti degli smartphone di questa marca: debuttano infatti gli app store alternativi per gli iPhone. Ma solo per chi si trova nell’Unione Europea. Una volta tanto, una novità arriva prima in Europa che negli Stati Uniti, ma non scalpitate, le cose non sono così semplici come possono sembrare a prima vista.

La novità è merito delle norme europee sulla concorrenza, specificamente del Digital Markets Act o DMA, e delle azioni legali avviate da aziende come Spotify, Airbnb e in particolare Epic Games, la casa produttrice di Fortnite, aziende che contestavano non solo il regime di sostanziale monopolio ma anche il fatto che Apple, come Google, chiede il 30% dei ricavi delle app: una percentuale ritenuta troppo esosa da molti sviluppatori di app.

A questi costi si aggiungeva il fatto che alcuni tipi di app non erano disponibili nell’App Store di Apple per scelta politica, per esempio su pressioni di governi come quello cinese, indiano o russo, oppure per decisione spesso arbitraria di Apple, come per esempio nel caso degli emulatori di altri sistemi operativi (come il DOS) [The Verge], o nel caso dei browser alternativi (ammessi solo se usano lo stesso motore interno WebKit di Safari [The Verge]), oppure dei contenuti anche solo vagamente relativi alla sessualità, come nella vicenda emblematica dell’app che offriva un adattamento a fumetti dell’Ulisse di Joyce, che era stata respinta per aver osato mostrare dei genitali maschili appena accennati da un tratto di matita.

Apple ha giustificato finora queste restrizioni parlando di esigenze di qualità e di sicurezza, e in effetti i casi di app pericolose giunte nel suo App Store sono limitatissimi rispetto al fiume di malware e di spyware che si incontra facilmente su Google Play per il mondo Android, ma non sempre queste giustificazioni sono state documentate; l’argomentazione generale di Apple è stata che solo Apple era in grado di fornire una user experience buona, sicura e felice. In ogni caso, che ad Apple piaccia o no, l’Unione Europea ha disposto che gli utenti di iPhone e iPad abbiano la facoltà di procurarsi app anche attraverso app store alternativi.

E così oggi un utente Apple che si trovi in Unione Europea può rivolgersi ad app store come AltStoreSetappEpic GamesAptoide e altri, trovandovi app che non esistono nello store di Apple, soprattutto nel settore dei giochi e degli emulatori.

Una cosa inimmaginabile qualche anno fa: Aptoide per iOS.

Ma la procedura non è affatto semplice. Mentre per usare l’App Store di Apple l’utente non deve fare nulla, per usare gli store alternativi deve trovarsi materialmente nel territorio dell’Unione Europea, e quindi per esempio la Svizzera e il Regno Unito sono esclusi; deve impostare il paese o l’area geografica del proprio ID Apple su uno dei paesi o delle aree geografiche dell’Unione Europea, e deve aver installato iOS 17.4 o versioni successive. E una volta fatto tutto questo, deve poi andare al sito dello store alternativo ed eseguire tutta una serie di operazioni prima di poter arrivare finalmente alle app vere e proprie. La cosa è talmente complessa che Epic Games ha addirittura pubblicato su YouTube un video che spiega la procedura.

Lo store della Epic Games.

La faccenda si complica ulteriormente se per caso l’utente esce per qualunque motivo dall’Unione Europea: gli aggiornamenti delle app degli store alternativi saranno ammessi solo per 30 giorni, e ci sono anche altre limitazioni, elencate in un tediosissimo documento pubblicato da Apple che trovate linkato su Disinformatico.info.

[il documento di Apple elenca in dettaglio i paesi e le aree geografiche compatibili: Austria, Belgio, Bulgaria, Croazia, Cipro, Repubblica Ceca, Danimarca, Estonia, Finlandia (incluse Isole Åland), Francia (incluse Guyana francese, Guadalupa, Martinica, Mayotte, Reunion, Saint Martin), Germania, Grecia, Ungheria, Irlanda, Italia, Lettonia, Lituania, Lussemburgo, Malta, Paesi Bassi, Polonia, Portogallo (incluse Azzorre), Madeira, Romania, Slovacchia, Slovenia, Spagna (incluse Isole Canarie), Svezia]

All’atto pratico, è difficile che questa apertura forzata e controvoglia dell’App Store interessi a chi non è particolarmente esperto o appassionato, ma perlomeno stabilisce il principio che a differenza di quello che avviene altrove, nell’Unione Europea le grandi aziende del software non sono sempre in grado di fare il bello e il cattivo tempo.

Fonti aggiuntive: TechCrunchIGNThe VergeTechCrunch

Podcast RSI – Emily Pellegrini, l’influencer virtuale che virtuale non era; deepfake per una truffa da 25 milioni di dollari

Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Benvenuti alla puntata del 16 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo, e questa settimana vi porto due storie, e due notizie, che sembrano scollegate e appartenenti a due mondi molto distanti, ma hanno in realtà in comune un aspetto molto importante.

La prima storia riguarda una delle più pubblicizzate influencer virtuali, Emily Pellegrini, annunciata dai giornali di mezzo mondo come un trionfo dell’intelligenza artificiale, così attraente e realistica che viene contattata da celebri calciatori che la vogliono incontrare a cena e da ricchi imprenditori che le offrono vacanze di lusso pur di conoscerla, credendo che sia una persona reale, e accumula centinaia di migliaia di follower su Instagram. Ma oggi tutte le immagini che l’avevano resa celebre sui social sono scomparse.

La seconda storia riguarda invece una truffa da 25 milioni di dollari ai danni di una multinazionale, messa a segno tramite una videoconferenza in cui il direttore finanziario sarebbe stato simulato dai criminali, in voce e in video e in tempo reale, usando anche qui l’intelligenza artificiale così bene da ingannare persino i suoi stessi dipendenti.

Ma non è l’intelligenza artificiale l’aspetto che accomuna queste storie. È qualcosa di ben poco artificiale e purtroppo molto umano.

[SIGLA di apertura]

Siamo a fine settembre del 2023. Un’eternità di tempo fa, per i ritmi dello sviluppo frenetico dell’intelligenza artificiale. Su un sito per adulti, Fanvue, e su Instagram iniziano a comparire le foto sexy di Emily Pellegrini [instagram.com/emilypellegrini], una modella di 23 anni che vive a Los Angeles e fa l’influencer. Ma si tratta di una influencer particolare, perché è generata con l’intelligenza artificiale, anche se nelle foto che pubblica sembra una persona in carne e ossa.

Una delle “foto” di Emily Pellegrini. Notate i grattacieli completamente deformati sullo sfondo e l’incoerenza delle linee della piattaforma sulla quale si trova la persona raffigurata, segni tipici di immagini generate maldestramente con software di intelligenza artificiale.

Sei settimane dopo, l’11 novembre, Emily Pellegrini ha già 81.000 follower su Instagram [New York Post]. Ai primi di gennaio ne ha 175.000 [Corriere del Ticino], a metà gennaio sono già 240.000 [NZZ], e ne parlano i media di tutto il mondo [Daily MailripetutamenteFortuneDagospiaRepubblicaSternWelt.deRadio Sampaio], dicendo che il suo aspetto procace e fotorealistico ha tratto in inganno molti uomini “ricchi, potenti e di successo”, dice per esempio il Daily Mail britannico, aggiungendo che su Instagram la contattano “persone veramente famose, come calciatori, miliardari, campioni di arti marziali miste e tennisti” che “credono che sia reale” e “la invitano a Dubai per incontrarla e mangiare nei migliori ristoranti”. Una delle celebrità sedotte da Emily Pellegrini, scrive sempre il Daily Mail, è un imprecisato conoscente di Cristiano Ronaldo; un altro è una star del calcio tedesco di cui non viene fatto il nome.

Andamento della popolarità della stringa di testo “Emily Pellegrini” da settembre 2023 a oggi, secondo Google Trends.

Moltissime testate in tutto il mondo riportano fedelmente questi dettagli e non perdono l’occasione di pubblicare molte foto delle grazie abbondanti dell’influencer virtuale, ma c’è un piccolo problema: tutte queste presunte conquiste di Emily Pellegrini sono riferite da una sola fonte, il suo creatore, che fra l’altro vuole restare anonimo, e sono descritte in modo estremamente vago: nessun nome, ma solo frasi come “uno dei volti famosi, di cui non viene fatto il nome e che l’ha contattata, a quanto pare conosce Cristiano Ronaldo” [“One unnamed famous face who contact [sic] her allegedly knew Cristiano Ronaldo, the creator claimed”]

Che senso ha precisare che questo anonimo fan conosce Cristiano Ronaldo? Non fornisce nessuna informazione reale. Però permette di citare un nome famoso e associarlo a questa influencer per farla brillare di luce riflessa nella mente del lettore, che magari è distratto perché l’occhio gli sta cadendo altrove.

Questo espediente autopromozionale funziona, perché Emily Pellegrini viene citata dai media di mezzo pianeta come l’influencer che “fa innamorare i vip”, come titola Il Mattino, o “ha fatto innamorare calciatori e vip di tutto il mondo”, come scrive Repubblica, per citare giusto qualche esempio italofono. Ma di questo innamoramento collettivo non c’è la minima conferma. Ci sono solo le dichiarazioni straordinariamente vaghe del suo creatore senza nome.

Questo anonimo creatore della influencer virtuale racconta anche di aver “lavorato 14-16 ore al giorno” per riuscire a creare il volto, il corpo e i video di Emily Pellegrini con l’intelligenza artificiale. Ma anche qui qualcosa non quadra, perché a fine gennaio 2024 emerge un dato: alcune delle immagini di Emily Pellegrini, soprattutto quelle più realistiche, sono realistiche non per qualche rara maestria nell’uso dei software di intelligenza artificiale, ma perché sono semplicemente foto e video di donne reali, come per esempio quelle della modella Ella Cervetto (www.instagram.com/ellacervetto/), sfruttate senza il loro consenso [Radio FranceAbc.net.au, con esempi; Fanpage.it], sostituendo digitalmente il loro volto con un volto sintetico e tenendo tutto il resto del corpo intatto. In altre parole, un banale deepfake come tanti, fatto oltretutto a scrocco.

Le pose e le movenze così realistiche di Emily Pellegrini non sono generate dal software: sono prese di peso dai video reali di modelle reali. Una chiara violazione del copyright e uno sfruttamento spudorato del lavoro altrui.


Oggi il profilo Instagram di Emily Pellegrini [www.instagram.com/emilypellegrini] è praticamente vuoto. Tutte le foto sono scomparse. Restano solo 12 post, nei quali un uomo che si fa chiamare “Professor Ep” e dice di essere il creatore della modella virtuale – che in realtà tanto virtuale non era – propone un corso, naturalmente a pagamento, per insegnare agli altri a fare soldi creando modelle virtuali. Nessun accenno al fatto che l’insegnante ha usato i video e la fatica degli altri e ha adoperato  solo in parte l’intelligenza artificiale per guadagnare, dice lui, oltre un milione di dollari.

Lo stato attuale dell’account Instagram di Emily Pellegrini.

Fra l’altro, il corso del sedicente professore, che costava inizialmente mille dollari, ora è svenduto a circa duecento.

La pubblicità del corso promosso sull’account Instagram di Emily Pellegrini.

Lasciando da parte un momento i ragionevoli dubbi sull’etica e la competenza dimostrate fin qui dal Professor Ep, se per caso state pensando di lanciarvi anche voi nel settore immaginando di fare soldi facilmente in questa versione 2024 della febbre per il mining domestico delle criptovalute, beh, pensateci due volte.

I dati indicano infatti che fare soldi esclusivamente generando immagini di modelle virtuali è cosa assai rara. Ci sono alcune superstar del settore che guadagnano discretamente, ma il grosso degli aspiranti creatori e delle aspiranti creatrici fa la fame. Il mercato è saturo di gente che ci sta provando e fallendo.

Grazie ad alcune persone esperte del settore, ho constatato di persona che su piattaforme che promettono grandi guadagni tramite la vendita di immagini generate con l’intelligenza artificiale, come la piattaforma usata dal creatore di Emily Pellegrini, è sufficiente incassare trecento dollari nell’arco di un mese per trovarsi nel discutibile Olimpo del settore, ossia nella fascia del 10% dei creatori che guadagnano di più. Il restante 90%, in altre parole, guadagna di meno.

Gli incassi e il piazzamento di una influencer virtuale su Fanvue.

Molte influencer virtuali che nei mesi scorsi erano state segnalate dai media come le avanguardie emergenti di un nuovo fenomeno oggi non rendono visibile il numero dei like o dei follower, o addirittura questi dati vengono nascosti dalla piattaforma stessa, per non far vedere che non le sta seguendo praticamente nessuno e che i guadagni promessi sono solo un miraggio per molti.

Quelli che guadagnano davvero, invece, sono i fornitori dei servizi e dell’hardware necessario per generare queste immagini sintetiche, proprio come è avvenuto per le criptovalute. Quando si scatena una corsa all’oro, conviene sempre essere venditori di picconi.

Fonti aggiuntive e ulteriori dettagli:


La seconda storia di questo podcast arriva da Hong Kong. Siamo a febbraio del 2024, e scoppia la notizia di una truffa da 25 milioni di dollari ai danni di una multinazionale, effettuata con la tecnica del deepfake, la stessa usata nella storia precedente con altri scopi.

Un operatore finanziario che lavora a Hong Kong si sarebbe fatto sottrarre questa ragguardevolissima cifra perché dei truffatori avrebbero creato una versione sintetica del suo direttore finanziario, che stava a Londra, e l’avrebbero usata per impersonare questo direttore durante una videoconferenza di gruppo, nella quale anche gli altri partecipanti, colleghi dell’operatore, sarebbero stati simulati sempre con l’intelligenza artificiale, perlomeno stando alle dichiarazioni attribuite alla polizia di Hong Kong [Rthk.hk, con video del portavoce della polizia, Baron Chan; The Register].

Dato che tutti i partecipanti alla videochiamata sembravano reali e avevano le sembianze di colleghi, quando l’operatore ha ricevuto l’ordine di effettuare quindici transazioni verso cinque conti bancari locali, per un totale appunto di 25 milioni di dollari, ha eseguito le istruzioni, e i soldi hanno preso il volo.

L’ipotesi che viene fatta dalla polizia è che i truffatori abbiano scaricato dei video dei vari colleghi e li abbiano usati per addestrare un’intelligenza artificiale ad aggiungere ai video una voce sintetica ma credibile. Il malcapitato operatore si sarebbe accorto del raggiro solo quando ha chiamato la sede centrale dell’azienda per un controllo.

La notizia viene accolta con un certo scetticismo da molti addetti alla sicurezza informatica. Già simulare un singolo volto e una singola voce in maniera perfettamente realistica è piuttosto impegnativo, figuriamoci simularne due, tre o più contemporaneamente. La potenza di calcolo necessaria sarebbe formidabile. Non c’è per caso qualche altra spiegazione a quello che è successo?

[The Standard presenta una ricostruzione un po’ diversa degli eventi: solo il direttore finanziario sarebbe stato simulato e gli altri quattro o sei partecipanti sarebbero stati reali. “An employee of a multinational company received a message from the scammer, who claimed to be the “Chief Financial Officer” of the London head office, asking to join an encrypted virtual meeting with four to six staffers. The victim recalled that the “CFO” spent most of the time giving investment instructions, asking him to transfer funds to different accounts, and ending the meeting in a hurry. He found that he was cheated after he made 15 transactions totaling HK$200 million to five local accounts within a week and reported to the police. It was discovered that the speech of the “CFO” was only a virtual video generated by the scammer through deepfake. Police said other employees of the same company were also instructed to attend the meeting.”]

Otto mesi dopo, cioè pochi giorni fa, un esperto di sicurezza, Brandon Kovacs, affascinato da quella truffa milionaria, ha dimostrato alla conferenza di hacking DEF CON che in realtà una videoconferenza nella quale tutti i partecipanti, tranne la vittima, sono in realtà delle simulazioni indistinguibili dagli originaliè fattibile, ed è fattibile con apparecchiature piuttosto modeste e sicuramente alla portata economica di una banda di criminali che spera in un bottino di svariati milioni di dollari.

La parte più impegnativa di quest’impresa è procurarsi delle riprese video delle persone da simulare. Queste registrazioni servono per addestrare un’intelligenza artificiale su misura a generare un deepfake in tempo reale della persona specifica. Ma oggigiorno praticamente chiunque lavori in un’azienda ha ore e ore di riprese video che lo riguardano nel contesto ideale per addestrare un’intelligenza artificiale: le registrazioni delle videoconferenze di lavoro alle quali ha partecipato.

Kovacs ha messo alla prova quest’ipotesi: è possibile creare un clone video di qualcuno usando solo informazioni pubblicamente disponibili e software a sorgente aperto, cioè open source?

La risposta è sì: insieme a una collega, Alethe Denis, di cui aveva le registrazioni pubblicamente disponibili delle sue interviste, podcast e relazioni a conferenze pubbliche, ha addestrato un’intelligenza artificiale e si è procurato una fotocamera digitale reflex professionale, delle luci, una parrucca somigliante ai capelli della collega, un telo verde e del software, e ha usato il deepfake generato in tempo reale come segnale di ingresso del microfono e della telecamera per una sessione di Microsoft Teams, nella quale ha parlato con i figli della collega, spacciandosi per lei in voce e in video in diretta. I figli ci sono cascati completamente, e se un figlio non si accorge che sua mamma non è sua mamma, vuol dire che l’inganno è più che adeguato.

Creare un deepfake del genere, insomma, non è più un’impresa: il sito tecnico The Register nota che un software come DeepFaceLab, che permette di addestrare un modello per creare un deepfake di una persona specifica, è disponibile gratuitamente. Anche il software per l’addestramento della voce esiste in forma open source e gratuita: è il caso per esempio di RVC. E la scheda grafica sufficientemente potente da generare le immagini del volto simulato in tempo reale costa circa 1600 dollari.

In pratica, Kovacs ha creato un kit per deepfake pronto per l’uso [mini-demo su LinkedIn]. Un kit del genere moltiplicato per il numero dei partecipanti a una videoconferenza non è a buon mercato per noi comuni mortali, ma è sicuramente una spesa abbordabile per un gruppo di criminali se la speranza è usarlo per intascare illecitamente 25 milioni di dollari. E quindi l’ipotesi della polizia di Hong Kong è plausibile.

Non ci resta che seguire i consigli di questa stessa forza di polizia per prevenire questo nuovo tipo di attacco:

  • primo, avvisare che esiste, perché molti utenti non immaginano nemmeno che sia possibile;
  • secondo, non pensare che il numero dei partecipanti renda particolarmente difficile questo reato;
  • e terzo, abituare e abituarsi a confermare sempre le identità delle persone che vediamo in video facendo loro delle domande di cui solo loro possono sapere la risposta.

E così la demolizione della realtà fatta dall’intelligenza artificiale prosegue inesorabile in entrambe queste storie: non possiamo più fidarci di nessuna immagine, né fissa né in movimento, ma possiamo fare affidamento su una costante umana che non varia nel tempo: la capacità e la passione universale di trovare il modo di usare qualunque tecnologia per imbrogliare il prossimo.

Fonte aggiuntiva: Lights, camera, AI! Real-time deepfakes coming to DEF CONThe Register

Podcast RSI – Frodi milionarie con numeri di telefono falsificati, in manette i fornitori: il caso Russian Coms

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


[CLIP: Squillo di telefono]

Il vostro telefonino squilla all’improvviso. Sul suo schermo compare il numero della vostra banca. Rispondete, e una voce molto precisa e professionale vi informa, con il tono leggermente spassionato di chi ha detto queste stesse parole infinite volte, che è successo quello che temevate e che un po’ tutti temiamo. Dei criminali informatici hanno avuto accesso al vostro conto corrente.

Per fortuna la vostra banca ha bloccato il tentativo di frode e vi sta chiamando appunto per informarvi della situazione e per chiedervi di smettere di usare le vostre coordinate bancarie attuali e sostituirle con quelle nuove, che vi verranno dettate tra un momento. A voi non resta che trasferire il saldo del conto dalle coordinate attuali a quelle nuove, e tutto sarà a posto.

Ma come avete probabilmente intuito, la chiamata è una messinscena, il numero che compare sul vostro schermo è stato falsificato, la voce è quella alterata digitalmente di un criminale che finge di essere un funzionario antifrode, e le coordinate nuove servono per convincervi a trasferire volontariamente i vostri soldi su un conto controllato dal malvivente.

Fin qui niente di nuovo, ma questa non è la storia dell’ennesimo caso di frode bancaria informatica: è la storia di Russian Coms, un vero e proprio servizio commerciale di assistenza tecnica ai criminali, il cosiddetto crime as a service, che vendeva kit chiavi in mano per aspiranti truffatori e ha permesso di derubare centinaia di migliaia di persone in oltre cento paesi per un totale di svariate decine di milioni di dollari.

Dico “vendeva” perché Russian Coms è stato sgominato dalle forze dell’ordine, arrestando varie persone e soprattutto prendendo il controllo dei server sui quali i criminali gestivano i rapporti con la propria clientela, promettendo discrezione e riservatezza. Ma ora tutti i dati di quei rapporti sono nelle mani degli inquirenti, e sul canale Telegram di Russian Coms è comparso un avviso: “tutto è stato compromesso, non importa quale software stiate usando. Anche tutti gli altri fornitori sono stati compromessi”.

L’avviso sul canale Telegram di Russian Coms. Fonte: National Crime Agency.

In altre parole, si salvi chi può.

Questo fuggi fuggi generale è un’occasione rara per gettare luce sulla filiera del crimine informatico e sulle sue tecniche, per riconoscerle e difendersi meglio, ma anche per rispondere a un paio di curiosità che magari vi siete posti: ma dove vanno esattamente i criminali online a procurarsi i ferri del mestiere? Vanno nel dark web? Sono tutti esperti del fai da te informatico, dediti al male? E poi, perché è possibile falsificare il numero del chiamante?

Benvenuti alla puntata del 9 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia nel 2021, quando nasce un gruppo di criminali online che si fa chiamare Russian Coms anche se non ha nessun collegamento noto con la Federazione Russa. La sua specialità è offrire ad altri criminali servizi di caller ID spoofing, ossia di falsificazione del numero del chiamante. Servizi che fanno comparire sui telefonini delle persone chiamate un numero appartenente a una banca, a una compagnia telefonica o a una forza di polizia, per conquistare la fiducia di queste persone e aiutare così a carpirne i dati personali, le carte di credito e i soldi.

Russian Coms comincia offrendo ai propri clienti dei telefonini Android appositamente personalizzati, dotati di app finte che li fanno sembrare normali telefoni in caso di sequestro da parte della polizia, di VPN per rendere meno tracciabili le attività criminali per le quali vengono usati, e anche di una app di autodistruzione che cancella istantaneamente la memoria dello smartphone in caso di necessità. Successivamente offre anche lo stesso servizio tramite una web app.

Russian Coms propone contratti di sei mesi che costano circa 1300 euro in tutto, sono pagabili con criptovalute e vengono pubblicizzati su Snapchat, Instagram e Telegram, e su un normalissimo sito Web, Russiancoms.cm. Non provate a visitarlo adesso: non ci troverete nulla. Lo so perché ho provato io per voi.

Avete capito bene: niente dark web, ma tutto sfacciatamente alla luce del sole, sul Web normale, sui social network, come se niente fosse.

Le offerte di contratto sul sito Web di Russian Coms. Fonte: National Crime Agency.

Il servizio è completo e professionale: le chiamate sono cifrate, viene offerto un software che altera la voce in tempo reale, i costi delle telefonate internazionali sono inclusi nel canone, e naturalmente c’è un’assistenza clienti disponibile ventiquattr’ore su ventiquattro, sette giorni su sette. Un livello di customer care invidiabile, migliore di quello di tante aziende regolari.

Gli affari di Russian Coms vanno bene. I suoi clienti arrivano a saccheggiare conti correnti in ben 107 paesi, dagli Stati Uniti alla Norvegia, dalla Francia alle Bahamas. Fra il 2021 e il 2024, gli utenti paganti di Russian Coms effettuano milioni di chiamate a milioni di vittime, fingendo di rappresentare aziende di buona reputazione e facendosi dare soldi per merci mai consegnate, spacciandosi per banche per accedere ai conti correnti delle persone chiamate, e organizzando in alcuni casi il ritiro fisico, fatto di persona, di carte di debito e di credito con la scusa che andavano sostituite per motivi di sicurezza. Il sistema funziona. Nel Regno Unito, per esempio, il danno medio ammonta a oltre 9000 sterline (circa 10.000 euro o franchi) per ciascuna delle circa 170.000 vittime.

Ma a marzo 2024 le cose prendono una brutta piega per i membri di Russian Coms.


Dopo mesi di indagini, gli agenti della National Crime Agency britannica arrestano due uomini di 26 e 28 anni a Londra. Gli inquirenti ritengono che si tratti degli sviluppatori e degli amministratori del servizio.

Nei giorni successivi, il sito di Russian Coms viene disattivato, e il 12 aprile viene arrestato, sempre a Londra, un altro uomo che viene considerato uno degli addetti alla consegna di persona degli smartphone modificati. Pochi giorni fa è stato arrestato, sempre nel Regno Unito, uno dei clienti di Russian Coms, e inoltre l’Europol ha in corso altre operazioni analoghe in vari altri paesi.

Gli agenti britannici hanno reso pubblici i dettagli di questa vicenda il primo agosto scorso, pubblicando anche un video dell’irruzione e dell’arresto e una schermata tratta dal sito di Russian Coms che ne illustra il tariffario.

[rumore dell’irruzione]

Sul canale Telegram di Russian Coms i messaggi dei criminali sono stati sostituiti da un avviso che informa la clientela, per così dire, che il servizio “è ora sotto il controllo delle forze dell’ordine internazionali” e annuncia che “La polizia verrà a trovarvi presto”, con tanto di emoji sorridente ma non troppo.

L’avviso sul canale Telegram di Russian Coms. Fonte: National Crime Agency.

La National Crime Agency sottolinea che anche se le tecnologie sofisticate e le tecniche professionali usate da gruppi come Russian Coms “promettono l’anonimato, a insaputa dei loro utenti criminali registrano e conservano i loro dati, e quindi è possibile identificare chi sono e come operano”.

Il fatto che i server dei fornitori del servizio siano stati acquisiti dalle forze dell’ordine implica un bottino ingentissimo di dati, e soprattutto di identità di vittime e truffatori, che fotografa l’intera organizzazione e la sua clientela con un dettaglio che si vede di rado. La polizia londinese ha dichiarato di aver svolto controlli incrociati su oltre 100.000 dati, compresi indirizzi IP, numeri di telefono e soprattutto nomi, per identificare i sospettati e rintracciare anche le loro vittime.

L’obiettivo di questo intervento e del suo annuncio al pubblico è minare in generale la fiducia dei malviventi in questi fornitori di servizi e quindi spezzare la filiera del crimine organizzato, ma è anche un’occasione per ricordare al pubblico alcune regole di cautela da adottare per non finire tra le vittime di questi professionisti dei reati digitali.

Se ricevete una chiamata inattesa di qualcuno che dice di rappresentare la vostra banca, un servizio finanziario, un corriere o qualunque ente ufficiale e vi mette sotto pressione chiedendovi di prendere una decisione immediata riguardante del denaro oppure vi chiede dati personali, riagganciate e chiamate subito il numero che trovate sul sito dell’ente o del servizio in questione o sul retro della vostra carta di credito o di debito. Nessuna azienda seria e nessun ente vi metterà mai fretta chiedendovi di prendere subito decisioni importanti per telefono.


Vicende come quella di Russian Coms rivelano che i criminali online non sono tutti esperti del settore, non sono tutti geni malvagi dell’informatica: sono molto spesso dei semplici consumatori opportunisti, a volte inetti, di tecnologie sviluppate da altri e comprate chiavi in mano, senza sapere nulla del loro funzionamento, e possono commettere questo tipo di reati solo perché trovano facilmente chi fornisce loro i grimaldelli informatici necessari.

C’è anche un altro aspetto messo in luce da questo successo delle forze di polizia contro il crimine online, ed è il fatto a prima vista assurdo che il sistema telefonico mondiale consenta di falsificare il numero del chiamante.

Se non ci fosse questa possibilità, i malviventi perderebbero un appiglio psicologico molto importante nel costruire la propria credibilità e nel conquistare la fiducia delle loro vittime, che non si aspettano che esista una funzione del genere e si fidano del numero che vedono sul proprio schermo. Ma allora perché gli operatori telefonici non cambiano le cose, visto che questa possibilità di falsificazione consente frodi da decine di milioni di dollari come quella di Russian Coms?

La risposta, poco intuitiva, è che in realtà ci sono dei casi legittimi nei quali chi chiama ha bisogno di far comparire un numero differente da quello effettivo, come per esempio un call center che effettua chiamate per conto di varie aziende, oppure una ditta che ha varie sedi ma vuole presentarsi ai clienti sempre con lo stesso numero per non creare confusione, e quindi le compagnie telefoniche devono lasciare aperta questa possibilità.

Tuttavia possono mettere delle regole, per cui per esempio il numero da visualizzare (il cosiddetto Presentation Number) non può appartenere a un paese differente da quello del numero effettivo (il cosiddetto Network Number). E infatti alcuni operatori telefonici lo fanno [lo spiega qui Ofcom per il Regno Unito]. Ma per tutta risposta, i criminali eludono questo filtro procurandosi numeri di telefono nazionali.

Per ogni difesa, insomma, i malviventi inventano un attacco che la scavalca dal punto di vista strettamente tecnico. Ma se si riesce a far salire il costo e la complessità di questo attacco, diventa meno conveniente effettuarlo e le persone capaci di compierlo e di procurarsi le risorse necessarie diventano meno numerose. E se la difesa adottata costringe per esempio gli aggressori a usare numeri di telefono del paese che vogliono colpire, quei criminali non possono più agire impunemente dall’estero ma devono risiedere localmente, e questo non solo complica la logistica di questi reati ma rende enormemente più semplici gli interventi di giustizia e di polizia, che non vengono più ostacolati dalla necessità di rogatorie e coordinamenti internazionali interforze.

Le soluzioni tecniche, dunque, ci sono [STIR/SHAKEN, CLI authentication, eccetera]; il problema è mettere d’accordo tutti gli operatori del mondo su quale soluzione adottare, coordinarli su questa adozione senza trovarsi con interi paesi bloccati per errore, e convincerli ad affrontare la spesa del cambiamento. Buona fortuna.

In attesa di quel momento, a noi utenti non resta altro che imparare a essere diffidenti su tutto, anche su un concetto in teoria elementare come il numero di telefono di chi ci chiama e ci compare sullo schermo.

Fonti

Podcast RSI – Interfacce touch per auto, 40 anni di seduzione pericolosa

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.


[CLIP: Rumore di auto elettrica che parte da ferma e accelera]

Le automobili di oggi sono dei computer su ruote, hanno un numero sempre maggiore di funzioni e servizi, e si pone il problema di come permettere al conducente di gestire tutta questa complessità. Per usare il gergo informatico, è necessario adeguare la cosiddetta interfaccia utente.

La soluzione sempre più diffusa è uno schermo tattile, che sostituisce le levette e i pulsanti fisici, ma ci sono anche i comandi capacitivi, ossia finti pulsanti che si azionano semplicemente sfiorandoli e non si muovono fisicamente.

Eppure la sensazione di molte persone che guidano questi veicoli è che le interfacce touch, una volta passato l’effetto wow e superato l’impatto estetico seducente, siano scomode e in alcuni casi addirittura pericolose. Cominciano a essere pubblicate anche delle ricerche tecniche che sembrano confermare questa sensazione. Ma allora perché quasi tutti i costruttori di automobili insistono a usare questo tipo di interfaccia?

Questa è la storia delle interfacce touch nelle automobili. Una storia che comincia, sorprendentemente, nel 1986, quasi quarant’anni fa, e che rivela il lungo flirt dell’industria automobilistica con una tecnologia in apparenza avveniristica ma in realtà perlomeno controversa. Un flirt nel quale la persona più importante, cioè il conducente, finisce spesso per trovarsi nel ruolo del terzo incomodo che deve fare buon viso a cattivo gioco.

Benvenuti alla puntata del 2 agosto 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Se qualcuno nomina il concetto di interfaccia touch per le auto, o in altre parole parla di automobili che si comandano in gran parte non con dei pulsanti, delle manopole o delle levette fisiche ma usando uno schermo interattivo e sensibile al tocco, il pensiero corre facilmente a una marca ben precisa: Tesla. Le sue auto, esclusivamente elettriche, sono famose per i loro schermi giganti incastonati nel cruscotto, da usare per comandarne le mille funzioni offerte dal software di bordo.

Ma in realtà la prima interfaccia touch, ossia il primo schermo sensibile al tocco presente in un’automobile risale a molto prima della nascita del marchio Tesla: risale addirittura al 1986. In quell’anno la casa automobilistica statunitense Buick presentò il Graphic Control Center, uno schermo tattile da nove pollici, incastonato nel cruscotto della sua coupé Riviera di settima generazione. Era un monitor a tubo catodico, monocromatico, con caratteri verdi su sfondo nero, e a detta della casa costruttrice riuniva in un unico elemento ben 91 funzioni che altrimenti avrebbero richiesto pulsanti, selettori, interruttori e manopole sul cruscotto.Da questo schermo sensibile al tatto si comandavano per esempio l’aria condizionata, l’autoradio, i sistemi diagnostici e si monitoravano i consumi di carburante.

Lo schermo touch di una Buick Riviera, versione del 1989. Immagine tratta da questo video.

Fu un fiasco, perché i conducenti si lamentarono che usare lo schermo tattile era scomodo e li distraeva troppo dalla guida, obbligandoli a togliere gli occhi dalla strada molto di più di quanto facessero quei comandi fisici che il monitor tattile aveva sostituito. Buick non installò più questo sistema touch, e l’idea delle interfacce tattili rimase parcheggiata con le quattro frecce per circa vent’anni.

Nel 2001 arrivò infatti BMW, che introdusse iDrive, un’interfaccia di gestione incentrata su uno schermo da quasi 9 pollici di diagonale, finalmente piatto e non a tubo catodico ma a LCD, che sostituiva tutta la pulsantiera del sistema di intrattenimento di bordo. Non era comandabile toccandolo: la persona alla guida vi interagiva tramite una manopola fisica che permetteva di esplorare i suoi vari menu e sottomenu.

Gli schermi nei cruscotti cominciarono man mano a diffondersi, ma solo come coprotagonisti di un pannello comandi che restava affollato di bottoni. Tesla arrivò con la sua interfaccia touch soltanto nel 2012, ma lo fece col botto, piazzando al centro del cruscotto della sua prima berlina, la Model S, un monumentale schermo tattile da ben 17 pollici, ed eliminando quasi completamente i pulsanti fisici. Praticamente tutte le funzioni dell’auto, comprese quelle importanti per la sicurezza di guida come l’accensione dei fendinebbia, passavano da quello schermo, con un effetto avveniristico che fece immediatamente presa nell’opinione pubblica. E la tendenza di questa marca al minimalismo dei pulsanti è proseguita con i modelli successivi. Nelle Tesla più recenti, anche la direzione delle bocchette di ventilazione si comanda dallo schermo touch, è scomparso il quadrante degli strumenti, quello che stava dietro il volante, e sono sparite anche le levette per azionare le frecce, sostituite da tasti capacitivi, ossia delle superfici a sfioramento integrate nelle razze del volante. Anche le marce si selezionano toccando lo schermo oppure dei tasti capacitivi inseriti in modo quasi invisible nella plafoniera.

Ora moltissimi costruttori di automobili mettono un grande schermo tattile al centro dei loro cruscotti: è la moda di design del momento, perché fa colpo sul cliente, elimina tantissimi anfratti che attirano antiestetica polvere, ma soprattutto fa risparmiare tanti soldi al costruttore, che si trova ad avere meno componenti e sottocomponenti da montare durante la fabbricazione, quindi meno costi di manodopera, e non deve gestire una selva di pulsanti, cavi, levette e relativi ricambi da tenere a magazzino per anni. Inoltre consente di aggiungere nuove funzioni con un semplice aggiornamento software, senza dover installare pulsanti extra o dover rifare gli stampi e le procedure di assemblaggio per offrire un cruscotto modificato.

Il caso forse più estremo è quello di Mercedes, che nella sua EQS offre in opzione il cosiddetto Hyperscreen, uno schermo largo 56 pollici, circa un metro e mezzo, composto da tre pannelli da 12 pollici e da uno da quasi 18 pollici.

Ma non è un po’ troppo tutto questo?


Euro NCAP, una delle più prestigiose organizzazioni europee per la sicurezza automobilistica, sostenuta dall’Unione Europea e da numerosi ministeri nazionali dei trasporti, ha annunciato a marzo del 2024 che i suoi nuovi test di sicurezza, previsti per il 2026, incoraggeranno le case automobilistiche a usare “comandi fisici e separati per le funzioni di base in maniera intuitiva per limitare il tempo trascorso con gli occhi distolti dalla strada e quindi promuovere una guida più sicura”. Inoltre ha dichiarato che “l’uso eccessivo degli schermi tattili è un problema che tocca l’intero settore” perché “obbliga i conducenti a spostare lo sguardo dalla strada e aumenta il rischio di incidenti dovuti alla distrazione” [Interesting Engineering].

Già nel 2022 una rivista di settore svedese aveva dimostrato che i pulsanti fisici sono solitamente più sicuri degli schermi tattili. Lo aveva fatto misurando il tempo di spostamento dello sguardo necessario per compiere quattro compiti relativamente semplici. Su una Volvo V70 del 2005, dotata solo di pulsanti, il tempo complessivo era stato di dieci secondi. Sulla BMW iX, basata su uno schermo touch, le stesse operazioni avevano richiesto il triplo del tempo, trenta secondi, e su una MG Marvel R erano serviti addirittura 45 secondi di distrazione.

Anche senza arrivare al rigore di un test come questo, è abbastanza intuitivo che se ci si trova improvvisamente in un banco di nebbia è molto più sicuro avere un pulsante per accendere i fendinebbia, un pulsante che si può trovare e premere senza togliere lo sguardo dalla strada in un momento critico del genere, che avere una zona specifica dello schermo che bisogna toccare per attivare un menu dal quale bisogna poi scegliere l’icona giusta e centrarla con il dito, senza nessun riscontro fisico di averla toccata correttamente.

Va detto che pulsanti e interfacce fisiche non sono automaticamente una garanzia di sicurezza. Come gli informatici e i piloti collaudatori ben sanno, qualunque interfaccia può causare confusione, distrazione e disastri anche fatali se non è pensata bene. Un caso tristemente noto in campo automobilistico è quello della leva del cambio della Fiat Chrysler Grand Cherokee del 2015. Una leva tangibile, impugnabile, che però era stata concepita in modo da non mantenere fisicamente una posizione differente a seconda della marcia inserita. Tornava sempre alla posizione centrale, lasciando come unica indicazione del suo stato una piccola spia luminosa.

Molti conducenti erano scesi dall’auto pensando di averla messa in Park quando in realtà era ancora in Drive o in folle o addirittura in retromarcia, col risultato che l’auto si muoveva da sola. Alla fine, dopo almeno 41 casi di ferimento legati a questa interfaccia, Fiat Chrysler era stata costretta a richiamarne oltre un milione di esemplari. Questo errore di progettazione dell’interfaccia è fra le probabili cause della morte nel 2016 dell’attore di Star Trek Anton Yelchin, schiacciato contro un cancello di sicurezza dalla propria Grand Cherokee lasciata inavvertitamente in folle in pendenza.

Non è solo una questione di schermi tattili al posto dei pulsanti: anche la recente moda di adottare comandi capacitivi a sfioramento ha i suoi problemi di interfaccia. Alcuni proprietari di auto Volkswagen affermano infatti che questi pseudo-pulsanti, presenti sul volante, causano incidenti.

Siccome si tratta di superfici estremamente sensibili al tocco, basta sfiorarle inavvertitamente, magari durante una manovra di parcheggio, per dare i comandi corrispondenti. Finché si alza per errore il volume dell’autoradio non è un problema grave, ma se si riattiva involontariamente il cruise control o tempomat, i cui comandi sono sulle razze del volante, l’auto accelera di colpo e a sorpresa. Le segnalazioni di incidenti di questo genere si stanno accumulando nei forum online [Ars Technica], ma per ora manca un’inchiesta formale, per cui sono dati da prendere con un pizzico di cautela. In ogni caso Volkswagen ha deciso di non attendere test formali e ha annunciato sin da ottobre 2022 che ripristinerà i pulsanti fisici veri e propri sul volante, scrivendo che “è quello che ci chiedono i clienti”.

Insomma, se vi lamentate che le interfacce touch di oggi non vi vanno a genio, non siete soli e non siete diventati brontoloni che non sanno stare al passo con i tempi. Il problema è molto concreto e diffuso, tanto che esistono aziende che vendono pulsantiere Bluetooth per ridare agli utenti dei bottoni da pigiare almeno per le funzioni più frequenti che sarebbero invece accessibili soltanto toccando uno schermo.

Il minimalismo è una scelta di design valida nell’informatica di consumo, dove l’estetica può essere privilegiata tranquillamente rispetto alla velocità e alla intuitività d’uso, ma i dati indicano che non è affatto una scelta altrettanto valida nella sicurezza stradale, anche se per molti costruttori di automobili il ritorno alle interfacce utente fisiche, con i relativi costi e le associate complessità di fabbricazione, è letteralmente un tasto che non vogliono toccare.

Fonti

Podcast RSI – CrowdStrike, cronaca e cause di un collasso mondiale


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

2024/07/27 00:20. Il testo è stato aggiornato per correggere un errore sul fatturato di Crowdstrike.


[CLIP: inizio del TG serale RSI del 19 luglio 2024]

Questa storia inizia il 19 luglio 2024, un venerdì, precisamente alle 6 e 9 minuti del mattino, ora dell’Europa centrale. In quel momento una società di sicurezza informatica sconosciuta al grande pubblico diffonde ai propri clienti un aggiornamento molto piccolo, solo 40 kilobyte, meno di una singola foto di gattini [CLIP: voce di Trilli, la gatta dei vicini che abita con noi], che però manda in tilt circa 8 milioni e mezzo di computer Windows che lo ricevono e lo installano.

Sono computer che gestiscono banche, borse, ospedali, aeroporti, sistemi di pagamento, emittenti televisive e tanti altri servizi vitali. Non funziona praticamente più niente: non si vola, non si opera, si paga solo in contanti, ammesso di averli in una società sempre più cashless e contactless. Quel venerdì diventa uno dei più grossi collassi informatici mondiali di sempre, una sorta di Millennium Bug arrivato con 24 anni di ritardo.

Questa è la storia di come un singolo aggiornamento di un unico software ha mandato in tilt i sistemi informatici di mezzo mondo. Una storia che si può raccontare per bene, ora che la nebbia informativa delle prime ore si è diradata ed è stato pubblicato il rapporto tecnico sull’incidente, mentre i tecnici stanno ancora lavorando freneticamente per rimettere in funzione i propri computer e i criminali informatici approfittano del caos per colpire. Ma è anche la storia di chi si è scoperto immune al caos e di cosa si può fare per evitare che uno sconquasso del genere accada di nuovo.

Benvenuti alla puntata del 26 luglio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


C’è una vignetta che ogni informatico conosce bene, pubblicata nel 2020 da Randall Munroe sul suo sito Xkcd.com. Raffigura una catasta pericolante di vari blocchi di dimensioni differenti, etichettata come “tutta l’infrastruttura digitale moderna”. Questa catasta poggia su due soli fragili punti d’appoggio, uno dei quali è un esile blocchetto, descritto come “un progetto che una persona a caso nel Nebraska gestisce dal 2003 senza neppure un grazie”. È una rappresentazione molto azzeccata di come si reggono molti dei sistemi informatici dai quali dipendiamo: stanno in piedi per miracolo e perché non tira il vento.

Al posto della persona a caso nel Nebraska, venerdì scorso c’era un’azienda del Texas, CrowdStrike, che ha circa ottomila dipendenti e un fatturato di circa tre miliardi di dollari l’anno [Sec.gov, pag. 13; nel podcast dico 100 milioni, ma è un dato riferito al 2017] e fornisce servizi di sicurezza informatica a gran parte delle società più importanti del pianeta, ma il risultato è stato praticamente lo stesso.

I fatti nudi e crudi pubblicati nel rapporto tecnico preliminare di CrowdStrike sull’incidente informatico planetario sono impietosi. L’azienda ha diffuso contemporaneamente a tutti i propri clienti un aggiornamento difettoso di un file di configurazione di un proprio prodotto di sicurezza, denominato Falcon, una sorta di super-antivirus destinato alle aziende.

Il difetto causava il crash dei computer Windows sui quali veniva installato, producendo una vistosissima schermata blu di errore che ha indotto molti a pensare che il guasto planetario fosse stato causato da un malfunzionamento di Windows, anche perché chi usa sistemi operativi diversi da Windows, come macOS, Unix o Linux, ha continuato a lavorare indisturbato.

Una serie di schermate blu (BSOD, blue screen of death) causate dall’aggiornamento di CrowdStrike all’aeroposto di LaGuardia, New York. Credit: By Smishra1 – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=150535443.

Ma Microsoft in questo caso non c’entra. Infatti i tanti utenti privati di Windows e le tante piccole e medie imprese che usano Windows ma non adoperano CrowdStrike per la propria difesa contro gli attacchi informatici hanno continuato a lavorare come al solito.

CrowdStrike si è accorta del problema e ha smesso di diffondere l’aggiornamento difettoso un’ora e mezza dopo l’inizio della sua disseminazione, ma nel frattempo quell’aggiornamento aveva causato il crash di circa otto milioni e mezzo di computer nelle principali aziende del pianeta, secondo le stime di Microsoft.

Il problema è che questo tipo di crash non è risolvibile semplicemente riavviando il computer, come si fa di solito. Al riavvio, infatti, Windows carica di nuovo l’aggiornamento difettoso e va di nuovo in crash. Per uscire da questo circolo vizioso è necessario ricorrere a interventi manuali piuttosto complicati, che vanno fatti per ogni singolo computer colpito e spesso vanno fatti dando istruzioni a persone che non sono esperte ma sono le uniche che hanno fisicamente accesso ai computer in crisi.

Nei giorni successivi, Microsoft ha rilasciato uno strumento di recupero che semplifica leggermente il ripristino del funzionamento dei computer colpiti, ma comporta comunque la creazione di una chiavetta USB di avvio e l’esecuzione di una serie di istruzioni ben precise, e non è usabile sui computer nei quali le porte USB sono state bloccate o disabilitate per sicurezza e sui computer i cui dischi rigidi sono protetti dalla crittografia di Microsoft, denominata BitLocker, o da quella di altri prodotti analoghi. In questo caso, infatti, serve anche un codice di sblocco della crittografia.

In altre parole, i computer più difficili da rimettere in funzione sono proprio quelli più protetti, che sono tipicamente quelli installati in ruoli essenziali. Per gli addetti alla manutenzione dei sistemi informatici aziendali è stato un bagno di sangue, anche perché molto spesso i codici di sblocco sono custoditi per praticità… su altri computer Windows. E quei computer, essendo essenziali per la sicurezza aziendale, sono fra quelli che scaricano e installano immediatamente gli aggiornamenti di sicurezza e quindi sono anche loro in crash e inaccessibili [The Register].

È un po’ come restare chiusi fuori casa perché si è rotta la chiave della porta d’ingresso e scoprire che la chiave di scorta, quella che abbiamo messo da parte per casi come questo, è dentro un cassetto chiuso a chiave. E la chiave di quel cassetto è in casa.


Mentre gli amministratori dei sistemi informatici colpiti ingeriscono dosi epiche di caffè e vedono sfumare il weekend e magari anche le ferie, la domanda che tanti si pongono è come possa accadere un disastro globale del genere e come si possa evitare che accada di nuovo.

La risposta è che CrowdStrike è quasi monopolista nel suo settore, e quindi un suo sbaglio ha effetti enormi su aziende che stanno al centro dell’economia mondiale. Servirebbe una diversificazione dei fornitori di sicurezza, e magari anche dei sistemi operativi, ma non c’è, e nessuno sembra interessato a richiederla.

Inoltre lo sbaglio in questione è avvenuto perché l’aggiornamento difettoso ha superato i controlli di sicurezza dell’azienda, come risulta dal rapporto tecnico preliminare. E li ha superati in ben due occasioni: la prima durante i controlli prima del rilascio, perché il software adibito al controllo, chiamato Content Validator, era a sua volta difettoso, e la seconda perché il software di CrowdStrike che riceveva l’aggiornamento, il cosiddetto Content Interpreter, non era in grado di gestire l’errore internamente e lo rifilava al sistema operativo, cioè Windows, che puntualmente andava in crash.

Questa sinfonia di errori ha poi trovato il suo gran finale nella scelta scellerata di diffondere l’aggiornamento a tutti i clienti contemporaneamente, che salvo emergenze assolute è una delle cose fondamentali da non fare assolutamente quando si aggiorna qualunque prodotto.

Come al solito, insomma, il disastro non è stato causato da un singolo difetto, ma da una catena di difetti, tutti piuttosto evidenti e prevedibili, e di eccessi di fiducia collettivi. Una catena che non ci si aspetta da un’azienda del calibro di CrowdStrike, che pure aveva una buona reputazione tra gli addetti ai lavori, avendo contribuito per esempio alle indagini sull’attacco nordcoreano alla Sony del 2014 e a quelle sulle fughe di dati ai danni del Partito Democratico statunitense nel 2015 e nel 2016.

I rimedi annunciati da CrowdStrike sono allineati con queste cause: il CEO dell’azienda, George Kurtz (ricordate questo nome), si è scusato profondamente per l’accaduto, e CrowdStrike dice che migliorerà i test interni da effettuare prima del rilascio dei suoi aggiornamenti e che adotterà la prassi dello staggered deployment, ossia del rilascio scaglionato, distribuendo gli aggiornamenti inizialmente a un gruppo di utenti ristretto per poi diffonderlo al resto della clientela solo dopo aver verificato che il gruppo ristretto non sta avendo malfunzionamenti. Inoltre darà alle aziende clienti la possibilità di selezionare quando e su quali loro computer vengono installati gli aggiornamenti.

Se state pensando che questi sono rimedi ovvi, che sarebbe stato opportuno adottare prima di causare un caos planetario, non siete i soli. Crowdstrike non è stata colpita dalla sfortuna di un evento improbabile, ma dalla concatenazione di malfunzionamenti perfettamente prevedibili. Ma come al solito, i soldi e la determinazione necessari per fare le cose per bene diventano sempre disponibili soltanto dopo che è successo il disastro evitabile.

E questa, purtroppo, è una prassi diffusa in moltissime aziende, non solo nel settore informatico. La domanda da porsi, forse, non è come mai sia successo questo incidente, ma come mai non ne succedano in continuazione, perché l’infrastruttura informatica mondiale è incredibilmente interdipendente e fragile. Per tornare a quella vignetta di Xkcd, l’informatica sta in piedi grazie a tanti omini del Nebraska che lavorano senza neppure un grazie. Perché finché le cose funzionano, la sicurezza e la qualità sono viste solo come un costo che disturba i profitti degli azionisti, e quando non funzionano è colpa degli amministratori dei sistemi informatici, fa niente se sono costretti a lavorare senza budget e senza personale.

Se siete uno o una di questi amministratori e state annuendo disperatamente perché vi riconoscete in questa descrizione, sappiate che non siete i soli, e che qualcuno, perlomeno, riconosce e apprezza il vostro lavoro. Grazie per le vostre notti insonni.


Intanto, però, c’è un altro gruppo di persone che ha reagito prontissimamente al caos informatico causato da CrowdStrike: i criminali informatici. Come avviene sempre in occasione di notizie che possono creare agitazione, confusione e panico, i malviventi ne hanno approfittato per tentare di mettere a segno i loro attacchi.

La società di sicurezza informatica Intego segnala infatti che il giorno stesso del collasso è iniziata la diffusione su Internet di falsi software di protezione, spacciati come rimedi preventivi da installare per evitare il blocco dei computer. Si tratta in realtà di malware, ossia di applicazioni infettanti, con nomi come Crowdstrike hotfix e similiE i criminali informatici stanno ricorrendo a mail, SMS e anche telefonate per convincere le persone a installare questi falsi rimedi.

Se ricevete inviti a installare software di questo tipo, o se andate su Internet a cercare rimedi al problema di CrowdStrike, diffidate di qualunque fonte non verificata o verificabile e attenetevi soltanto alle istruzioni di Microsoft o di CrowdStrike pubblicate sui loro siti. E ricordate che questo problema non riguarda tutti gli utenti di Windows, come molti media generalisti hanno fatto pensare, ma solo le aziende che hanno installato CrowdStrike, per cui è molto probabile che non abbiate alcun bisogno di aggiornamenti di nessun genere per proteggervi da questa situazione.

E per finire, una chicca: nel 2010 ci fu un incidente analogo a questo, quando un aggiornamento difettoso del software di sicurezza di McAfee fece crollare gran parte di Internet, cancellando per errore i file di sistema dei computer Windows XP che usavano il software di McAfee. All’epoca, il responsabile in capo della sicurezza di McAfee era George Kurtz. Quello che oggi è CEO di CrowdStrike.

Fonti aggiuntive

Podcast RSI – Svizzera, allarme per la falsa app governativa AGOV: è un malware che ruba dati, fatto per colpire i Mac


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.


[CLIP: L’inizio di uno degli spot classici “Get a Mac…” (2006-2009): quello che parla di virus per Windows e si vanta dell’immunità del Mac. La musica dello spot si intitola Having Trouble Sneezing ed è di Mark Mothersbaugh dei Devo]

Ben ritrovati dopo la breve pausa estiva di questo podcast! Riparto subito con un mito informatico da smontare, e da smontare in fretta, perché sta contribuendo al successo di una campagna di attacchi informatici che stanno prendendo di mira specificamente la Svizzera ma si stanno estendendo anche ad altri paesi.

Il mito è che i Mac siano immuni ai virus. Non è così, ma molti continuano a crederlo e si infettano scaricando app create appositamente dai criminali informatici. Se poi a questo mito si aggiunge il fatto che queste app infettanti fingono di essere applicazioni ufficiali governative, il successo della trappola è quasi inevitabile.

Questa è la storia di Poseidon, un malware per Mac, un’applicazione ostile che ruba i dati e le credenziali degli utenti di computer Apple spacciandosi per AGOV, un’applicazione di accesso ai servizi della Confederazione e delle autorità cantonali e comunali, per esempio per la compilazione e l’invio della dichiarazione d’imposta, ed è anche la storia di questo mito duro da estirpare della presunta invulnerabilità dei Mac.

Benvenuti alla puntata del 19 luglio 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Se nei giorni scorsi avete ricevuto una mail apparentemente firmata dall’Amministrazione federale svizzera e avete seguito il suo consiglio di scaricare e installare sul vostro computer l’applicazione AGOV delle autorità nazionali, come è successo a moltissimi residenti nella Confederazione, il vostro Mac è quasi sicuramente infetto e i vostri dati personali sono quasi sicuramente stati rubati.

L’allarme è stato lanciato dall’Ufficio federale della cibersicurezza, UFCS, alla fine del mese scorso. Il 27 giugno, segnala l’UFCS, “criminali informatici hanno avviato un’importante campagna di «malspam» contro cittadini della Svizzera tedesca. E-mail apparentemente provenienti da AGOV infettano gli apparecchi degli utenti di macOS con un malware denominato «Poseidon Stealer».”

Breve spiegazione per chi non abita in Svizzera: AGOV è il sistema di accesso online ai servizi delle autorità svizzere. Si trova presso Agov.ch ed è disponibile anche come app per smartphone Apple e Android, ma non come applicazione per computer. Agov è insomma un nome di cui gli svizzeri si fidano. Un nome perfetto per carpire la fiducia degli utenti.

I criminali informatici di cui parla l’UFCS hanno acquisito un malware di tipo stealer, ossia che ruba dati e credenziali di accesso, e lo hanno rimarchiato, presentandolo appunto come software di AGOV per Mac.

Sì, avete capito bene: i criminali hanno comperato il virus informatico già fatto. Questo specifico virus va sotto il nome generico di Atomic MacOS Stealer (o AMOS per gli amici), ed è stato ribattezzato Poseidon: è in vendita via Telegram sotto forma di licenza d’uso mensile che costa 1000 dollari al mese, secondo le informazioni raccolte dalla società di sicurezza informatica Intego. Il crimine informatico è un’industria, non una brigata di dilettanti, e quindi si è organizzato con una rete di fornitori. Atomic Stealer, o Poseidon che dir si voglia, è quello che oggi si chiama malware as a service, cioè un servizio di produzione e fornitura di virus per computer, disponibile al miglior offerente.

Le organizzazioni criminali, in altre parole, comprano il malware chiavi in mano e poi lo personalizzano in base al paese che vogliono prendere di mira. Per disseminarlo usano varie tecniche: una delle preferite è comperare spazi pubblicitari su Google, pagandoli profumatamente per far apparire i loro annunci apparentemente innocui in cima ai risultati di ricerca degli utenti.

Ovviamente questi criminali informatici non si presentano agli agenti pubblicitari di Google dicendo “Salve, siamo criminali informatici”, ma usano aziende prestanome.

La gente, poi, cerca per esempio Agov scrivendolo in Google e vede un elenco di risultati fra i quali spiccano le pubblicità dei criminali, che fingono di offrire software per accedere ai servizi delle autorità nazionali. È quindi facile, anzi inevitabile, che molti utenti clicchino su queste pubblicità, che sono fra l’altro difficili da distinguere dai risultati di ricerca autentici. Cliccandoci su, gli utenti vengono portati a un sito gestito dai truffatori, che propone di scaricare il presunto software governativo, che in realtà è il malware travestito. E chi lo scarica e lo installa, si infetta. Anche se ha un Mac. Anzi, soprattutto se ha un Mac, perché questo malware è fatto apposta per colpire gli utenti dei computer Apple.

Il mito dell’invulnerabilità dei Mac ha radici lontane. Per anni, Apple ha pubblicizzato i propri computer scrivendo cose come “I Mac non prendono i virus per PC” oppure “un Mac non è attaccabile dalle migliaia di virus che appestano i computer basati su Windows”. Frasi che tecnicamente non sono sbagliate, ma sono ingannevoli per l’utente comune, che le interpreta facilmente come “i Mac non prendono virus”, dimenticando quella precisazione “per PC” che cambia tutto.

Normalmente, infatti, i virus vengono creati per uno specifico sistema operativo e funzionano solo su quello, per cui per esempio un virus per Android non funziona su un tablet o smartphone iOS e quindi anche un virus scritto per Mac non fa un baffo a un utente che adopera Windows. Ma i virus per Mac esistono eccome. Tant’è vero che a giugno del 2012, dopo la comparsa di una raffica di virus fatti su misura per i Mac, Apple tolse con discrezione dal proprio sito quelle frasi, sostituendole con altre parole ben più blande (WiredSophos).

Eppure il mito continua a persistere.

Conoscere la tecnica di disseminazione dei malware usata dai criminali permette di capire subito un trucco da usare per difendersi preventivamente: si tratta di un piccolo ma importante cambiamento di abitudini, ossia smettere di usare Google, o un altro motore di ricerca, per accedere ai siti.

Moltissimi utenti, infatti, per andare per esempio su Facebook non digitano facebook.com nella casella di navigazione e ricerca ma scrivono semplicemente facebook in Google e poi cliccano sul primo risultato proposto da Google, presumendo che sarà quello giusto. I criminali lo sanno, e creano pubblicità che compaiono quando l’utente digita solo parte del nome di un sito invece del nome intero. In questo modo, l’utente clicca sulla pubblicità, credendo che sia un risultato di ricerca, e viene portato al sito dei truffatori, dove potrà essere imbrogliato a puntino.

Il modo giusto per essere sicuri di visitare un sito autentico è scriverne il nome per intero, compreso il suffisso .com, .ch, .it o altro che sia nella casella di navigazione e ricerca. E se è un sito che si prevede di consultare spesso, conviene salvarlo nei Preferiti, così basterà un solo clic sulla sua icona per raggiungerlo di nuovo con certezza. Meglio ancora, se il sito offre un’app, conviene usare quell’app, specialmente per i siti che maneggiano soldi, come per esempio i negozi online e le banche.

Questa tecnica di scrivere il nome per intero invece di cliccare sul risultato proposto al primo posto da Google si applica anche a un’altra tecnica usata dai criminali per portarci sui loro siti trappola: i link ingannevoli nelle mail. I criminali responsabili dell’attacco che ha colpito gli utenti svizzeri hanno usato proprio questa modalità.

Secondo le informazioni pubblicate dall’autorità nazionale di sicurezza informatica Govcert.ch, questi criminali hanno usato il servizio di mail di Amazon (che i filtri antispam normalmente non bloccano) per inviare mail, apparentemente spedite dalle autorità federali, che avvisavano gli utenti che da luglio 2024 sarebbe diventato obbligatorio usare il software AGOV per computer per accedere ai servizi federali, cantonali e comunali. La mail conteneva un link al motore di ricerca Bing (del quale gli utenti si fidano), che portava a un sito che a sua volta portava automaticamente a un altro sito, con un nome che somigliava a quello giusto, come per esempio agov-access.net oppure agov-ch.com, che ospitava il malware e aveva una grafica molto simile a quella del sito autentico.

Una schermata tratta dal sito dei truffatori. Fonte: Govcert.ch.

Il malware veniva presentato spacciandolo appunto per l’app AGOV per i Mac. Che, ripeto, in realtà non esiste.

Come al solito, insomma, l’attacco faceva leva sulla psicologia: i criminali hanno creato una situazione di stress per la vittima e le hanno messo fretta parlando di scadenze imminenti, e hanno creato un percorso rassicurante, che sembrava autorevole ma era in realtà pilotato dai malviventi.

A questi due ingredienti classici degli attacchi si è aggiunto il fatto che gli utenti Apple sono spesso convinti che i loro computer siano inattaccabili e quindi le loro difese mentali sono già abbassate in partenza.

Nel caso specifico di questo attacco, le autorità di sicurezza nazionali sono intervenute pubblicando avvisi e bollettini sui propri siti e anche sul sito Agov.ch, e pubblicando un’analisi tecnica molto approfondita [altre info sono su Abuse.ch]. Inoltre i siti che ospitavano il malware sono stati bloccati e disattivati. Ma è solo questione di tempo prima che i criminali ci riprovino. Sta a noi essere vigili e prudenti.

Se per caso siete stati coinvolti in questo attacco, l’UFCS vi raccomanda di eliminare immediatamente le e-mail che avete ricevuto e di fare una reinstallazione da zero del Mac se avete scaricato e installato il malware.

A tutto questo scenario di attacchi, contrattacchi, misure preventive e difensive conviene decisamente aggiungere anche un altro elemento fondamentale: l’antivirus. Il malware Poseidon viene riconosciuto da tutti i principali antivirus, per cui è opportuno installare sul proprio Mac un antivirus di una marca di buona reputazione. A differenza di Windows, macOS non ha un antivirus integrato vero e proprio ma ha solo una sorta di mini-antivirus che fa molto, ma non arriva al livello di protezione di un prodotto dedicato realizzato da aziende specializzate.

La parte più difficile dell’installazione di un antivirus su un Mac è… convincere l’utente che ne ha bisogno. Quel mito di invulnerabilità creato, sfruttato e poi silenziosamente ritirato più di dieci anni fa continua a restare radicato nelle abitudini delle persone. E a fare danni.

Podcast RSI – NASA, monitor giganti, piatti e a colori 60 anni fa. Con tecnologia svizzera


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

Ultimo aggiornamento: 2024/07/01 16:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Questa è l’ultima puntata prima della pausa estiva: il podcast tornerà il 19 luglio.


Gli appassionati di archeologia misteriosa li chiamano OOPART: sono gli oggetti fuori posto, o meglio fuori tempo. Manufatti che si suppone non potessero esistere nell’epoca a cui vengono datati e la cui esistenza costituirebbe un anacronismo. Immaginate di trovare una lavastoviglie o uno schema di sudoku dentro una tomba egizia mai aperta prima: sarebbe un OOPART. In realtà i presunti OOPART segnalati finora hanno tutti spiegazioni normali ma comunque affascinanti.

In informatica, invece, esiste uno di questi OOPART davvero difficile da spiegare. Questo oggetto apparentemente fuori dal tempo è un monitor gigante per computer, a colori, ultrapiatto, ad altissima risoluzione, che misura ben tre metri per sette ed è perfettamente visibile in piena luce. Prestazioni del genere oggi sono notevoli, ma si tratta di un manufatto che risale a sessant’anni fa, quando i monitor erano fatti con i tubi catodici, pesantissimi e ingombrantissimi.

La cosa buffa è che questo anacronismo extra large è sotto gli occhi di tutti, ma oggi nessuno ci fa caso. È il monitor gigante che si vede sempre nei documentari e nei film dedicati alle missioni spaziali: il mitico megaschermo del Controllo Missione.

13 aprile 1970. Il Controllo Missione durante una diretta TV trasmessa dal veicolo spaziale Apollo 13. A sinistra si vede lo schermo gigante a colori in alta risoluzione. A destra, la videoproiezione Eidophor a colori (NASA).

Come è possibile che la NASA avesse già, sei decenni fa, una tecnologia che sarebbe arrivata quasi trent’anni più tardi? Tranquilli, gli alieni non c’entrano, ma se chiedete anche ai tecnici del settore e agli informatici come potesse esistere un oggetto del genere a metà degli anni Sessanta, probabilmente non sanno come rispondere.

Questa è la strana storia di questo oggetto a prima vista impossibile e di una serie di tecnologie folli e oggi dimenticate, a base di olio viscoso, dischi rotanti e puntine di diamante, nelle quali c’è di mezzo un notevole pizzico di Svizzera. Se il nome Fritz Fischer e la parola Eidophor non vi dicono nulla, state per scoprire una pagina di storia della tecnologia che non è solo un momento nerd ma è anche una bella lezione di come l’ingegno umano sa trovare soluzioni geniali a problemi in apparenza irrisolvibili.

Benvenuti alla puntata del 28 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Un oggetto impossibile

Se siete fra i tanti che in questo periodo stanno acquistando un televisore ultrapiatto gigante in alta definizione, forse vi ricordate di quando lo schermo televisivo più grande al quale si potesse ambire a livello domestico era un 32 pollici, ossia uno schermo che misurava in diagonale circa 80 centimetri, ed era costituito da un ingombrantissimo, costosissimo e pesantissimo tubo catodico, racchiuso in un mobile squadrato e profondo che troneggiava nella stanza.* Sì, c’erano anche i videoproiettori, ma quelli erano ancora più costosi e ingombranti. Magari avete notato questi strani scatoloni nei film di qualche decennio fa. Oggi, invece, è normale avere schermi ultrapiatti, con una diagonale tre volte maggiore, che sono così sottili che si appoggiano contro una parete.

* Nel 1989 la Sony presentò in Giappone il televisore a tubo catodico Trinitron più grande mai realizzato, il KV-45ED1 o PVM-4300 (43 pollici, 225 kg, 40.000 dollari in USA).

Eppure alla NASA, a metà degli anni Sessanta, su una parete del Controllo Missione che gestiva i lanci spaziali verso la Luna, c’erano non uno ma ben cinque megaschermi perfettamente piatti, nitidissimi, con colori brillanti, visibili nonostante le luci accese in sala. Il più grande di questi schermi misurava appunto tre metri di altezza per sette di larghezza. La risoluzione di questi monitor era talmente elevata che si leggevano anche i caratteri più piccoli delle schermate tecniche e dei grafici che permettevano agli addetti di seguire in dettaglio le varie fasi dei voli spaziali.

Per fare un paragone, maxischermi come il Jumbotron di Sony o i Diamond Vision di Mitsubishi arriveranno e cominceranno a essere installati negli stadi e negli spazi pubblicitari solo negli anni Ottanta,* e comunque non avranno la nitidezza di questi monitor spaziali della NASA.** Certo, al cinema c’erano dimensioni e nitidezze notevoli e anche superiori, soprattutto con i grandi formati come il 70 mm, ma si trattava di proiezioni di pellicole preregistrate, mentre qui bisognava mostrare immagini e grafici in tempo reale. I primi monitor piatti, con schermi al plasma, risalgono anch’essi agli anni Ottanta ed erano installati nei computer portatili di punta dell’epoca, ma non raggiungevano certo dimensioni da misurare in metri e in ogni caso erano monocromatici.

* Sony è famosa per il suo Jumbotron, ma fu battuta sul tempo dalla Mitsubishi Electric, i cui megaschermi Diamond Vision furono prodotti per la prima volta nel 1980. Il primo esemplare, basato su CRT (tubi catodici) compatti a tre colori (rosso, blu e verde) fu installato a luglio dello stesso anno al Dodger Stadium di Los Angeles e misurava 8,7m x 5,8 m (Mitsubishi Electric).

** Un Jumbotron da 10 metri aveva una risoluzione di soli 240 x 192 pixel.

I primi schermi piatti a colori arriveranno addirittura trent’anni dopo quelli della NASA, nel 1992, e saranno ancora a bassa risoluzione. Il primo televisore a schermo piatto commercialmente disponibile sarà il Philips 42PW9962 (un nome facilissimo da ricordare), classe 1995, che misurerà 107 centimetri di diagonale e avrà una risoluzione modestissima, 852 x 480 pixel, che oggi farebbe imbarazzare un citofono. Costerà ben 15.000 dollari dell’epoca. Oggi dimensioni diagonali di 98 pollici (cioè due metri e mezzo) e risoluzioni dai 4K in su (ossia 3840 x 2160 pixel) sono commercialmente disponibili a prezzi ben più bassi.

Insomma, quella tecnologia usata dall’ente spaziale statunitense sembra davvero fuori dal tempo, anacronistica, impossibile. Però esisteva, e le foto e i filmati di quegli anni mostrano questi schermi all’opera, con colori freschissimi e dettagli straordinariamente nitidi, nella sala ben illuminata del Controllo Missione.

Per capire come funzionavano bisogna fare un salto a Zurigo.

Eidophor, il videoproiettore a olio

Per proiettare immagini televisive, quindi in tempo reale, su uno schermo di grandi dimensioni, negli anni Sessanta del secolo scorso esisteva una sola tecnologia: andava sotto il nome di Eidophor ed era un proiettore speciale, realizzato dalla Gretag AG di Regensdorf.

Era questo apparecchio che mostrava le immagini che arrivavano dallo spazio e dalla Luna ai tecnici del Controllo Missione di Houston, e si trattava di un marchingegno davvero particolare, concepito dall’ingegner Fritz Fischer, docente e ricercatore presso il Politecnico di Zurigo, dove lo aveva sviluppato addirittura nel 1939 [brevetto US 2,391,451], presentando il primo esemplare sperimentale nel 1943. Se ve lo state chiedendo, il nome Eidophor deriva da parole greche che significano grosso modo “portatore di immagini”.

Questo proiettore usava un sistema ottico simile a quello di un proiettore per pellicola, ma al posto della pellicola c‘era un disco riflettente che girava lentamente su se stesso. Questo disco era ricoperto da un velo di olio trasparente ad alta viscosità, sul quale un fascio collimato e pilotato di elettroni depositava delle cariche elettrostatiche che ne deformavano la superficie.

Uno specchio composto da strisce riflettenti alternate a bande trasparenti proiettava la luce intensissima di una lampada ad arco su questo velo di olio, e solo le zone del velo che erano deformate dal fascio di elettroni riflettevano questa luce verso lo schermo, permettendo di disegnare delle immagini in movimento.

Schema di funzionamento del velo d’olio e dello specchio a strisce, tratto da Eidophor – der erste Beamer, Ngzh.ch, 2018.

Lo so, sembra una descrizione molto steampunk. E come tanta tecnologia della cultura steampunk, anche l’Eidophor era grosso, ingombrante e difficile da gestire. Usarlo richiedeva la presenza di almeno due tecnici e un’alimentazione elettrica trifase, e se il velo d’olio si contaminava l’immagine prodotta veniva danneggiata. Però la sua tecnologia completamente analogica funzionava e permetteva di mostrare immagini televisive in diretta, inizialmente in bianco e nero e poi a colori, su schermi larghi fino a 18 metri.

Nel 1953 l’Eidophor fu presentato negli Stati Uniti in un prestigioso cinema di New York, su iniziativa della casa cinematografica 20th Century Fox, che sperava di installarne degli esemplari in centinaia di sale per mostrare eventi sportivi o spettacoli in diretta, ma non se ne fece nulla, perché l’ente statunitense di regolamentazione delle trasmissioni non concesse le frequenze televisive necessarie per la diffusione.

Negli anni Sessanta le emittenti televisive di tutto il mondo cominciarono a usare questi Eidophor come sfondi per i loro programmi, specialmente nei telegiornali e per le cronache degli eventi sportivi. Fra i clienti di questa invenzione svizzera ci furono anche il Pentagono, per applicazioni militari, e appunto la NASA, che ne installò ben trentaquattro esemplari nella propria sede centrale per mostrare le immagini dei primi passi di esseri umani sulla Luna a luglio del 1969. 

Un Eidophor EP 6 chiuso e aperto. Era alto 1,97 metri, largo 1,45 e profondo 1,05 (Nationalmuseum.ch).

Gli Eidophor della NASA furono modificati in modo da avere una risoluzione quasi doppia rispetto allo standard televisivo normale, 945 linee orizzontali invece delle 525 standard, rendendo così leggibili anche i caratteri più piccoli delle schermate di dati. In pratica la NASA aveva dei megaschermi HD negli anni Sessanta grazie a questa tecnologia svizzera, che fra l’altro piacque anche ai rivali sovietici, che installarono degli Eidophor anche nel loro centro di lancio spaziale.

Ma per lo schermo gigante centrale della NASA neppure l’Eidophor era all’altezza dei requisiti. Per quelle immagini ultranitide a colori era necessario ricorrere ai diamanti e alla Bat-Caverna.

Diamanti e Bat-Caverne

Anche in questo caso la tecnologia analogica fece acrobazie notevolissime. Lo schermo usava una batteria di ben sette proiettori, alloggiati in una enorme sala completamente dipinta di nero e battezzata “Bat-Caverna” dai tecnici che ci lavoravano.

Schema del sistema di proiezione, che mostra i grandi specchi usati per deviare i fasci di luce dei proiettori e ridurre così le dimensioni della sala tecnica.

Questi proiettori usavano lampade allo xeno, la cui luce potentissima illuminava delle diapositive e le proiettava su grandi lastre di vetro semitrasparente, che costituivano gli schermi veri e propri. Ma il calore di queste lampade avrebbe fuso o sbiadito in fretta qualunque normale diapositiva su pellicola, e i grafici dovevano invece restare sullo schermo per ore.

Così i tecnici si inventarono delle diapositive molto speciali, composte da lastrine di vetro ricoperte da un sottilissimo strato opaco di metallo. Su queste diapositive si disegnavano in anticipo le immagini da mostrare, incidendole direttamente nel metallo, un po’ come si fa per i circuiti stampati. Il metallo rimosso lasciava passare la luce, e poi dei filtri colorati permettevano di tingere la luce proiettata sullo schermo.

Questo permetteva di avere grafici e immagini di grandissima nitidezza, ben oltre qualunque risoluzione di monitor dell’epoca, e risolveva il problema delle immagini statiche, per esempio quella del globo terrestre o di un grafico di traiettoria o dei consumi di bordo del veicolo spaziale. Ma non risolveva il problema di aggiornare quei grafici con i dati di telemetria che provenivano dallo spazio e dai centri di calcolo della NASA.

Dettaglio di una porzione del megaschermo principale del Controllo Missione.

La soluzione ingegnosa, anche in questo caso fortemente analogica, fu montare alcuni di questi sette proiettori su un supporto che permetteva di orientarli. Questi proiettori avevano delle diapositive metalliche nelle quali c’era incisa la sagoma dei vari veicoli spaziali da seguire, e il loro puntamento era comandato dai dati che arrivavano dal centro di calcolo della NASA [l’adiacente Real-Time Computer Complex, descritto in italiano qui da Tranquility Base], pieno di grandi computer IBM 360, che elaboravano i dati trasmessi dal veicolo spaziale. In pratica, invece di aggiornare l’intera immagine come si fa con i normali monitor, veniva semplicemente spostata la diapositiva che raffigurava il veicolo e lo sfondo restava fisso.

Ma i grafici e le traiettorie andavano disegnati e aggiornati man mano, e quindi questo trucco di spostare la sagomina, per così dire, non bastava. Così la NASA adottò un trucco ancora più elegante: una testina di diamante, simile alle puntine dei giradischi, comandata da dei servomotori sugli assi X e Y, incideva la diapositiva, rimuovendo lo strato metallico opaco e facendo passare la luce del proiettore attraverso la zona incisa.

Sì, le immagini venivano letteralmente incise, formando simpatici truciolini metallici, spazzati via da delle potenti ventole. Quindi quando vedete nei documentari di quel periodo che il tracciato grafico della traiettoria di un veicolo spaziale si aggiorna, è perché la diapositiva veniva grattata. Semplice ed efficace, anche se ovviamente non era possibile rifare e correggere.

Sono tutte tecniche in apparenza semplici, una volta che qualcuno le ha escogitate, ma soprattutto sono tecniche che rivelano una lezione troppo spesso dimenticata nell’informatica di oggi: invece di usare potenza di calcolo a dismisura e risolvere tutto con il software per forza bruta, conviene esaminare bene il problema e capire prima di tutto quali sono i requisiti effettivi del progetto.

Nel caso della NASA, quei monitor dovevano mostrare in altissima risoluzione solo immagini statiche con pochi elementi in movimento, per cui non era necessario un approccio “televisivo”, nel quale l’immagine intera viene aggiornata continuamente. Per le immagini televisive vere e proprie c’era l’Eidophor; per tutto il resto bastavano diapositive metalliche e una puntina di diamante che le grattasse.

Sarebbe bello vedere applicare questi principi, per esempio, all’intelligenza artificiale. Il modello di oggi delle IA è forza bruta, con impatti energetici enormi. Ma ci sono soluzioni più eleganti ed efficienti. Per esempio, se si tratta di fare riconoscimento di immagini di telecamere di sorveglianza, non ha senso fare come si fa oggi, ossia mandare le immagini a un centro di calcolo remoto e poi farle analizzare lì da un’intelligenza artificiale generalista; conviene invece fare l’analisi sul posto, a bordo della telecamera, con una IA fatta su misura, che consuma infinitamente meno e rispetta molto di più la privacy.

Ma per ora, purtroppo, si preferisce la forza bruta.

Fonti

Podcast RSI – Arte avvelenata contro l’intelligenza artificiale


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

Pubblicazione iniziale: 2024/06/21 7:12. Ultimo aggiornamento: 2024/07/04 16:15.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.


[CLIP: La scena del libro avvelenato da “Il Nome della Rosa”]

Le intelligenze artificiali generative, quelle alle quali si può chiedere di generare un’immagine imitando lo stile di qualunque artista famoso, sono odiatissime dagli artisti, che già da tempo le accusano di rubare le loro opere per imparare a imitarle, rovinando il mercato e sommergendo le opere autentiche in un mare di imitazioni mediocri. La stessa cosa sta succedendo adesso anche con i film: software come il recentissimo Dream Machine creano video sfacciatamente ispirati, per non dire copiati, dai film d’animazione della Pixar.

Le società che operano nel settore dell’intelligenza artificiale stanno facendo soldi a palate, ma agli artisti di cui imitano il lavoro non arriva alcun compenso. Pubblicare una foto, un’illustrazione o un video su un sito o sui social network, come è normale fare per farsi conoscere, significa quasi sempre che quell’opera verrà acquisita da queste società. E questo vale, oltre che per le immagini di fotografi e illustratori, anche per le nostre foto comuni.

Ma ci sono modi per dire di no a tutto questo. Se siete artisti e volete sapere come impedire o almeno limitare l’abuso delle vostre opere, o se siete semplicemente persone che vogliono evitare che le aziende usino le foto che avete scattato per esempio ai vostri figli, potete opporvi almeno in parte a questo trattamento. E nei casi peggiori potete addirittura mettere del veleno digitale nelle vostre immagini, così le intelligenze artificiali che le sfoglieranno ne verranno danneggiate e non le potranno usare, un po’ come nel romanzo e nel film Il nome della rosa di cui avete sentito uno spezzone in apertura.

Vi interessa sapere come si fa? Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Questa è la puntata del 21 giugno 2024. Benvenuti. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Reclutati a forza

I generatori di immagini basati sull’intelligenza artificiale sono diventati estremamente potenti e realistici nel giro di pochissimo tempo. Il problema è che questi generatori sono stati creati, o più precisamente addestrati, usando le immagini di moltissimi artisti, senza il loro consenso e senza riconoscere loro alcun compenso.

Ogni intelligenza artificiale, infatti, ha bisogno di acquisire enormi quantità di dati. Una IA concepita per generare testi deve leggere miliardi di pagine di testo; una IA pensata per generare immagini deve “guardare”, per così dire, milioni di immagini, e così via. Il problema è che questi dati spesso sono presi da Internet in maniera indiscriminata, senza chiedere permessi e senza dare compensi.

Gli artisti dell’immagine, per esempio grafici, illustratori, fotografi e creatori di video, normalmente pubblicano le proprie opere su Internet, specialmente nei social network, per farsi conoscere, e quindi anche i loro lavori vengono acquisiti dalle intelligenze artificiali.

Il risultato di questa pesca a strascico è che oggi è possibile chiedere a un generatore di immagini di creare una foto sintetica o un’illustrazione nello stile di qualunque artista, per esempio un uomo in bicicletta nello stile di Gustav Klimt, di Raffaello, di Andy Warhol o dei mosaicisti bizantini, e si ottiene in una manciata di secondi un’immagine che scimmiotta il modo di disegnare o dipingere o creare mosaici o fare fotografie di quegli artisti. In alcuni casi si può addirittura inviare a questi generatori un’immagine autentica creata da uno specifico artista e chiedere di generarne una versione modificata. E lo si può fare anche per gli artisti ancora in vita, che non sono per nulla contenti di vedere che un software può sfornare in pochi istanti migliaia di immagini che scopiazzano le loro fatiche.

DALL-E 3 cerca di imitare lo stile di Klimt.
DALL-E 3 genera questa immagine di un uomo in bicicletta nello stile dei mosaicisti bizantini.
DALL-E 3 cerca di imitare lo stile di Raffaello.

Sono imitazioni spesso grossolane, che non ingannerebbero mai una persona esperta ma che sono più che passabili per molti utenti comuni, che quindi finiscono per non comperare gli originali. Per gli artisti diventa insomma più difficile guadagnarsi da vivere con la propria arte, e quello che è peggio è che i loro mancati ricavi diventano profitti per aziende stramiliardarie.

Inoltre pochi giorni fa è stato presentato il software Dream Machine, che permette di generare brevi spezzoni di video partendo da una semplice descrizione testuale, come fa già Sora di OpenAI, con la differenza che Sora è riservato agli addetti ai lavori, mentre Dream Machine è pubblicamente disponibile. Gli esperti hanno notato ben presto che nei video dimostrativi di Dream Machine non c’è solo un chiaro riferimento allo stile dei cartoni animati della Pixar: c’è proprio Mike Wazowski di Monsters & Co, copiato di peso.

Un video realizzato con Dream Machine, chiaramente ispirato ai personaggi di Monsters & Co.
Fotogramma tratto dal video, a 0:57 circa. Wazowski è ben visibile a sinistra dello zucchero filato.

Sarà interessante vedere come la prenderà la Disney, che detiene i diritti di questi personaggi e non è mai stata particolarmente tenera con chi viola il suo copyright.

Il problema delle immagini acquisite senza consenso dalle intelligenze artificiali riguarda anche le persone comuni che si limitano a fare foto di se stessi o dei propri figli. L’associazione Human Rights Watch, ai primi di giugno, ha segnalato che negli archivi di immagini usati per addestrare le intelligenze artificiali più famose si trovano foto di bambini reali, tratte dai social network, con tanto di nomi e cognomi che li identificano. Questi volti possono quindi riemergere nelle foto sintetiche illegali di abusi su minori, per esempio.

Il problema, insomma, è serio e tocca tutti. Vediamo quali sono le soluzioni.

Fermate il mondo, voglio scendere

Togliere tutte le proprie immagini da Internet, o non pubblicarle affatto online, è sicuramente una soluzione drasticamente efficace, in linea di principio, ma in concreto è una strada impraticabile per la maggior parte delle persone e soprattutto per gli artisti e i fotografi, per i quali Internet è da sempre la vetrina che permette loro di farsi conoscere e di trovare chi apprezza le loro creazioni. E comunque ci sarà sempre qualcuno che le pubblicherà online, quelle immagini, per esempio nelle versioni digitali delle riviste o dei cataloghi delle mostre.

Un altro approccio che viene facilmente in mente è il cosiddetto watermarking: la sovrapposizione di diciture semitrasparenti che mascherano in parte l’immagine ma la lasciano comunque visibile, come fanno le grandi aziende di immagini stock, per esempio Getty Images, Shutterstock o Adobe. Ma le intelligenze artificiali attuali sono in grado di ignorare queste diciture, per cui questa tecnica è un deterrente contro la pubblicazione non autorizzata ma non contro l’uso delle immagini per l’addestramento delle IA.

Va un po’ meglio se si usa il cosiddetto opt-out: l’artista manda un esemplare della propria foto o illustrazione ai grandi gestori di intelligenze artificiali e chiede formalmente che quell’immagine sia esclusa d’ora in poi dall’addestramento o training dei loro prodotti. Lo si può fare per esempio per DALL-E 3 di OpenAI, che viene usato anche dai generatori di immagini di Microsoft, oppure per Midjourney e Stability AI, mandando una mail agli appositi indirizzi. Lo si può fare anche per le intelligenze artificiali gestite da Meta, ma con molte limitazioni e complicazioni. Trovate comunque tutti i link a queste risorse su Disinformatico.info.

Il problema di questa tecnica di opt-out è che è tediosissima: in molti casi richiede infatti che venga inviato a ogni gestore di generatori di immagini un esemplare di ogni singola illustrazione o foto da escludere, e quell’esemplare va descritto in dettaglio. Se un artista ha centinaia o migliaia di opere, come capita spesso, segnalarle una per una è semplicemente impensabile, ma è forse fattibile invocare questa esclusione almeno per le immagini più rappresentative o significative dello stile di un artista o di un fotografo.

C’è anche un’altra strada percorribile: pubblicare le proprie immagini soltanto sul proprio sito personale o aziendale, e inserire nel sito del codice che dica a OpenAI e agli altri gestori di intelligenze artificiali di non sfogliare le pagine del sito e quindi di non acquisire le immagini presenti in quelle pagine.

In gergo tecnico, si inserisce nel file robots.txt del proprio sito una riga di testo che vieta l’accesso al crawler di OpenAI e compagni. Anche in questo caso, le istruzioni per OpenAI e per altre società sono disponibili su Disinformatico.info [le istruzioni per OpenAI sono qui; quelle per altre società sono qui].

[2024/06/25 11:30: In alcuni casi si può anche bloccare il range di indirizzi IP di ChatGPT. In questo modo non serve chiedere per favore, come nel caso di robot.txt, ma si blocca e basta]

Si può anche tentare la cosiddetta segmentazione: in pratica, le immagini non vengono pubblicate intatte, ma vengono suddivise in porzioni visualizzate una accanto all’altra, un po’ come le tessere di un mosaico, per cui le intelligenze artificiali non riescono a “vedere”, per così dire, l’immagine completa, mentre una persona la vede perfettamente. Uno dei siti che offrono questo approccio è Kin.art.

Tutti questi metodi funzionano abbastanza bene: non sono rimedi assoluti, ma perlomeno aiutano a contenere il danno escludendo le principali piattaforme di generazione di immagini. Tuttavia sono molto onerosi, e ci sarà sempre qualche start-up senza scrupoli che ignorerà le richieste di esclusione o troverà qualche modo di eludere questi ostacoli. Sarebbe bello se ci fosse un modo per rendere le proprie immagini inutilizzabili dalle intelligenze artificiali in generale, a prescindere da dove sono pubblicate.

Quel modo c’è, ed è piuttosto drastico: consiste nell’iniettare veleno digitale nelle proprie creazioni.

Veleno digitale: IA contro IA

Parlare di veleno non è un’esagerazione: il termine tecnico per questo metodo è infatti data poisoning, che si traduce con “avvelenamento dei dati”. In pratica consiste nell’alterare i dati usati per l’addestramento di un’intelligenza artificiale in modo che le sue elaborazioni diano risultati errati o completamente inattendibili.

Nel caso specifico della protezione delle proprie immagini, il data poisoning consiste nel modificare queste immagini in modo che contengano alterazioni che non sono visibili a occhio nudo ma che confondono o bloccano completamente il processo di addestramento di un’intelligenza artificiale. Semplificando, l’intelligenza artificiale acquisisce una foto del vostro gatto, ma grazie a queste alterazioni la interpreta come se fosse la foto di un cane, di una giraffa o di una betoniera, anche se all’occhio umano si tratta chiaramente della foto di un bellissimo gatto.

Ci sono programmi appositi per alterare le immagini in questo modo: Glaze e Nightshade, per esempio, sono gratuiti e disponibili per Windows e macOS. Richiedono parecchia potenza di calcolo e svariati minuti di elaborazione per ciascuna immagine, ma è possibile dare loro un elenco di immagini e farle elaborare tutte automaticamente. Non sono infallibili, e alcune aziende di intelligenza artificiale adottano già tecniche di difesa contro queste alterazioni. Ma nella maggior parte dei casi queste tecniche consistono semplicemente nell’ignorare qualunque immagine che contenga indicatori di queste alterazioni, per cui se il vostro scopo è semplicemente evitare che le vostre immagini vengano incluse nell’addestramento di un’intelligenza artificiale, Glaze e Nightshade vanno benissimo.

Trilli, la gatta del Maniero Digitale, in versione normale…
…e in versione “avvelenata” con Glaze.

Mist è un altro programma di questo tipo, ma invece di alterare le immagini in modo che la IA le interpreti in modo completamente errato le modifica in una maniera speciale che fa comparire una sorta di watermark o sovrimpressione decisamente sgradevole, una sorta di velo di geroglifici, in ogni immagine generata partendo da immagini trattate con Mist, che come i precedenti è gratuito e disponibile per macOS e Windows e richiede una scheda grafica piuttosto potente e tempi di elaborazione significativi.

C’è una sottile ironia nell’usare software basati sull’intelligenza artificiale per sconfiggere le aziende basate sull’intelligenza artificiale, ma in tutta questa rincorsa fra guardie e ladri non bisogna dimenticare che questi software consumano quantità preoccupanti di energia per i loro calcoli straordinariamente complessi: a gennaio 2024, l’Agenzia Internazionale dell’Energia (IEA) ha pubblicato una stima secondo la quale il 4% della produzione di energia mondiale nel 2026 sarà assorbito dai data center, dalle criptovalute e dall’intelligenza artificiale. Per dare un’idea di cosa significhi, il 4% equivale al consumo energetico di tutto il Giappone.*

“Electricity consumption from data centres, artificial intelligence (AI) and the cryptocurrency sector could double by 2026. Data centres are significant drivers of growth in electricity demand in many regions. After globally consuming an estimated 460 terawatt-hours (TWh) in 2022, data centres’ total electricity consumption could reach more than 1 000 TWh in 2026. This demand is roughly equivalent to the electricity consumption of Japan” (pag. 8).

La stessa agenzia ha calcolato che una singola ricerca in Google consuma 0,3 wattora di energia elettrica [dato risalente al 2009, probabilmente migliorato da allora], mentre una singola richiesta a ChatGPT ne consuma 2,9, ossia quasi dieci volte di più. Per fare un paragone, se tutti usassero ChatGPT invece di Google per cercare informazioni, la richiesta di energia aumenterebbe di 10 terawattora l’anno, pari ai consumi annui di un milione e mezzo di europei.*

“Search tools like Google could see a tenfold increase of their electricity demand in the case of fully implementing AI in it. When comparing the average electricity demand of a typical Google search (0.3 Wh of electricity) to OpenAI’s ChatGPT (2.9 Wh per request), and considering 9 billion searches daily, this would require almost 10 TWh of additional electricity in a year.“ (pag. 34, che cita come fonte l’articolo accademico del 2023 The growing energy footprint of artificial intelligence di Alex De Vries su Joulehttps://doi.org/10.1016/j.joule.2023.09.004).
Il dato di 0,1 Wh (1 kJ) è citato da Google in questo post del 2009“Together with other work performed before your search even starts (such as building the search index) this amounts to 0.0003 kWh of energy per search, or 1 kJ. For comparison, the average adult needs about 8000 kJ a day of energy from food, so a Google search uses just about the same amount of energy that your body burns in ten seconds. In terms of greenhouse gases, one Google search is equivalent to about 0.2 grams of CO2. The current EU standard for tailpipe emissions calls for 140 grams of CO2 per kilometer driven, but most cars don’t reach that level yet. Thus, the average car driven for one kilometer (0.6 miles for those in the U.S.) produces as many greenhouse gases as a thousand Google searches.”
FullFact ha svolto una ricerca sull’argomento e non ha trovato dati più recenti, ma nota che “Google told us that since then it has made its data centres more energy efficient. We also spoke to Yannick Oswald, a PhD researcher in energy footprints at the University of Leeds who told us that if the energy consumption of a Google search has changed since 2009, it’s most likely to have decreased due to improvements in energy efficiency”.
Il confronto con il consumo degli utenti europei è tratto da questo articolo di Vox di marzo 2024.

Pensateci, la prossima volta che invece di usare un motore di ricerca vi affidate a un’intelligenza artificiale online.

Fonti aggiuntive

Uomo cammina sull’acqua a Londra

Ne parla LiberoTV qui, con un video. “Nessuno sa come faccia, quel che è certo è che Steven Frayne cammina sulle acque, senza trucchi né inganni.” Balle. È un prestigiatore: usare trucchi è il suo mestiere.

Persino il Daily Mail, che di solito non brilla per acume, spiega che la “polizia” che interviene nel video era in realtà un gruppo di attori. E non è vero che ha “attraversato” il Tamigi, come dice il Guardian; basta guardare il video per notare che rimane sempre abbastanza vicino alla riva (anche se la distanza viene esagerata con un uso attento delle inquadrature e degli obiettivi) e non arriva mai dall’altra parte, perché provvidenzialmente arriva la “polizia” a fermarlo.

La spiegazione più probabile è il piazzamento di una passerella sotto il pelo dell’acqua. Si nota che la turbolenza dell’acqua dietro di lui è differente da quella nelle zone circostanti: un effetto tipico di un ostacolo leggermente sommerso. L’aspetto improvvisato della scena, con Frayne che scavalca la barriera, fa parte della messinscena, e le imbarcazioni non passano mai fra Frayne e la riva (le canoe sembrano farlo, ma è un gioco di montaggio). L’effetto è stato girato per promuovere il nuovo programma televisivo dell’illusionista.