Vai al contenuto

Giugno 2024

Podcast RSI – NASA, monitor giganti, piatti e a colori 60 anni fa. Con tecnologia svizzera


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

Ultimo aggiornamento: 2024/07/01 16:30.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.

Buon ascolto, e se vi interessano il testo di accompagnamento e i link alle fonti di questa puntata, sono qui sotto.

Questa è l’ultima puntata prima della pausa estiva: il podcast tornerà il 19 luglio.


Gli appassionati di archeologia misteriosa li chiamano OOPART: sono gli oggetti fuori posto, o meglio fuori tempo. Manufatti che si suppone non potessero esistere nell’epoca a cui vengono datati e la cui esistenza costituirebbe un anacronismo. Immaginate di trovare una lavastoviglie o uno schema di sudoku dentro una tomba egizia mai aperta prima: sarebbe un OOPART. In realtà i presunti OOPART segnalati finora hanno tutti spiegazioni normali ma comunque affascinanti.

In informatica, invece, esiste uno di questi OOPART davvero difficile da spiegare. Questo oggetto apparentemente fuori dal tempo è un monitor gigante per computer, a colori, ultrapiatto, ad altissima risoluzione, che misura ben tre metri per sette ed è perfettamente visibile in piena luce. Prestazioni del genere oggi sono notevoli, ma si tratta di un manufatto che risale a sessant’anni fa, quando i monitor erano fatti con i tubi catodici, pesantissimi e ingombrantissimi.

La cosa buffa è che questo anacronismo extra large è sotto gli occhi di tutti, ma oggi nessuno ci fa caso. È il monitor gigante che si vede sempre nei documentari e nei film dedicati alle missioni spaziali: il mitico megaschermo del Controllo Missione.

13 aprile 1970. Il Controllo Missione durante una diretta TV trasmessa dal veicolo spaziale Apollo 13. A sinistra si vede lo schermo gigante a colori in alta risoluzione. A destra, la videoproiezione Eidophor a colori (NASA).

Come è possibile che la NASA avesse già, sei decenni fa, una tecnologia che sarebbe arrivata quasi trent’anni più tardi? Tranquilli, gli alieni non c’entrano, ma se chiedete anche ai tecnici del settore e agli informatici come potesse esistere un oggetto del genere a metà degli anni Sessanta, probabilmente non sanno come rispondere.

Questa è la strana storia di questo oggetto a prima vista impossibile e di una serie di tecnologie folli e oggi dimenticate, a base di olio viscoso, dischi rotanti e puntine di diamante, nelle quali c’è di mezzo un notevole pizzico di Svizzera. Se il nome Fritz Fischer e la parola Eidophor non vi dicono nulla, state per scoprire una pagina di storia della tecnologia che non è solo un momento nerd ma è anche una bella lezione di come l’ingegno umano sa trovare soluzioni geniali a problemi in apparenza irrisolvibili.

Benvenuti alla puntata del 28 giugno 2024 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Un oggetto impossibile

Se siete fra i tanti che in questo periodo stanno acquistando un televisore ultrapiatto gigante in alta definizione, forse vi ricordate di quando lo schermo televisivo più grande al quale si potesse ambire a livello domestico era un 32 pollici, ossia uno schermo che misurava in diagonale circa 80 centimetri, ed era costituito da un ingombrantissimo, costosissimo e pesantissimo tubo catodico, racchiuso in un mobile squadrato e profondo che troneggiava nella stanza.* Sì, c’erano anche i videoproiettori, ma quelli erano ancora più costosi e ingombranti. Magari avete notato questi strani scatoloni nei film di qualche decennio fa. Oggi, invece, è normale avere schermi ultrapiatti, con una diagonale tre volte maggiore, che sono così sottili che si appoggiano contro una parete.

* Nel 1989 la Sony presentò in Giappone il televisore a tubo catodico Trinitron più grande mai realizzato, il KV-45ED1 o PVM-4300 (43 pollici, 225 kg, 40.000 dollari in USA).

Eppure alla NASA, a metà degli anni Sessanta, su una parete del Controllo Missione che gestiva i lanci spaziali verso la Luna, c’erano non uno ma ben cinque megaschermi perfettamente piatti, nitidissimi, con colori brillanti, visibili nonostante le luci accese in sala. Il più grande di questi schermi misurava appunto tre metri di altezza per sette di larghezza. La risoluzione di questi monitor era talmente elevata che si leggevano anche i caratteri più piccoli delle schermate tecniche e dei grafici che permettevano agli addetti di seguire in dettaglio le varie fasi dei voli spaziali.

Per fare un paragone, maxischermi come il Jumbotron di Sony o i Diamond Vision di Mitsubishi arriveranno e cominceranno a essere installati negli stadi e negli spazi pubblicitari solo negli anni Ottanta,* e comunque non avranno la nitidezza di questi monitor spaziali della NASA.** Certo, al cinema c’erano dimensioni e nitidezze notevoli e anche superiori, soprattutto con i grandi formati come il 70 mm, ma si trattava di proiezioni di pellicole preregistrate, mentre qui bisognava mostrare immagini e grafici in tempo reale. I primi monitor piatti, con schermi al plasma, risalgono anch’essi agli anni Ottanta ed erano installati nei computer portatili di punta dell’epoca, ma non raggiungevano certo dimensioni da misurare in metri e in ogni caso erano monocromatici.

* Sony è famosa per il suo Jumbotron, ma fu battuta sul tempo dalla Mitsubishi Electric, i cui megaschermi Diamond Vision furono prodotti per la prima volta nel 1980. Il primo esemplare, basato su CRT (tubi catodici) compatti a tre colori (rosso, blu e verde) fu installato a luglio dello stesso anno al Dodger Stadium di Los Angeles e misurava 8,7m x 5,8 m (Mitsubishi Electric).

** Un Jumbotron da 10 metri aveva una risoluzione di soli 240 x 192 pixel.

I primi schermi piatti a colori arriveranno addirittura trent’anni dopo quelli della NASA, nel 1992, e saranno ancora a bassa risoluzione. Il primo televisore a schermo piatto commercialmente disponibile sarà il Philips 42PW9962 (un nome facilissimo da ricordare), classe 1995, che misurerà 107 centimetri di diagonale e avrà una risoluzione modestissima, 852 x 480 pixel, che oggi farebbe imbarazzare un citofono. Costerà ben 15.000 dollari dell’epoca. Oggi dimensioni diagonali di 98 pollici (cioè due metri e mezzo) e risoluzioni dai 4K in su (ossia 3840 x 2160 pixel) sono commercialmente disponibili a prezzi ben più bassi.

Insomma, quella tecnologia usata dall’ente spaziale statunitense sembra davvero fuori dal tempo, anacronistica, impossibile. Però esisteva, e le foto e i filmati di quegli anni mostrano questi schermi all’opera, con colori freschissimi e dettagli straordinariamente nitidi, nella sala ben illuminata del Controllo Missione.

Per capire come funzionavano bisogna fare un salto a Zurigo.

Eidophor, il videoproiettore a olio

Per proiettare immagini televisive, quindi in tempo reale, su uno schermo di grandi dimensioni, negli anni Sessanta del secolo scorso esisteva una sola tecnologia: andava sotto il nome di Eidophor ed era un proiettore speciale, realizzato dalla Gretag AG di Regensdorf.

Era questo apparecchio che mostrava le immagini che arrivavano dallo spazio e dalla Luna ai tecnici del Controllo Missione di Houston, e si trattava di un marchingegno davvero particolare, concepito dall’ingegner Fritz Fischer, docente e ricercatore presso il Politecnico di Zurigo, dove lo aveva sviluppato addirittura nel 1939 [brevetto US 2,391,451], presentando il primo esemplare sperimentale nel 1943. Se ve lo state chiedendo, il nome Eidophor deriva da parole greche che significano grosso modo “portatore di immagini”.

Questo proiettore usava un sistema ottico simile a quello di un proiettore per pellicola, ma al posto della pellicola c‘era un disco riflettente che girava lentamente su se stesso. Questo disco era ricoperto da un velo di olio trasparente ad alta viscosità, sul quale un fascio collimato e pilotato di elettroni depositava delle cariche elettrostatiche che ne deformavano la superficie.

Uno specchio composto da strisce riflettenti alternate a bande trasparenti proiettava la luce intensissima di una lampada ad arco su questo velo di olio, e solo le zone del velo che erano deformate dal fascio di elettroni riflettevano questa luce verso lo schermo, permettendo di disegnare delle immagini in movimento.

Schema di funzionamento del velo d’olio e dello specchio a strisce, tratto da Eidophor – der erste Beamer, Ngzh.ch, 2018.

Lo so, sembra una descrizione molto steampunk. E come tanta tecnologia della cultura steampunk, anche l’Eidophor era grosso, ingombrante e difficile da gestire. Usarlo richiedeva la presenza di almeno due tecnici e un’alimentazione elettrica trifase, e se il velo d’olio si contaminava l’immagine prodotta veniva danneggiata. Però la sua tecnologia completamente analogica funzionava e permetteva di mostrare immagini televisive in diretta, inizialmente in bianco e nero e poi a colori, su schermi larghi fino a 18 metri.

Nel 1953 l’Eidophor fu presentato negli Stati Uniti in un prestigioso cinema di New York, su iniziativa della casa cinematografica 20th Century Fox, che sperava di installarne degli esemplari in centinaia di sale per mostrare eventi sportivi o spettacoli in diretta, ma non se ne fece nulla, perché l’ente statunitense di regolamentazione delle trasmissioni non concesse le frequenze televisive necessarie per la diffusione.

Negli anni Sessanta le emittenti televisive di tutto il mondo cominciarono a usare questi Eidophor come sfondi per i loro programmi, specialmente nei telegiornali e per le cronache degli eventi sportivi. Fra i clienti di questa invenzione svizzera ci furono anche il Pentagono, per applicazioni militari, e appunto la NASA, che ne installò ben trentaquattro esemplari nella propria sede centrale per mostrare le immagini dei primi passi di esseri umani sulla Luna a luglio del 1969. 

Un Eidophor EP 6 chiuso e aperto. Era alto 1,97 metri, largo 1,45 e profondo 1,05 (Nationalmuseum.ch).

Gli Eidophor della NASA furono modificati in modo da avere una risoluzione quasi doppia rispetto allo standard televisivo normale, 945 linee orizzontali invece delle 525 standard, rendendo così leggibili anche i caratteri più piccoli delle schermate di dati. In pratica la NASA aveva dei megaschermi HD negli anni Sessanta grazie a questa tecnologia svizzera, che fra l’altro piacque anche ai rivali sovietici, che installarono degli Eidophor anche nel loro centro di lancio spaziale.

Ma per lo schermo gigante centrale della NASA neppure l’Eidophor era all’altezza dei requisiti. Per quelle immagini ultranitide a colori era necessario ricorrere ai diamanti e alla Bat-Caverna.

Diamanti e Bat-Caverne

Anche in questo caso la tecnologia analogica fece acrobazie notevolissime. Lo schermo usava una batteria di ben sette proiettori, alloggiati in una enorme sala completamente dipinta di nero e battezzata “Bat-Caverna” dai tecnici che ci lavoravano.

Schema del sistema di proiezione, che mostra i grandi specchi usati per deviare i fasci di luce dei proiettori e ridurre così le dimensioni della sala tecnica.

Questi proiettori usavano lampade allo xeno, la cui luce potentissima illuminava delle diapositive e le proiettava su grandi lastre di vetro semitrasparente, che costituivano gli schermi veri e propri. Ma il calore di queste lampade avrebbe fuso o sbiadito in fretta qualunque normale diapositiva su pellicola, e i grafici dovevano invece restare sullo schermo per ore.

Così i tecnici si inventarono delle diapositive molto speciali, composte da lastrine di vetro ricoperte da un sottilissimo strato opaco di metallo. Su queste diapositive si disegnavano in anticipo le immagini da mostrare, incidendole direttamente nel metallo, un po’ come si fa per i circuiti stampati. Il metallo rimosso lasciava passare la luce, e poi dei filtri colorati permettevano di tingere la luce proiettata sullo schermo.

Questo permetteva di avere grafici e immagini di grandissima nitidezza, ben oltre qualunque risoluzione di monitor dell’epoca, e risolveva il problema delle immagini statiche, per esempio quella del globo terrestre o di un grafico di traiettoria o dei consumi di bordo del veicolo spaziale. Ma non risolveva il problema di aggiornare quei grafici con i dati di telemetria che provenivano dallo spazio e dai centri di calcolo della NASA.

Dettaglio di una porzione del megaschermo principale del Controllo Missione.

La soluzione ingegnosa, anche in questo caso fortemente analogica, fu montare alcuni di questi sette proiettori su un supporto che permetteva di orientarli. Questi proiettori avevano delle diapositive metalliche nelle quali c’era incisa la sagoma dei vari veicoli spaziali da seguire, e il loro puntamento era comandato dai dati che arrivavano dal centro di calcolo della NASA [l’adiacente Real-Time Computer Complex, descritto in italiano qui da Tranquility Base], pieno di grandi computer IBM 360, che elaboravano i dati trasmessi dal veicolo spaziale. In pratica, invece di aggiornare l’intera immagine come si fa con i normali monitor, veniva semplicemente spostata la diapositiva che raffigurava il veicolo e lo sfondo restava fisso.

Ma i grafici e le traiettorie andavano disegnati e aggiornati man mano, e quindi questo trucco di spostare la sagomina, per così dire, non bastava. Così la NASA adottò un trucco ancora più elegante: una testina di diamante, simile alle puntine dei giradischi, comandata da dei servomotori sugli assi X e Y, incideva la diapositiva, rimuovendo lo strato metallico opaco e facendo passare la luce del proiettore attraverso la zona incisa.

Sì, le immagini venivano letteralmente incise, formando simpatici truciolini metallici, spazzati via da delle potenti ventole. Quindi quando vedete nei documentari di quel periodo che il tracciato grafico della traiettoria di un veicolo spaziale si aggiorna, è perché la diapositiva veniva grattata. Semplice ed efficace, anche se ovviamente non era possibile rifare e correggere.

Sono tutte tecniche in apparenza semplici, una volta che qualcuno le ha escogitate, ma soprattutto sono tecniche che rivelano una lezione troppo spesso dimenticata nell’informatica di oggi: invece di usare potenza di calcolo a dismisura e risolvere tutto con il software per forza bruta, conviene esaminare bene il problema e capire prima di tutto quali sono i requisiti effettivi del progetto.

Nel caso della NASA, quei monitor dovevano mostrare in altissima risoluzione solo immagini statiche con pochi elementi in movimento, per cui non era necessario un approccio “televisivo”, nel quale l’immagine intera viene aggiornata continuamente. Per le immagini televisive vere e proprie c’era l’Eidophor; per tutto il resto bastavano diapositive metalliche e una puntina di diamante che le grattasse.

Sarebbe bello vedere applicare questi principi, per esempio, all’intelligenza artificiale. Il modello di oggi delle IA è forza bruta, con impatti energetici enormi. Ma ci sono soluzioni più eleganti ed efficienti. Per esempio, se si tratta di fare riconoscimento di immagini di telecamere di sorveglianza, non ha senso fare come si fa oggi, ossia mandare le immagini a un centro di calcolo remoto e poi farle analizzare lì da un’intelligenza artificiale generalista; conviene invece fare l’analisi sul posto, a bordo della telecamera, con una IA fatta su misura, che consuma infinitamente meno e rispetta molto di più la privacy.

Ma per ora, purtroppo, si preferisce la forza bruta.

Fonti

Podcast RSI – Arte avvelenata contro l’intelligenza artificiale


Questo articolo è importato dal mio blog precedente Il Disinformatico: l’originale (con i commenti dei lettori) è qui.

logo del Disinformatico

Pubblicazione iniziale: 2024/06/21 7:12. Ultimo aggiornamento: 2024/07/04 16:15.

È disponibile subito il podcast di oggi de Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto: lo trovate qui sul sito della RSI (si apre in una finestra/scheda separata) e lo potete scaricare qui.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunesGoogle PodcastsSpotify e feed RSS.


[CLIP: La scena del libro avvelenato da “Il Nome della Rosa”]

Le intelligenze artificiali generative, quelle alle quali si può chiedere di generare un’immagine imitando lo stile di qualunque artista famoso, sono odiatissime dagli artisti, che già da tempo le accusano di rubare le loro opere per imparare a imitarle, rovinando il mercato e sommergendo le opere autentiche in un mare di imitazioni mediocri. La stessa cosa sta succedendo adesso anche con i film: software come il recentissimo Dream Machine creano video sfacciatamente ispirati, per non dire copiati, dai film d’animazione della Pixar.

Le società che operano nel settore dell’intelligenza artificiale stanno facendo soldi a palate, ma agli artisti di cui imitano il lavoro non arriva alcun compenso. Pubblicare una foto, un’illustrazione o un video su un sito o sui social network, come è normale fare per farsi conoscere, significa quasi sempre che quell’opera verrà acquisita da queste società. E questo vale, oltre che per le immagini di fotografi e illustratori, anche per le nostre foto comuni.

Ma ci sono modi per dire di no a tutto questo. Se siete artisti e volete sapere come impedire o almeno limitare l’abuso delle vostre opere, o se siete semplicemente persone che vogliono evitare che le aziende usino le foto che avete scattato per esempio ai vostri figli, potete opporvi almeno in parte a questo trattamento. E nei casi peggiori potete addirittura mettere del veleno digitale nelle vostre immagini, così le intelligenze artificiali che le sfoglieranno ne verranno danneggiate e non le potranno usare, un po’ come nel romanzo e nel film Il nome della rosa di cui avete sentito uno spezzone in apertura.

Vi interessa sapere come si fa? Ve lo racconto in questa puntata del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Questa è la puntata del 21 giugno 2024. Benvenuti. Io sono Paolo Attivissimo.

[SIGLA di apertura]

Reclutati a forza

I generatori di immagini basati sull’intelligenza artificiale sono diventati estremamente potenti e realistici nel giro di pochissimo tempo. Il problema è che questi generatori sono stati creati, o più precisamente addestrati, usando le immagini di moltissimi artisti, senza il loro consenso e senza riconoscere loro alcun compenso.

Ogni intelligenza artificiale, infatti, ha bisogno di acquisire enormi quantità di dati. Una IA concepita per generare testi deve leggere miliardi di pagine di testo; una IA pensata per generare immagini deve “guardare”, per così dire, milioni di immagini, e così via. Il problema è che questi dati spesso sono presi da Internet in maniera indiscriminata, senza chiedere permessi e senza dare compensi.

Gli artisti dell’immagine, per esempio grafici, illustratori, fotografi e creatori di video, normalmente pubblicano le proprie opere su Internet, specialmente nei social network, per farsi conoscere, e quindi anche i loro lavori vengono acquisiti dalle intelligenze artificiali.

Il risultato di questa pesca a strascico è che oggi è possibile chiedere a un generatore di immagini di creare una foto sintetica o un’illustrazione nello stile di qualunque artista, per esempio un uomo in bicicletta nello stile di Gustav Klimt, di Raffaello, di Andy Warhol o dei mosaicisti bizantini, e si ottiene in una manciata di secondi un’immagine che scimmiotta il modo di disegnare o dipingere o creare mosaici o fare fotografie di quegli artisti. In alcuni casi si può addirittura inviare a questi generatori un’immagine autentica creata da uno specifico artista e chiedere di generarne una versione modificata. E lo si può fare anche per gli artisti ancora in vita, che non sono per nulla contenti di vedere che un software può sfornare in pochi istanti migliaia di immagini che scopiazzano le loro fatiche.

DALL-E 3 cerca di imitare lo stile di Klimt.
DALL-E 3 genera questa immagine di un uomo in bicicletta nello stile dei mosaicisti bizantini.
DALL-E 3 cerca di imitare lo stile di Raffaello.

Sono imitazioni spesso grossolane, che non ingannerebbero mai una persona esperta ma che sono più che passabili per molti utenti comuni, che quindi finiscono per non comperare gli originali. Per gli artisti diventa insomma più difficile guadagnarsi da vivere con la propria arte, e quello che è peggio è che i loro mancati ricavi diventano profitti per aziende stramiliardarie.

Inoltre pochi giorni fa è stato presentato il software Dream Machine, che permette di generare brevi spezzoni di video partendo da una semplice descrizione testuale, come fa già Sora di OpenAI, con la differenza che Sora è riservato agli addetti ai lavori, mentre Dream Machine è pubblicamente disponibile. Gli esperti hanno notato ben presto che nei video dimostrativi di Dream Machine non c’è solo un chiaro riferimento allo stile dei cartoni animati della Pixar: c’è proprio Mike Wazowski di Monsters & Co, copiato di peso.

Un video realizzato con Dream Machine, chiaramente ispirato ai personaggi di Monsters & Co.
Fotogramma tratto dal video, a 0:57 circa. Wazowski è ben visibile a sinistra dello zucchero filato.

Sarà interessante vedere come la prenderà la Disney, che detiene i diritti di questi personaggi e non è mai stata particolarmente tenera con chi viola il suo copyright.

Il problema delle immagini acquisite senza consenso dalle intelligenze artificiali riguarda anche le persone comuni che si limitano a fare foto di se stessi o dei propri figli. L’associazione Human Rights Watch, ai primi di giugno, ha segnalato che negli archivi di immagini usati per addestrare le intelligenze artificiali più famose si trovano foto di bambini reali, tratte dai social network, con tanto di nomi e cognomi che li identificano. Questi volti possono quindi riemergere nelle foto sintetiche illegali di abusi su minori, per esempio.

Il problema, insomma, è serio e tocca tutti. Vediamo quali sono le soluzioni.

Fermate il mondo, voglio scendere

Togliere tutte le proprie immagini da Internet, o non pubblicarle affatto online, è sicuramente una soluzione drasticamente efficace, in linea di principio, ma in concreto è una strada impraticabile per la maggior parte delle persone e soprattutto per gli artisti e i fotografi, per i quali Internet è da sempre la vetrina che permette loro di farsi conoscere e di trovare chi apprezza le loro creazioni. E comunque ci sarà sempre qualcuno che le pubblicherà online, quelle immagini, per esempio nelle versioni digitali delle riviste o dei cataloghi delle mostre.

Un altro approccio che viene facilmente in mente è il cosiddetto watermarking: la sovrapposizione di diciture semitrasparenti che mascherano in parte l’immagine ma la lasciano comunque visibile, come fanno le grandi aziende di immagini stock, per esempio Getty Images, Shutterstock o Adobe. Ma le intelligenze artificiali attuali sono in grado di ignorare queste diciture, per cui questa tecnica è un deterrente contro la pubblicazione non autorizzata ma non contro l’uso delle immagini per l’addestramento delle IA.

Va un po’ meglio se si usa il cosiddetto opt-out: l’artista manda un esemplare della propria foto o illustrazione ai grandi gestori di intelligenze artificiali e chiede formalmente che quell’immagine sia esclusa d’ora in poi dall’addestramento o training dei loro prodotti. Lo si può fare per esempio per DALL-E 3 di OpenAI, che viene usato anche dai generatori di immagini di Microsoft, oppure per Midjourney e Stability AI, mandando una mail agli appositi indirizzi. Lo si può fare anche per le intelligenze artificiali gestite da Meta, ma con molte limitazioni e complicazioni. Trovate comunque tutti i link a queste risorse su Disinformatico.info.

Il problema di questa tecnica di opt-out è che è tediosissima: in molti casi richiede infatti che venga inviato a ogni gestore di generatori di immagini un esemplare di ogni singola illustrazione o foto da escludere, e quell’esemplare va descritto in dettaglio. Se un artista ha centinaia o migliaia di opere, come capita spesso, segnalarle una per una è semplicemente impensabile, ma è forse fattibile invocare questa esclusione almeno per le immagini più rappresentative o significative dello stile di un artista o di un fotografo.

C’è anche un’altra strada percorribile: pubblicare le proprie immagini soltanto sul proprio sito personale o aziendale, e inserire nel sito del codice che dica a OpenAI e agli altri gestori di intelligenze artificiali di non sfogliare le pagine del sito e quindi di non acquisire le immagini presenti in quelle pagine.

In gergo tecnico, si inserisce nel file robots.txt del proprio sito una riga di testo che vieta l’accesso al crawler di OpenAI e compagni. Anche in questo caso, le istruzioni per OpenAI e per altre società sono disponibili su Disinformatico.info [le istruzioni per OpenAI sono qui; quelle per altre società sono qui].

[2024/06/25 11:30: In alcuni casi si può anche bloccare il range di indirizzi IP di ChatGPT. In questo modo non serve chiedere per favore, come nel caso di robot.txt, ma si blocca e basta]

Si può anche tentare la cosiddetta segmentazione: in pratica, le immagini non vengono pubblicate intatte, ma vengono suddivise in porzioni visualizzate una accanto all’altra, un po’ come le tessere di un mosaico, per cui le intelligenze artificiali non riescono a “vedere”, per così dire, l’immagine completa, mentre una persona la vede perfettamente. Uno dei siti che offrono questo approccio è Kin.art.

Tutti questi metodi funzionano abbastanza bene: non sono rimedi assoluti, ma perlomeno aiutano a contenere il danno escludendo le principali piattaforme di generazione di immagini. Tuttavia sono molto onerosi, e ci sarà sempre qualche start-up senza scrupoli che ignorerà le richieste di esclusione o troverà qualche modo di eludere questi ostacoli. Sarebbe bello se ci fosse un modo per rendere le proprie immagini inutilizzabili dalle intelligenze artificiali in generale, a prescindere da dove sono pubblicate.

Quel modo c’è, ed è piuttosto drastico: consiste nell’iniettare veleno digitale nelle proprie creazioni.

Veleno digitale: IA contro IA

Parlare di veleno non è un’esagerazione: il termine tecnico per questo metodo è infatti data poisoning, che si traduce con “avvelenamento dei dati”. In pratica consiste nell’alterare i dati usati per l’addestramento di un’intelligenza artificiale in modo che le sue elaborazioni diano risultati errati o completamente inattendibili.

Nel caso specifico della protezione delle proprie immagini, il data poisoning consiste nel modificare queste immagini in modo che contengano alterazioni che non sono visibili a occhio nudo ma che confondono o bloccano completamente il processo di addestramento di un’intelligenza artificiale. Semplificando, l’intelligenza artificiale acquisisce una foto del vostro gatto, ma grazie a queste alterazioni la interpreta come se fosse la foto di un cane, di una giraffa o di una betoniera, anche se all’occhio umano si tratta chiaramente della foto di un bellissimo gatto.

Ci sono programmi appositi per alterare le immagini in questo modo: Glaze e Nightshade, per esempio, sono gratuiti e disponibili per Windows e macOS. Richiedono parecchia potenza di calcolo e svariati minuti di elaborazione per ciascuna immagine, ma è possibile dare loro un elenco di immagini e farle elaborare tutte automaticamente. Non sono infallibili, e alcune aziende di intelligenza artificiale adottano già tecniche di difesa contro queste alterazioni. Ma nella maggior parte dei casi queste tecniche consistono semplicemente nell’ignorare qualunque immagine che contenga indicatori di queste alterazioni, per cui se il vostro scopo è semplicemente evitare che le vostre immagini vengano incluse nell’addestramento di un’intelligenza artificiale, Glaze e Nightshade vanno benissimo.

Trilli, la gatta del Maniero Digitale, in versione normale…
…e in versione “avvelenata” con Glaze.

Mist è un altro programma di questo tipo, ma invece di alterare le immagini in modo che la IA le interpreti in modo completamente errato le modifica in una maniera speciale che fa comparire una sorta di watermark o sovrimpressione decisamente sgradevole, una sorta di velo di geroglifici, in ogni immagine generata partendo da immagini trattate con Mist, che come i precedenti è gratuito e disponibile per macOS e Windows e richiede una scheda grafica piuttosto potente e tempi di elaborazione significativi.

C’è una sottile ironia nell’usare software basati sull’intelligenza artificiale per sconfiggere le aziende basate sull’intelligenza artificiale, ma in tutta questa rincorsa fra guardie e ladri non bisogna dimenticare che questi software consumano quantità preoccupanti di energia per i loro calcoli straordinariamente complessi: a gennaio 2024, l’Agenzia Internazionale dell’Energia (IEA) ha pubblicato una stima secondo la quale il 4% della produzione di energia mondiale nel 2026 sarà assorbito dai data center, dalle criptovalute e dall’intelligenza artificiale. Per dare un’idea di cosa significhi, il 4% equivale al consumo energetico di tutto il Giappone.*

“Electricity consumption from data centres, artificial intelligence (AI) and the cryptocurrency sector could double by 2026. Data centres are significant drivers of growth in electricity demand in many regions. After globally consuming an estimated 460 terawatt-hours (TWh) in 2022, data centres’ total electricity consumption could reach more than 1 000 TWh in 2026. This demand is roughly equivalent to the electricity consumption of Japan” (pag. 8).

La stessa agenzia ha calcolato che una singola ricerca in Google consuma 0,3 wattora di energia elettrica [dato risalente al 2009, probabilmente migliorato da allora], mentre una singola richiesta a ChatGPT ne consuma 2,9, ossia quasi dieci volte di più. Per fare un paragone, se tutti usassero ChatGPT invece di Google per cercare informazioni, la richiesta di energia aumenterebbe di 10 terawattora l’anno, pari ai consumi annui di un milione e mezzo di europei.*

“Search tools like Google could see a tenfold increase of their electricity demand in the case of fully implementing AI in it. When comparing the average electricity demand of a typical Google search (0.3 Wh of electricity) to OpenAI’s ChatGPT (2.9 Wh per request), and considering 9 billion searches daily, this would require almost 10 TWh of additional electricity in a year.“ (pag. 34, che cita come fonte l’articolo accademico del 2023 The growing energy footprint of artificial intelligence di Alex De Vries su Joulehttps://doi.org/10.1016/j.joule.2023.09.004).
Il dato di 0,1 Wh (1 kJ) è citato da Google in questo post del 2009“Together with other work performed before your search even starts (such as building the search index) this amounts to 0.0003 kWh of energy per search, or 1 kJ. For comparison, the average adult needs about 8000 kJ a day of energy from food, so a Google search uses just about the same amount of energy that your body burns in ten seconds. In terms of greenhouse gases, one Google search is equivalent to about 0.2 grams of CO2. The current EU standard for tailpipe emissions calls for 140 grams of CO2 per kilometer driven, but most cars don’t reach that level yet. Thus, the average car driven for one kilometer (0.6 miles for those in the U.S.) produces as many greenhouse gases as a thousand Google searches.”
FullFact ha svolto una ricerca sull’argomento e non ha trovato dati più recenti, ma nota che “Google told us that since then it has made its data centres more energy efficient. We also spoke to Yannick Oswald, a PhD researcher in energy footprints at the University of Leeds who told us that if the energy consumption of a Google search has changed since 2009, it’s most likely to have decreased due to improvements in energy efficiency”.
Il confronto con il consumo degli utenti europei è tratto da questo articolo di Vox di marzo 2024.

Pensateci, la prossima volta che invece di usare un motore di ricerca vi affidate a un’intelligenza artificiale online.

Fonti aggiuntive