Vai al contenuto

Marzo 2025

Podcast RSI – “Vibe coding”: creare programmi senza saper programmare

Questo è il testo della puntata del 31 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[AUDIO: picchiettio su una tastiera]

Il crepitio dei tasti di un programmatore che scrive codice per comporre un programma è probabilmente uno dei suoni più caratteristici dell’informatica. Da decenni, saper programmare significa avere pieno potere, avere la facoltà di far fare quello che si vuole al computer o tablet o telefono che sia, poter creare app, senza dover dipendere da nessuno. Ma quel potere richiede studio e impegno: bisogna imparare i linguaggi di programmazione, ciascuno con una sintassi e delle regole differenti, e per molte persone questo non è facile o è semplicemente impossibile. Programmare resta così un’arte praticata da pochi e ammirata a rispettosa distanza dai più.

Tutto questo, però, sta forse per cambiare improvvisamente. Se state pensando di diventare programmatori o sviluppatori, o se siete genitori e pensate che far studiare gli arcani incantesimi della programmazione sia la strada maestra per una carriera informatica garantita per i vostri figli, ci sono due parole che vi conviene conoscere: vibe coding.

Sono due parole che sono state abbinate per la prima volta solo due mesi fa e stanno già trasformando profondamente il modo in cui si crea il software. Non lo si scrive più tediosamente riga per riga, istruzione per istruzione, ma lo si descrive, in linguaggio naturale, semplicemente parlando. Le macchine fanno il resto. O almeno così sembra.

Questa è la storia, breve ma intensa, del vibe coding, di cosa significa esattamente, di chi ha coniato questo termine, e del perché tutti i grandi nomi dell’informatica stanno correndo per reinventarsi, per l’ennesima volta, inseguendo questo mantra.

Benvenuti alla puntata del 31 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Questa storia inizia esattamente il 3 febbraio scorso, quando in Europa è passata da poco la mezzanotte. Andrej Karpathy, ex direttore per l’intelligenza artificiale di Tesla, cofondatore di OpenAI (quella di ChatGPT, per intenderci) e una delle menti più influenti nel settore, pubblica su X un post nel quale descrive un nuovo modo di scrivere codice di programmazione usando toni quasi poetici, perlomeno per un informatico: lui si “abbandona alle vibrazioni” e “dimentica persino che esiste il codice”. Karpathy crea programmi parlando ad alta voce, “praticamente senza mai toccare la tastiera”, dice, lasciando che il riconoscimento vocale e l’intelligenza artificiale traducano le sue istruzioni verbali in righe di codice di programmazione.

Screenshot del post di Karpathy.

Karpathy descrive il concetto generale, il cosiddetto vibe, la “vibrazione” appunto, di quello che vuole ottenere,e lascia che sia il computer a fare il lavoro di manovalanza: quello di trasformare quel concetto in software, ossia di fare il coding, la scrittura del codice secondo le regole del linguaggio di programmazione desiderato.

Senza volerlo, Andrej Karpathy ha coniato un termine, vibe coding, che di colpo ha dato un nome facile e accattivante a una tendenza già in atto nel mondo della programmazione da quando è diventato evidente che le intelligenze artificiali sono in grado di generare codice di programmazione con la stessa facilità con la quale generano testi, suoni e immagini.

E così milioni di tastiere crepitanti sono cadute, quasi all’unisono nel silenzio, abbracciando il vibe coding. Le aziende cercano disperatamente i vibe coder, ossia le persone capaci di generare in poche ore fiumi di codice che prima avrebbero richiesto giorni o settimane. I programmatori tradizionali si sentono improvvisamente come un calamaio di fronte a una biro.

Questo modo di scrivere software, di creare gli elementi fondamentali che determinano il funzionamento di tutti i dispositivi elettronici che usiamo, dai televisori alle automobili, dalle macchine per radiografie ai sistemi di gestione della contabilità, della sanità e del fisco, è un cambiamento enorme.

La maniera tradizionale di sviluppare codice richiede la conoscenza dettagliata dei linguaggi di programmazione e della loro pignola, implacabile sintassi. Una lettera fuori posto, una parentesi di troppo o una di meno, un parametro indicato nell’ordine sbagliato, e non funziona più niente. Ma l’intelligenza artificiale sta cambiando questo approccio, introducendo degli assistenti alla creazione di codice che sono in grado di interpretare la descrizione di un problema, espressa in parole comuni (anche in italiano), e generare del codice che funziona.

Non c’è più bisogno di studiare e ricordare tutti i vari linguaggi informatici: basta esprimersi in modo naturale in una sola lingua, quella che si usa tutti i giorni. Programmare non è più un’arte oscura riservata a una élite, ma arriva alla portata di tutti.

Le persone che hanno idee creative ma non hanno esperienza di programmazione possono ora creare dei prototipi descrivendo a un’intelligenza artificiale cosa hanno in mente. Come dice sempre Andrej Karpathy nel suo ormai storico post, “non sto scrivendo codice – semplicemente vedo cose, dico cose, eseguo cose, e copio e incollo cose, e grosso modo funziona”.

Chi ha esperienza di sviluppo e programmazione, invece, può usare questi strumenti per automatizzare le parti ripetitive della creazione di un programma e diventare più veloce. Le porzioni standard di un software, cose come per esempio una finestra di immissione di dati o di conferma di un codice di accesso, vengono generate dall’intelligenza artificiale, mentre lo sviluppatore si concentra sulla progettazione generale ad alto livello, riducendo drasticamente i tempi di lavoro.

Ma in pratica come funziona tutto questo?


Il vibe coding è un duetto: le persone forniscono istruzioni, descrizioni e obiettivi usando il proprio linguaggio naturale, e gli strumenti di intelligenza artificiale, che sono stati addestrati alimentandoli con enormi quantità di codice e di informazioni di programmazione, traducono tutto questo in una prima bozza di codice.

Le istruzioni fornite sono estremamente semplici e intuitive: cose come “crea un sito che gestisca le prenotazioni, dove i clienti possono vedere quando io sono disponibile e pianificare gli appuntamenti. Il sito deve mandare e-mail di conferma e di promemoria”. Tutto qui. A tutto il resto provvede l’intelligenza artificiale.

È un modo di lavorare iterativo e interattivo, che avanza per affinamenti progressivi: la persona prova la prima bozza e poi chiede alla IA di modificare il codice, descrivendo sempre in linguaggio naturale cosa deve cambiare: per esempio come deve comportarsi il programma se l’utente immette un valore non ammesso e cosa va visualizzato sullo schermo. La persona prova questa seconda bozza e la affina ancora descrivendo le modifiche da fare, e la IA le fa. Il ciclo continua così fino a che il software funziona e il creatore è soddisfatto del risultato. Dato che l’intelligenza artificiale scrive il codice molto più velocemente di qualunque essere umano, è facile effettuare varie passate di affinamento in pochissimo tempo.

L’intelligenza artificiale è anche in grado di correggere eventuali difetti nel codice che ha generato. Quando un software non funziona correttamente, produce un messaggio di errore. Nel vibe coding, il creatore di programmi (che è difficile definire programmatore a questo punto) non analizza l’errore come farebbe tradizionalmente: copia e incolla il messaggio di errore nella chat che sta facendo con l’intelligenza artificiale e lascia che sia questa IA a leggerlo e a trovare e applicare la soluzione opportuna. Anche perché nel vibe coding la persona che sta creando il programma spesso non conosce il linguaggio di programmazione usato e quindi non è in grado di capirne gli errori e correggerli.

Le intelligenze artificiali da adoperare per fare queste cose possono essere specialistiche, come GitHub Copilot, Windsurf AI, Replit e Cursor, oppure intelligenze artificiali generaliste come ChatGPT e Claude, per esempio, che sono in grado di generare anche codice di programmazione.

Ovviamente alle aziende tutto questo fa molta gola, perché promette di ridurre tempi e costi. Con il vibe coding, argomentano, non servono squadre di costosi e supercompetenti programmatori, ma è sufficiente pagare una sola persona con qualifiche più modeste e con pretese economiche altrettanto modeste.

Dario Amodei, fondatore e CEO di Anthropic, l’azienda che ha sviluppato Claude, dice che “non siamo lontani – ci arriveremo fra tre o sei mesi – da un mondo nel quale l’intelligenza artificiale scrive il 90% del codice. Fra dodici mesi potremmo trovarci in un mondo nel quale la IA scrive praticamente tutto il codice.”

[CLIP di Amodei, tratta da Reddit]

I sostenitori di questo nuovo modo di programmare citano come esempio di successo del vibe coding il fatto che il giornalista del New York Times Kevin Roose, che non è un esperto di programmazione, è riuscito a creare numerose applicazioni usando questa tecnica e lo ha raccontato in un seguitissimo articolo.

Un altro esempio molto popolare è il sito fly.pieter.com, che contiene un gioco online (un simulatore di volo molto schematico) che stando al suo creatore, Pieter Levels, guadagna oltre 50.000 dollari al mese vendendo spazi pubblicitari all’interno del mondo virtuale nel quale si svolge l’azione. L’intero gioco è stato realizzato da Levels, da solo e usando l’intelligenza artificiale come assistente, in mezz’ora. Un risultato inimmaginabile con i metodi tradizionali.

Su Internet fioriscono siti che tentano di imitare il successo di Pieter Levels creando in poco tempo videogiochi giocabili anche se poco raffinati, nella speranza di guadagnare qualche soldo. Ma Levels è stato il primo e ha un seguito molto grande sui social network che può proporre ai suoi inserzionisti, mentre chi arriva dopo e lo imita non ha nulla di tutto questo, per cui ha ben poche probabilità di monetizzare la sua pur modesta fatica.

In ogni caso il vibe coding sembra funzionare. Ma prima di buttar via i manuali di programmazione e pensare che basti saper parlare per poter creare programmi, ci sono alcune cose da sapere. Come al solito, quello che sembra troppo bello per essere vero finisce prima o poi per dimostrare di non essere vero.


Il primo problema di questa nuova mania della Silicon Valley è la sua filosofia di base: il creatore del codice non solo non ha bisogno di capirlo, ma anzi capirlo è proprio contrario all’essenza del vibe coding: in realtà non deve essere un creatore ma un utente del codice, e deve accettare quel codice generato dalla IA senza capirlo appieno, altrimenti sta facendo solo programmazione assistita. E questo requisito di non comprendere il codice significa che se il programma non funziona e l’intelligenza artificiale non riesce a sistemarlo, l’aspirante creatore è incapace di intervenire.

Il secondo problema deriva dal primo: anche se il programma creato con il vibe coding sembra funzionare nella maggior parte dei casi, può contenere errori o difetti nei suoi princìpi di funzionamento che emergono solo in casi specifici. Può contenere falle di sicurezza, e modificarlo per manutenzione o aggiornamento è rischioso. Senza una costosa analisi esperta di come funziona, è impossibile sapere come intervenire, e far fare l’intervento all’intelligenza artificiale significa rischiare di introdurre ulteriori errori e incognite, perché la IA non “capisce” in senso stretto cosa sta facendo ma si limita a generare codice statisticamente probabile nel contesto.

Questo è un approccio che può andar bene per creare da zero un prototipo di software, a scopo dimostrativo, qualcosa di semplice per uso personale. Ma gran parte del lavoro degli ingegneri informatici non è di questo genere. Di solito si tratta di interventi su software complesso e preesistente, nel quale la comprensione e la qualità del codice sono fondamentali. Per intervenire su un software di contabilità, per esempio, bisogna capirne non solo il linguaggio informatico, ma anche i princìpi contabili sui quali si basa. E questo l’intelligenza artificiale attuale non lo fa.

Per fare un paragone, il vibe coding applicato a un software già esistente è l’equivalente di un idraulico che invece di studiarsi e capire lo schema dell’impianto sul quale deve intervenire sa che nella maggior parte dei casi che ha visto nella sua carriera le cose miglioravano chiudendo a metà le valvole sui tubi di mandata dispari. Non sa perché, ma di solito funziona. Affidereste il vostro impianto idraulico di casa, o quello di un’intera azienda o di un intero paese, a qualcuno che lavorasse in questo modo?

Probabilmente no. Eppure è esattamente quello che vuole fare Elon Musk, nel suo nuovo ruolo politico, con uno dei software più complessi e ingarbugliati del pianeta: quello che gestisce la previdenza sociale delle persone residenti negli Stati Uniti. Questo software è composto da oltre 60 milioni di righe di codice scritto in COBOL, che è un linguaggio di programmazione creato settant’anni fa, e da milioni di ulteriori righe scritte in altri linguaggi ormai arcaici. L’ultimo aggiornamento importante dei suoi componenti centrali risale agli anni Ottanta del secolo scorso.

Questo è il software che gestisce, fra le altre cose, i pagamenti di previdenza sociale erogati a oltre 65 milioni di persone. Metterci mano senza un’analisi preliminare molto attenta, senza una profonda comprensione del codice che permetta di capire gli effetti a catena di qualunque modifica, significa rischiare di interrompere i pagamenti a milioni di persone che dipendono dalla propria pensione per vivere. Nel 2017 l’agenzia per la previdenza sociale statunitense, che è responsabile di tutto questo sistema, aveva stimato che un ammodernamento dei suoi componenti centrali avrebbe richiesto circa cinque anni. Elon Musk ha dichiarato che vuole farlo nel giro di pochi mesi. Ma l’unico modo per farlo in tempi così stretti è usare l’intelligenza artificiale e rinunciare alle analisi e ai collaudi che normalmente si fanno in situazioni come questa. Cosa mai potrebbe andare storto?

Morale della storia: il vibe coding è un’idea interessante, applicabile in alcuni casi quando le conseguenze di un errore di programmazione non sono gravi e si vuole creare un prototipo che “grosso modo funzioni”, per citare le parole di Andrej Karpathy, ma non può per ora sostituire la competenza di un essere umano che conosce i linguaggi di programmazione e comprende la logica che sta dietro qualunque programma. Non è ancora giunto il momento di buttare via i libri e i manuali, insomma.

Pochi giorni fa ho chiesto a uno sviluppatore che ho incontrato cosa ne pensasse di questa moda del vibe coding, e lui mi ha detto che ne è entusiasta. Non perché lo usi, ma perché sa che avrà più lavoro di prima: quello necessario per correggere i disastri combinati da chi lo usa pensando che ignoranza più IA equivalga a conoscenza, competenza e intelligenza.

Fonti aggiuntive

DOGE Plans to Rewrite Entire Social Security Codebase in Just ‘a Few Months’: Report, Gizmodo, 2025

This Game Created by AI ‘Vibe Coding’ Makes $50,000 a Month. Yours Probably Won’t, 404Media, 2025

Vibe Coding with Cursor, Dolthub.com, 2025

What is vibe coding? How creators are building software with no coding knowledge, discussione su Ycombinator, 2025

What is Vibe Coding? How Creators Can Build Software Without Writing Code, Alitu.com, 2025.

Silicon Valley’s next act: bringing ‘vibe coding’ to the world, Business Insider, 2025

How I Vibe-Coded a Micro App in 10 Minutes with ChatGPT, Medium.com, 2025

Vibe Coding, Medium.com, 2025

Niente Panico RSI – Puntata del 2025/03/31

È andata in onda stamattina alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la mia raccolta completa delle puntate è presso Attivissimo.me/np.

I temi e i link della puntata
  • La NASA studia gli scoiattoli artici per imparare a ibernare gli astronauti (NASA; Popular Science; Popular Science).
  • 31 marzo 1889: inaugurazione della Torre Eiffel.
  • 31 marzo 1851: il fisico francese Leon Foucault dimostra la rotazione terrestre con il pendolo che prenderà il suo nome.
  • Il film più piccolo del mondo: A Boy and His Atom, realizzato nel 2013 spostando singoli atomi (Wikipedia).

Appuntamenti pubblici di aprile

Ecco gli appuntamenti di aprile dove potrete vedere e sentire Paolo:

3 aprile – Lugano – USI palazzo rosso del Campus Ovest, Aula 22 (via Buffi 13), ore 20: si parlerà di uso consapevole di social e intelligenza artificiale. Organizzato dalla Conferenza Cantonale dei Genitori. Per ulteriori informazioni consultare il sito www.genitorinforma.ch

4 aprile – partecipazione a Patti Chiari – trasmissione settimanale della RSI su La1, ore 20.40: si parlerà di truffe informatiche.

12 aprile – Lucerna – Centro Parrocchiale St. Karl, Spitalstrasse 91, ore 16: si parlerà di intelligenza artificiale. Evento organizzato dalla Società Dante Alighieri di Lucerna. Per informazioni: www.dantelucerna.ch

13 aprile – Horgen – Missione Cattolica di Lingua Italiana, Zimmerberg, Burghaldenstr. 7, ore 15: si parlerà di intelligenza artificiale. Evento organizzato dalla Società Dante Alighieri del cantone Svitto. Per informazioni: www.mcli.ch/zimmerberg

Missione SpaceX “Fram2”: primo volo con equipaggio sopra i poli terrestri

Centro spaziale Kennedy. È previsto quando in Italia sarà piena notte (il conto alla rovescia dovrebbe terminare alle 03:46 di martedì 1 aprile 2025 salvo inconvenienti tecnici o meteorologici dell’ultimo momento) il lancio dalla storica rampa di lancio 39-A della Dragon “Resilience” con a bordo un equipaggio di quattro persone in una missione denominata “Fram-2”. Per la storia dell’Astronautica è questa la prima missione spaziale con equipaggio in orbita polare.

“Fram-2” prende il nome dalla storica nave norvegese Fram, che completò diverse spedizioni nelle regioni artiche e antartiche tra il 1893 e il 1912. I quattro futuri astronauti sono due uomini e due donne: nessuno di loro ha ancora volato nello spazio. Si tratta di Chun Wang, nato in Cina ma imprenditore maltese e comandante della missione; la norvegese Jannicke Mikkelsen, comandante di “Resilience”; l’australiano Eric Philips come pilota; e la tedesca Rabea Rogge come specialista di missione. Saranno i primi a viaggiare su un’orbita con inclinazione di 90 gradi, consentendo loro di sorvolare direttamente i poli Nord e Sud del nostro pianeta.

La capsula è dotata di una cupola per consentire l’osservazione della Terra da un’altitudine di 425 – 450 km. Oltre all’osservazione delle regioni polari, i quattro effettueranno una serie di esperimenti scientifici, tra cui alcuni studi sugli effetti della microgravità sul corpo umano; inoltre durante i cinque giorni di volo previsti sarà realizzata per la prima volta la prima radiografia di un essere umano nello spazio. La Dragon “Resilience” sarà lanciata in orbita intorno alla Terra da un razzo Falcon di SpaceX.

Starmus VII (2024): Jane Goodall e le sue parole di speranza

Ultimo aggiornamento: 2025/03/30 19:35.

Tra poco andrò con la Dama del Maniero all’edizione 2025 di Starmus, il festival di scienza e musica che quest’anno si tiene alle Canarie dal 25 al 29 aprile. L’anno scorso siamo andati a Bratislava per assistere alle conferenze di scienziati di altissimo livello e ai concerti di Jean-Michel Jarre, Tony Hadley, Brian May, Offspring e tanti altri artisti che tradizionalmente caratterizzano ogni edizione di Starmus (ne ho scritto qui a suo tempo).

I video delle conferenze scientifiche dell’anno scorso sono stati pubblicati online; comincio a presentarli qui uno alla volta, partendo dall’inizio: il discorso della primatologa Jane Goodall, intitolato Reasons for Hope, ossia “motivi di speranza”. Se per caso non sapete chi è Jane Goodall, preparatevi a scoprire una storia straordinaria.

Con le dimostrazioni di arroganza e stupidità collettiva che ci arrivano addosso continuamente, soprattutto in questo periodo, è difficile avere il coraggio di mantenere accesa la luce della speranza. Spero che le splendide parole della novantenne Jane Goodall possano dare una mano.

Includo qui sotto la mia traduzione (bozza creata da DeepL, riveduta da me) e la mia revisione dei sottotitoli di YouTube, che contenevano (e tuttora contengono) perle come “Jane has worked extensively on conservation and anal welfare” (a 30 secondi esatti dall’inizio).


Traduzione italiana

David Eicher: È raro che un settore della scienza sia rappresentato così bene da una sola persona. Ma è il caso di Jane Goodall, la più importante primatologa del mondo e la maggiore esperta, tra le altre cose, di scimpanzé. Fondatrice del Jane Goodall Institute, Jane ha lavorato a lungo per la conservazione e il benessere degli animali. È Messaggero di Pace delle Nazioni Unite e membro onorario del World Future Council, e ora, come ho detto, è felicemente membro del comitato consultivo di Starmus. Con il suo discorso, “Motivi di speranza”, diamo il benvenuto alla leggendaria Jane Goodall.

[standing ovation]

Jane Goodall: Beh, grazie per il fantastico benvenuto, penso che vi meritiate un benvenuto piuttosto diverso da quello che avete mai sentito prima. Il richiamo che sentireste, il benvenuto degli scimpanzé che ho passato tanto tempo a studiare.

[vocalizzi da scimpanzé]

Goodall: Io Jane. Beh, prima di tutto sono molto onorata di essere qui a questo Starmus Earth. È la prima volta che partecipo. Sono molto onorata di essere stata invitata nel comitato consultivo e sono particolarmente entusiasta che lo Starmus di quest’anno si concentri sul nostro pianeta natale. Uno dei miliardi e miliardi di pianeti che forse sono là fuori nel cosmo. Ma non è affascinante che sia grazie alla nostra esplorazione dello spazio che abbiamo ottenuto la prima splendida immagine del nostro pianeta Terra, quel bellissimo pianeta verde e blu, scattata dallo spazio? È a quel punto, credo, che la gente ha iniziato a rendersi conto che questo è un pianeta molto fragile.

Ed eccoci qui, che ruotiamo intorno al Sole, un pianeta molto piccolo circondato dall’immensità nera e buia dello spazio. E penso che sia stato un campanello d’allarme; è stato un campanello d’allarme per le persone sulla Terra per rendersi conto che questa è la nostra unica casa. È meglio che iniziamo a proteggere il pianeta. E nel corso dei secoli, probabilmente dalla rivoluzione industriale, forse dalla rivoluzione agricola, abbiamo lentamente inflitto sempre più danni a questo pianeta, la nostra unica casa, e con la combustione di combustibili fossili e tutte le altre cose che abbiamo fatto per creare quei gas serra, quei gas che circondano il pianeta come una coperta e intrappolano il calore del sole che ha portato al cambiamento climatico.

E il cambiamento climatico è inseparabile dalla perdita di biodiversità, e con il cambiamento climatico abbiamo assistito a questi terrificanti cambiamenti nei modelli meteorologici in tutto il mondo, tempeste e uragani sempre più frequenti e più violenti, inondazioni, siccità e ondate di calore, e i terrificanti incendi boschivi che abbiamo visto in tante parti del globo, comprese le zone settentrionali dove gli incendi non avevano mai bruciato prima.

E abbiamo visto sciogliersi i ghiacciai e il ghiaccio; abbiamo visto il livello del mare salire, abbiamo visto il metano fuoriuscire dal terreno che era stato congelato per migliaia e migliaia di anni… e ci sono tanti altri modi in cui abbiamo danneggiato questo pianeta.

Il cambiamento climatico non è qualcosa che affronteremo in futuro, il cambiamento climatico è qui, ora. Non solo in luoghi come il Bangladesh e i paesi a bassissima elevazione, ma anche nei paesi economicamente più sviluppati abbiamo assistito a terribili inondazioni a Londra, a New York e anche in alcune parti d’Europa.

E poi c’è la perdita di biodiversità. Siamo nel bel mezzo della sesta grande estinzione del pianeta Terra, e questa è stata causata da noi. E siamo in un momento molto, molto difficile, e quello che facciamo ora influenzerà il futuro della vita sul pianeta Terra. E ci vedo come all’imboccatura di un tunnel molto lungo e molto buio e proprio alla fine di quel tunnel c’è una piccola stella che brilla. Questa è la speranza.

Ma non possiamo sederci all’imbocco del tunnel a braccia conserte e sperare che quella stella ci venga incontro. No, dobbiamo rimboccarci le maniche, dobbiamo arrampicarci, strisciare sotto, aggirando tutti gli ostacoli che si frappongono tra noi e quella stella.

E ci sono quelli più ovvi, come il cambiamento climatico e la perdita di biodiversità, che ho già menzionato e credo che ne conosciamo bene le ragioni, e l’agricoltura industriale con il suo enorme uso di combustibili fossili, l’uso di pesticidi chimici ed erbicidi e fertilizzanti artificiali che stanno avendo un effetto drammatico sulla biodiversità e stanno uccidendo il suolo stesso da cui dipendiamo.

E i fertilizzanti artificiali che vengono scaricati nei fiumi e finiscono nel mare stanno causando zone morte dove nulla può vivere. Non possiamo continuare così, vero? E ci sono tanti altri problemi che affrontiamo mentre procediamo, mentre navighiamo attraverso questo tunnel. C’è l’allevamento intensivo di animali – e lì dobbiamo pensare non solo al danno per l’ambiente, che è enorme, ma alla crudeltà: la crudeltà coinvolta.

E sapete, è stato proprio grazie a quei primi studi che ho fatto sugli scimpanzé che hanno contribuito a cambiare gli atteggiamenti verso ciò che – verso chi – gli animali sono realmente. Quando sono arrivata all’Università di Cambridge nel 1961, mi è stato detto che solo gli esseri umani avevano personalità, solo gli esseri umani avevano menti capaci di risolvere problemi e solo gli esseri umani avevano emozioni come la felicità, la tristezza, la paura.

Fortunatamente, quando ero bambina, avevo avuto un insegnante straordinario che mi aveva insegnato che, sotto questo aspetto, quegli scienziati si sbagliavano. Quell’insegnante era il mio cane Rusty. Non si può condividere la propria vita con un animale e non sapere che non siamo gli unici esseri senzienti e intelligenti del pianeta.

Quindi ora sappiamo che mucche, maiali, capre, pecore, polli sono tutti individui con una personalità. Quindi quando pensiamo all’allevamento intensivo degli animali, pensiamo anche alla crudeltà. Pensiamo che ora sappiamo di far parte di questo incredibile regno animale, non di esserne separati. E naturalmente impariamo sempre di più su quanto siano incredibili questi animali.

Poi dobbiamo scavalcare o strisciare sotto la povertà. Le persone che vivono in povertà distruggono l’ambiente nella loro disperata lotta per la sopravvivenza, abbattendo gli alberi per guadagnare qualche soldo o per coltivare cibo per le loro famiglie affamate, e finché non saremo in grado di alleviare la povertà non potremo mai avere un mondo in cui le persone decidano di acquistare solo prodotti che non hanno danneggiato l’ambiente o che non sono stati crudeli con gli animali, perché i poveri non possono fare questo tipo di scelta. Ma il resto di noi può fare qualcosa per il proprio stile di vita insostenibile. E come è possibile che gli economisti abbiano pensato che possiamo avere uno sviluppo economico illimitato su un pianeta con risorse naturali limitate e popolazioni umane e animali in crescita? Non ha senso.

Dobbiamo avere un nuovo modo di pensare, una nuova mentalità, e poi dobbiamo anche considerare la corruzione, che sta distruggendo gli sforzi di così tante persone per cambiare le cose. E ora abbiamo la guerra: due grandi guerre, conflitti in tutta l’Africa, conflitti in altre parti del mondo, che danneggiano l’ambiente, causando orribili sofferenze a centinaia e migliaia di esseri umani. Abbiamo discriminazioni razziali e di genere, così tante cose da superare.

Buone notizie: ci sono persone, gruppi di persone, che stanno affrontando ognuno di questi problemi, quelli che ho menzionato e tutti quelli che non ho menzionato. Purtroppo molti di questi gruppi lavorano in modo isolato. Non pensano al quadro generale, risolvono un problema e non pensano agli altri problemi che potrebbero causare, come le auto elettriche – incredibili – che risolvono l’inquinamento e tutto il resto, ma hanno bisogno… le batterie hanno bisogno di litio, e enormi aree ambientali vengono ora distrutte per trovare litio durante l’estrazione.

Quindi la gente mi dice: “Jane, lei ha visto così tanti di questi problemi. Ha davvero speranza?”

E io ce l’ho! Credo che abbiamo ancora un po’ di tempo. Ma quando dico che ho speranza, dipende da noi. Dobbiamo unirci e cercare di fare la differenza. Non dobbiamo lasciare che siano gli altri a farlo. Dipende da noi.

Ma le ragioni principali per cui ho speranza sono queste: innanzitutto, c’è la scienza, e molti scienziati sono qui e sono stati qui agli eventi Starmus. La scienza sta iniziando a trovare modi per utilizzare questo incredibile intelletto che ci rende più diversi di qualsiasi altra cosa dagli scimpanzé e da altri animali che stanno iniziando a usare quell’intelletto, per creare modi in cui possiamo vivere in maggiore armonia con la natura. E questo si sta evolvendo continuamente, e ci saranno altre persone che vi parleranno dei benefici del nostro intelletto e delle nostre nuove tecnologie che possono aiutarci. Ma anche noi, come individui, pensiamo alle nostre impronte ambientali ogni giorno; ogni giorno, ognuno di noi può fare la differenza.

E quindi la mia prossima ragione di speranza è la resilienza della natura. Possiamo distruggere dei luoghi, ma se diamo loro tempo e forse un po’ di aiuto, la natura tornerà. Ho notato che il Danubio, che era così orribilmente inquinato in epoca sovietica, sta gradualmente iniziando a riprendersi, anche se potrebbe volerci molto tempo. Ma in tutto il mondo ho visto con i miei occhi luoghi che erano stati completamente distrutti da noi, dove la natura è tornata e con le prime erbe e poi gli alberi che crescono dai semi lasciati nel terreno, gli insetti tornano, e gli uccelli e gli altri mammiferi, e gradualmente ritorna la biodiversità… Forse non esattamente la stessa, ma diventa di nuovo un ecosistema vivo e fiorente.

Ho incontrato animali che sarebbero dovuti estinguersi se non fosse stato per persone straordinarie che hanno detto: “No, non lascerò che l’ibis eremita si estingua sotto i miei occhi; non lascerò che il merlo della Nuova Zelanda si estingua”.* Erano rimasti solo due uccelli, un maschio e una femmina, e grazie alla passione di un uomo ora sono più di 150.

* non sono sicuro della traduzione dei nomi di questi volatili. Il primo dovrebbe essere un Geronticus eremita; il secondo dovrebbe essere un Petroica traversi. Ringrazio Martino per le ricerche [N.d.T.].

Ed è incredibile quello che possiamo fare. E c’è questo spirito indomito con cui le persone affrontano ciò che sembra impossibile e non si arrendono.

Ma la mia più grande speranza risiede nei giovani di oggi. E nel 1991, quando incontravo tanti giovani, delle scuole superiori, delle università, che già allora avevano perso la speranza ed erano arrabbiati o depressi o per lo più semplicemente apatici, non sembrava importare loro. E quando ho chiesto loro: “Perché vi sentite così?” “Beh, avete compromesso il nostro futuro e non possiamo farci nulla”.

Abbiamo compromesso il futuro dei nostri giovani? Lo abbiamo rubato, e lo stiamo ancora rubando oggi.

Ma era vero che non potevano farci nulla? No. Ho già detto che c’è un periodo di tempo in cui, se ci uniamo, possiamo davvero fare la differenza. Roots and Shoots [radici e germogli, N.d.T.], il programma che ho avviato, è rivolto ai giovani dall’asilo all’università, con la partecipazione di un numero crescente di adulti. È iniziato con dodici studenti delle scuole superiori in Tanzania, ora è presente in settanta paesi con, come ho detto, persone di tutte le età; anche gli adulti ora stanno formando gruppi, e sta crescendo qui in Slovacchia.

E questi giovani, una volta che hanno compreso i problemi e che noi diamo loro la possibilità di agire, e Roots and Shoots è tutto incentrato sul dare potere ai giovani e ascoltare le loro voci, sono in grado di cambiare il mondo. Ed è incredibile che stiano cambiando il mondo proprio mentre vi parlo oggi.

Ma l’ultima cosa che vorrei dire a tutti voi è che non dovete dimenticare che, come individui, avete un ruolo da svolgere. Credo che ci sia una ragione per cui siete su questo pianeta e ogni singolo giorno che vivete avete un impatto sul pianeta.

La gente mi dice: “Ma Jane, io sono solo una singola persona, i problemi sono enormi, cosa posso fare?” È come… Pensate a un deserto. Una goccia di pioggia che cade non fa alcuna differenza. Ma quando milioni o miliardi di gocce di pioggia cadono, risvegliano la vita nascosta sotto la sabbia, che fiorisce, e il deserto prende vita. Questo è ciò che i nostri giovani possono fare. Questo è ciò che tutti voi potete fare. Ricordate: insieme possiamo cambiare il mondo. Grazie.

Originale inglese

David Eicher: So rarely is an area of science represented so well by one person. But that’s the case with Jane Goodall, the world’s leading primatologist and the leading expert, among other things, on chimpanzees. Founder of the Jane Goodall Institute, Jane has worked extensively on conservation and animal welfare. She’s a United Nations Messenger of Peace and an honorary member of the World Future Council, and now happily – as I mentioned – a member of the Starmus advisory board. With her talk, “Reasons for Hope,” please welcome the legendary Jane Goodall.

[standing ovation]

Jane Goodall: Well, thank you for a fantastic welcome, and I think you deserve a rather different kind of welcome than has ever been heard here before. The call that you would hear, the welcome from the chimpanzees that I spent so much of my time learning about.

[vocalizzi da scimpanzé]

Goodall: Me Jane. Well, first of all I’m very honored to be here at this Starmus Earth. It’s the first time I’ve attended. I’m very honored to have been invited onto the Advisory Board and I’m particularly thrilled that this year’s Starmus is concentrating on our home planet. One of the maybe billions and billions of planets that are out there in the cosmos. But isn’t it fascinating that it’s because of our exploration into space that we got that first stunning image of our own planet Earth – that beautiful green and blue planet – taken from space. And then, I think, people began to realize this is a very fragile planet.

And there we are, spinning around the Sun, a very small planet surrounded by the black dark immensity of outer space. And I think that was a wakeup call; it was a wakeup call for people on Earth to realize this is our only home. We we’d better start protecting the planet. And over the ages, probably since the Industrial Revolution, maybe since the Agricultural Revolution, we have slowly been inflicting more and more harm upon this planet, our only home, and with our burning of fossil fuels and all the other things that we’ve done to create those greenhouse gases – those gases that circle the planet like a blanket and trap the heat of the sun that’s led to climate change.

And climate change is inseparable from loss of biodiversity, and with climate change we’ve seen these terrifying changes in weather patterns around the world, worse and more frequent storms and hurricanes and flooding and droughts and heat waves, and the terrifying forest fires that we have seen in so many parts of the globe including up in the northern areas where fires never burnt before.

And we’ve seen glaciers and ice melting; we’ve seen sea levels rising, we’ve seen the methane leaking out from the ground that was frozen for thousands and thousands of years… and there are so many other ways in which we’ve harmed this planet.

Climate change isn’t something that we’re facing in the future – climate change is here, here and now. Not only in places like Bangladesh and low-lying countries, but in the more economically developed countries we’ve seen terrible flooding in London, and in New York, and in parts of Europe as well.

And then there’s the loss of biodiversity. We are in the midst of the sixth great extinction on planet Earth, and this one was caused by us. And we are at a very, very difficult point in time, and what we do now is going to affect the future of life on planet Earth. And I see us as like at the mouth of a very long and very dark tunnel and right at the end of that tunnel is a little star shining. That’s hope.

But we don’t sit at the mouth of the tunnel with our arms crossed and hope the star will come to us. No, we have to roll up our sleeves, we have to climb over, crawl under, work our way around all the obstacles that lie between us and that star.

And there are the obvious ones, like climate change and loss of biodiversity, that I’ve mentioned and I think we mostly know the reasons for that, and industrial agriculture with its huge use of fossil fuel, its use of chemical pesticides and herbicides and artificial fertilizer that are having a dramatic effect on biodiversity and actually killing the very soil on which we depend.

And the the artificial fertilizers that washed down into the rivers and out into the sea are causing dead zones where nothing can live. We can’t go on like this, can we? And there are so many other problems that we face as we go, navigate through this tunnel. There’s the intensive farming of animals – and there we have to think not only of the harm to the environment, which is huge, but the cruelty: the cruelty involved.

And you know, it was really because of those early studies that I did on chimpanzees that have helped to change attitudes towards what – who – animals really are. When I got to Cambridge University in 1961, I was actually told that only human beings had personalities, only human beings had minds capable of solving problems, and only human beings had emotions like happiness, sadness, fear.

Fortunately I’d been taught by an amazing teacher, when I was a child, that in this respect these scientists were wrong. That teacher was my dog Rusty. You can’t share your life with any animal and not know that we are not the only sentient, sapient beings on the planet.

So we now understand that cows, pigs, goats, sheep, chickens – they all are individuals with personalities. So when we think about intensive animal farming, let us please also think about cruelty. Let us think that we now understand we are part of, and not separate from, this amazing animal kingdom. And of course all the time we’re learning more and more details about exactly how amazing these animals are.

Then we have to climb over or crawl under poverty. People living in poverty, they destroy the environment in their desperate struggle to survive, cutting down the trees to make money or to grow food for their starving families, and until we can alleviate poverty we can never have a world where people decide only to buy products that haven’t harmed the environment or weren’t cruel to animals, because poor people cannot make those decisions. But the rest of us, we can do something about our unsustainable lifestyles. And how is it possible that economists have thought that we can have unlimited economic development on a planet with finite natural resources and growing populations of humans and livestock? It doesn’t make sense.

We have to have a new way of thinking, a new mindset, and then we also have to consider corruption, which is destroying the efforts of so many people to make change. And now we have war: two major wars, conflicts across Africa, conflict in other parts of the world, harming the environment, causing horrible suffering to so many hundreds and thousands of human beings. We’ve got racial and gender discrimination, so much to overcome.

Good news: there are people, groups of people, tackling every single one of these problems, those I’ve mentioned and all the many that I haven’t. Sadly, so many of these groups are working in isolation. They’re not thinking of the whole picture, they solve one problem and they’re not thinking about other problems which they may be causing, like electric cars – amazing – solving pollution and all that, but they need… the batteries need lithium, and huge areas of environment are now being destroyed to find lithium during mining.

So people say to me, “Jane, you’ve seen so many of these problems. Do you really have hope?”

And I do! I believe we have a window of time. But when I say I have hope, it depends on us. We have to get together and try to make a difference. We mustn’t leave it to others. It’s up to us.

But my main reasons for hope: first of all, there’s science, and many of the scientists are here and have been here at the Starmus events. Science is beginning to find ways using this amazing intellect that makes us more different than anything else from chimpanzees and other animals beginning to use that intellect to create ways in which we can live in greater harmony with nature and this is evolving all the time and there will be other people speaking to you about the benefits of our intellect and our new technologies that can help. But we too, as individuals, please let us think about our own environmental footsteps each day, each day, every single one of us can make a difference.

And so my next reason for hope is the resilience of nature. We can destroy places, and give them time and perhaps some help, nature will return. I gather the Danube, which was so horribly polluted in Soviet times, is gradually beginning to recover, although it may take a long time. But all over the world I have seen with my own eyes places that were totally destroyed by us, where nature has come back and with the first grasses and then the trees growing from seeds left in the ground, the insects come back, and the birds and the other mammals, and gradually biodiversity returns… Maybe not exactly the same, but it becomes once again a living, thriving ecosystem.

I’ve met animals that should have been extinct if it wasn’t for amazing people saying “No, I will not let the northern bald ibis go extinct on my watch; I will not let the New Zealand black robin become extinct.” There were just two birds left, one male and one female, and because of the passion of one man that’s now over 150.

And so it’s incredible what we can do. And there is this indomitable spirit where people tackle what seems impossible and they won’t give up.

But my greatest reason for hope lies in the young people today. And back in 1991, when I was meeting so many young people, high school, university, who already back then had lost hope and they were angry or they were depressed or mostly just apathetic, they didn’t seem to care. And when I asked them, “Why do you feel this way?” “Well, you’ve compromised our future, and there’s nothing we can do about it.”

Have we compromised the future of our young people? We’ve been stealing it; and we’re still stealing it today.

But was it true there was nothing they could do? No. I’ve already said there’s this window of time when if we get get together we can truly make a difference. Roots and Shoots, the program I began, is for young people from kindergarten through university with more adults taking part. It began with twelve students in Tanzania high school students it’s now in seventy countries with, as I say, people of all ages even adults now are forming groups and it’s growing here in Slovakia.

And these young people – once they understand the problems and we empower them to take action, and Roots and Shoots is all about empowering young people, listening to their voices, and it’s incredible – they are changing the world even as I speak to you today.

But the last thing I would say to all of you, please don’t forget you, as an individual, have a role to play. You’re on this planet for a reason, I believe, and every single day that you live you make some impact on the planet.

People say to me, “But Jane, I’m just one person, the problems are huge, what can I do?” It’s like… Think of a desert. One drop of rain falls: that won’t make any difference. But when millions or billions of raindrops fall, that wakes up the life lying hidden beneath the sand and it comes and blooms and the desert comes to life. That’s what our young people can do. That’s what all of you can do. Just remember: cumulatively, we can change the world. Thank you.

[Applausi]

1982/03/30: Rientro a terra della navetta spaziale Columbia (STS-3)

1982/03/30. Il terzo volo orbitale dello Space Shuttle Columbia (STS-3) si conclude sulla pista di atterraggio di White Sands in New Mexico, zona scelta per il rientro dopo i danni riportati alla pista di Edwards in California a causa di un violento nubifragio. In Italia le lancette dell’orologio segnano le 18:07.

Nel corso degli otto giorni di missione intorno alla Terra, i due astronauti Jack Lousma e Gordon Fullerton sperimentano il controllo termico della navetta nelle diverse configurazioni di volo e di esposizione al Sole e allo spazio. Inoltre, durante le 130 orbite compiute intorno al nostro pianeta, Lousma e Fullerton utilizzano vari strumenti per le osservazioni astronomiche e per la fisica dei plasmi spaziali.

Niente Panico RSI – Puntata del 2025/03/24

Lunedì scorso è andata in onda una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera dalle 9 alle 10. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la mia raccolta completa delle puntate è presso Attivissimo.me/np.

Spirale luminescente in cielo stasera: è gas rilasciato da un razzo di SpaceX. Nessun pericolo (e nessun alieno)

Ho visto che sui social network ci sono moltissime foto che mostrano una spirale luminescente avvistata nei cieli dell’Europa questa sera intorno alle 21. Si tratta di una scia di propellente sfiatato da un razzo di SpaceX e illuminato dal Sole.

In dettaglio, si tratta del propellente rilasciato dal secondo stadio di un razzo Falcon 9 di SpaceX, partito alle 18.48 (ora dell’Europa centrale) dalla Florida per portare in orbita un satellite militare. La nuvola di propellente riflette il Sole (che alla quota alla quale si trova il veicolo spaziale è ancora sopra l’orizzonte) e forma una spirale perché lo stadio ruota su se stesso mentre sta sfiatando.

Lo stadio è poi rientrato sulla Terra precipitando senza pericolo nell’Oceano Indiano.

Questo tipo di fenomeno non è una novità: lo sfiato avviene a ogni lancio di un razzo (un esempio qui sul mio blog precedente). Tuttavia la spirale diventa visibile soltanto quando ci sono le condizioni giuste di illuminazione: deve esserci buio al suolo ma il Sole deve essere ancora in grado di illuminare la nuvola di gas.

Chiunque parli di fenomeni misteriosi, di presenze aliene, di portali cosmici e via dicendo dimostra solo una di due cose: nel migliore dei casi, la propria ignoranza delle attività spaziali e la propria incapacità di stare zitto quando non sa di cosa parla; nel peggiore dei casi, la propria meschina pochezza nel cercare di acchiappare qualche clic e qualche like creando misteri e allarmi inesistenti invece di informarsi e informare.

Podcast RSI – Con l’IA la Teoria dell’Internet Morta si sta avverando

Questo è il testo della puntata del 24 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: “Vedo la gente morta” da Il Sesto Senso (1999)]

Facebook, Instagram, WhatsApp, Messenger stanno introducendo anche in Europa gli assistenti virtuali basati sull’intelligenza artificiale. I risultati di Google oggi vengono generati anche con l’intelligenza artificiale, spesso con effetti involontariamente comici. I siti di commercio usano dei chatbot per rispondere automaticamente ai clienti. Secondo uno studio condotto da Amazon, il 57% dei contenuti visibili online è costituito principalmente da materiale generato dall’intelligenza artificiale. I siti che fabbricano notizie false usano i generatori di testi per sfornare fiumi di disinformazione per conto di governi, movimenti politici e imprenditori che monetizzano le fake news. I social network sono pieni di influencer sintetici che guadagnano postando foto e video sintetici che ricevono commenti e lodi sintetiche da utenti altrettanto sintetici, in un corto circuito di contenuti totalmente artificiali.

Quanto c’è rimasto di reale e autentico in Internet?

Secondo una tesi di complotto nota come “Teoria dell’Internet Morta”, quasi tutto quello che vediamo online sarebbe contenuto generato automaticamente, manipolato da algoritmi nell’ambito di un piano mondiale per manipolare le menti di tutta l’umanità, e le cose starebbero così già dal 2016.

Questa è la storia di una teoria di complotto che è diventata realtà, almeno in parte, al netto dei suoi aspetti più deliranti. L’aumento dei contenuti generati dall’intelligenza artificiale è tangibile e quantificabile e ha conseguenze sociali forti e inaspettate. E all’orizzonte si staglia la minaccia del cosiddetto collasso dei modelli che sembra porre un limite definitivo al miglioramento delle attuali intelligenze artificiali.

Benvenuti alla puntata del 24 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Meta ha appena annunciato che il suo assistente basato sull’intelligenza artificiale, denominato Meta AI, sarà disponibile anche in Europa, Svizzera compresa, a distanza di due anni dal suo debutto negli Stati Uniti. Sarà comunque più limitato nelle prestazioni, per tenere conto della normativa europea che in sostanza vieta di usare i contenuti postati dagli utenti del continente per addestrare le intelligenze artificiali senza il consenso esplicito di quegli utenti [TechCrunch; Meta].

Meta AI sarà disponibile in tutte le principali app di Meta, quindi WhatsApp, Instagram, Messenger e Facebook, e in sei lingue: inglese, francese, spagnolo, portoghese, tedesco e italiano. Sarà fondamentalmente un chatbot integrato nelle app: la sua icona sarà un cerchio azzurro al quale si potranno porre domande senza dover uscire dall’app stessa.

Con l’arrivo di Meta AI, centinaia di milioni di utenti europei delle app di Meta si abitueranno ad avere nei loro gruppi Whatsapp, per esempio, dei membri sintetici da evocare per trovare un ristorante o avere informazioni su qualunque argomento, senza dover più passare da Google o da ChatGPT. A patto di fidarsi delle loro risposte, perché il problema delle cosiddette allucinazioni, ossia risposte che hanno un tono molto convincente ma sono inventate di sana pianta senza alcun nesso con la realtà, è serio e non sembra destinato a sparire presto.

Lo sa bene Google, la cui intelligenza artificiale integrata nei risultati di ricerca sta regalando momenti di ilarità involontaria. Sul social network Bluesky è stata pubblicata una compilation delle idiozie, in alcuni casi pericolose, fornite agli utenti dall’intelligenza artificiale di Google.

Alla domanda “quali attori hanno vinto degli Oscar per un film di Steven Spielberg”, Google ha risposto che lo hanno vinto Tom Hanks per Philadelphia e Holly Hunter per Lezioni di piano, dichiarando con risolutezza che i due film erano stati diretti da Spielberg quando in realtà la regia era rispettivamente di Jonathan Demme e Jane Campion.

Pazienza, direte voi, non muore nessuno se una IA sbaglia ad attribuire la regia di un film. Però lo scopo al quale dovrebbero servire le intelligenze artificiali è fornire informazioni, e fornire informazioni esatte, altrimenti sono solo uno spreco di tempo e di energia elettrica e causano solo confusione e disinformazione.

La questione si fa più seria se ci si fida della IA di Google per la propria salute, perché è capace di consigliare di rimediare al bruciore di stomaco mangiando carta igienica, la cui morbidezza “può lenire un esofago irritato”, dice testualmente. La stessa IA ha consigliato alle persone di mangiare “almeno un sassolino al giorno” e ha proposto di applicare il formaggio alla pizza usando della colla [Snopes].

Restando in campo culinario, se si chiede a Google se si può usare la benzina come combustibile per cuocere degli spaghetti, risponde di no, però aggiunge che si possono preparare degli spaghetti piccanti se si prepara una salsa facendo saltare in padella “aglio, cipolla e benzina” [Mastodon; BBC]. Se si interroga la IA di Google per sapere se la trippa è kosher o no, la risposta generata da miliardi di dollari di investimenti nell’intelligenza artificiale è risultata essere “dipende dalla religione della mucca”.

Se vi state chiedendo come possa emergere una risposta così demenziale, la spiegazione è che le cosiddette intelligenze artificiali non hanno cognizione della realtà e men che meno hanno il senso dell’umorismo, ma sono semplicemente dei costosi e complicatissimi sistemi di analisi statistica dei testi, per cui se un sito satirico o parodistico [per esempio questo] scrive un’assurdità come “la trippa è kosher a seconda della religione della mucca” e quella frase è quella che in tutta Internet statisticamente corrisponde meglio alla domanda che è stata posta, quelle intelligenze artificiali rigurgiteranno quella frase come risposta, presentandola come se fosse totalmente seria [BoingBoing; LanguageLog]. Questi errori vengono corretti manualmente [back-end fix] man mano che vengono scoperti, ma è impensabile poterli correggere tutti e comunque si tratta di pezze che non risolvono l’incapacità di base delle intelligenze artificiali attuali.


Anche le interazioni sui social network sono sempre più artificiali. Qualunque post pubblicato su X che parli di criptovalute, per esempio, attira immediatamente un’orda di bot, ossia di account automatici basati sull’intelligenza artificiale, che commentano con una frase a vanvera e linkano il sito del loro proprietario, e poi arrivano altri bot che rispondono ai commenti dei primi, in un fiume interminabile di banalità e spam scritto da macchine e letto da altre macchine, tanto che sta diventando difficile fare qualunque discussione significativa.

Instagram si sta riempiendo di “immagini generate dall’intelligenza artificiale che non hanno nessun valore oltre all’essere fugaci novità e si sta riempiendo di testi generati dalla IA che nessuno desidera leggere”, come ha scritto Dani Di Placido su Forbes, notando anche l’enorme numero di descrizioni di prodotti su Amazon e nei negozi online in generale che sono manifestamente generate da intelligenze artificiali non supervisionate. È l’unica spiegazione plausibile per il fatto che così tanti prodotti hanno descrizioni costituite dalle parole “Mi dispiace ma non posso soddisfare questa richiesta perché è contraria alle regole di utilizzo di OpenAI”.

Fonte: X.
Fonte: X.

Gli esseri umani sembrano essere diventati una minoranza dispersa nel mare di contenuti generati freneticamente dalle intelligenze artificiali. Questo mare è talmente vasto che secondo uno studio pubblicato nel 2024 da un gruppo di ricercatori di Amazon, il 57% dei testi di tutto il web è stato tradotto in tre o più lingue usando sistemi di traduzione automatica. Oggi, insomma, i principali generatori di testi al mondo non siamo più noi: sono le macchine.

Il risultato di questo spodestamento è che le intelligenze artificiali stanno cominciando a influenzare il modo in cui scriviamo anche noi. Alcuni linguisti hanno notato l’improvviso boom di popolarità di certe parole nelle pubblicazioni mediche in inglese quando è arrivato ChatGPT. Per esempio, l’uso della parola delve, ossia “approfondire”, si è più che decuplicato nel giro di quindici mesi dal debutto di ChatGPT, a novembre 2022.

La ragione, secondo questi esperti, è che questa parola è molto più usata della media mondiale nell’inglese parlato in Africa, dove lavora la manodopera a basso costo che fa il controllo della qualità delle risposte generate dalle intelligenze artificiali in fase di collaudo, e quindi ChatGPT ha incamerato questa maggiore frequenza nel proprio modello linguistico. Quando i medici di tutto il mondo hanno cominciato a usare ChatGPT come assistente per scrivere i loro articoli, hanno inconsapevolmente cominciato a usare delve più del normale [The Guardian; Getfreewrite.com; JeremyNguyen]. E così le macchine, silenziosamente, modificano sotto il nostro naso una cosa così fondamentalmente umana come la lingua che parliamo.

Tutti questi esempi sembrano avvalorare la cosiddetta Teoria dell’Internet Morta [Dead Internet Theory], ossia l’idea che la stragrande maggioranza del traffico di Internet, dei post e degli utenti stessi sia costituita da sistemi automatici e intelligenze artificiali e che gli esseri umani siano una presenza marginale nella Rete. Questa teoria è nata in alcuni forum di Internet una quindicina di anni fa ed è diventata famosa nel 2021 grazie a un articolo pubblicato sul popolare sito The Atlantic e firmato da Kaitlyn Tiffany che la descriveva in dettaglio.

La Teoria dell’Internet Morta è una tesi di complotto classica, che ipotizza una colossale cospirazione dei governi del mondo e in particolare di quello statunitense per nasconderci la verità e manipolare le opinioni mostrandoci solo contenuti generati da intelligenze artificiali e affini. La sua falla logica principale è che afferma che Internet sarebbe “morta”, per così dire, soffocata dalla IA, già nel 2016 o 2017, quando ChatGPT e le altre intelligenze artificiali necessarie per questa ipotetica generazione di immense quantità di contenuti sintetici non erano ancora state sviluppate.

È vero che alcuni aspetti di questa teoria somigliano molto a quello che si sta verificando adesso, con l’attuale proliferazione di testi e immagini generate, ma è una somiglianza soltanto superficiale, e soprattutto c’è un fatto tecnico che invalida completamente l’idea del grande complotto. Questo fatto si chiama collasso dei modelli.


Molte persone sono colpite dai progressi molto rapidi dell’intelligenza artificiale in questi ultimi anni e hanno l’impressione che questi progressi siano inarrestabili e che prima o poi, a furia di investire denaro e usare computer sempre più potenti, arriveremo a un’intelligenza artificiale superiore alla nostra, o che perlomeno smetterà di consigliare di usare la colla per applicare il formaggio alla pizza. Ma le cose non stanno così.

Infatti per arrivare ai livelli di prestazione delle attuali intelligenze artificiali in campo linguistico è stato necessario addestrarle dando loro praticamente ogni testo disponibile in forma digitale in tutto il mondo: tutti i siti, tutti i libri, tutti i giornali, tutte le riviste mai scritte, qualunque cosa mai pubblicata sui social network e altro ancora. Eppure non basta. Servono ancora altri testi.

Si potrebbero prendere i testi scritti e pubblicati online dopo la data di addestramento, ma c’è un problema: molti di quei nuovi testi sono stati scritti usando intelligenze artificiali. Ci si troverebbe, insomma, ad addestrare un’intelligenza artificiale dandole testi scritti da altre intelligenze artificiali, e nel 2024 un gruppo di ricercatori delle università di Cambridge e Oxford ha pubblicato su Nature uno studio secondo il quale un’intelligenza artificiale generativa che si addestri esclusivamente su contenuti prodotti da altre intelligenze artificiali dello stesso tipo si degrada molto rapidamente invece di migliorare. Bastano pochi cicli di questo cannibalismo informatico, meno di una decina, per ottenere una IA che produce sistematicamente risposte completamente prive di senso. Questo rapido deterioramento delle intelligenze artificiali basate su grandi modelli linguistici è stato battezzato appunto collasso dei modelli (model collapse) da questi ricercatori.

Il rapido degrado delle IA addestrate usando dati generati da IA. Fonte: Forbes/Nature.

Se l’idea di base della Teoria dell’Internet Morta è valida e quindi i dati prodotti da esseri umani vengono davvero diluiti sempre di più da fiumi di contenuti generati dalle IA, e se le conclusioni di questi ricercatori sono corrette, allora l’intelligenza artificiale come la conosciamo oggi rischia di raggiungere presto una soglia impossibile da superare. Forse è già stata raggiunta e non ce ne siamo ancora accorti, e i progressi spettacolari di questi ultimi anni non potranno proseguire.

Naturalmente è anche possibile che i ricercatori in futuro scoprano nuove tecniche di intelligenza artificiale che permettano di scavalcare o aggirare questa soglia, ma per il momento gli investimenti faraonici che si stanno facendo per l’intelligenza artificiale in tutto il mondo sono fondati sul modo di funzionare della IA attuale, non di quella futuribile. Se verranno scoperte queste nuove tecniche, allora quegli investimenti saranno stati riversati in una tecnologia che a quel punto sarà diventata obsoleta; se non verranno scoperte, la soglia resterà insormontabile e ulteriori progressi non saranno possibili.

In altre parole, oltre al collasso dei modelli di intelligenza artificiale bisogna pensare al possibile collasso di un altro modello: quello economico, quello che immagina che la crescita e i profitti possano proseguire all’infinito. E se collassa quello, per molte aziende e per tantissimi investitori il bruciore di stomaco sarà garantito. Speriamo che non seguano i consigli delle intelligenze artificiali e non cerchino di curarsi ingoiando carta igienica.

Niente Panico RSI – Puntata del 2025/03/17

È andata in onda lunedì scorso alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la mia raccolta completa delle puntate è presso Attivissimo.me/np.

Alcuni dei temi che abbiamo toccato in questa puntata:

  • Tesla e il test alla Willy il Coyote: si fa ingannare da una strada dipinta su un muro (video di Mark Rober)
  • Skype chiude il 5 maggio (mio podcast)
  • Anniversario dell’invenzione dell’elastico
  • L’invenzione, nel 1876, della lavastoviglie moderna ad opera di Josephine Cochrane (Byteseu.com)
  • Monopoli: 90 anni del più famoso gioco di società

Podcast RSI – Alexa perde le opzioni di privacy, ma ci sono alternative

Questo è il testo della puntata del 17 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: Suoni di Alexa, tratti da questo video su YouTube]

Dal 28 marzo prossimo gli assistenti vocali Alexa di Amazon smetteranno di rispettare le scelte di privacy dei loro utenti. Lo ha comunicato Amazon stessa pochi giorni fa, in una mail inviata ad alcuni di questi utenti, ma senza usare parole così chiare. Eppure è questo il senso tecnico della decisione unilaterale di Amazon di cambiare radicalmente il funzionamento dei suoi dispositivi dopo che gli utenti li hanno acquistati, e di cambiarlo a sfavore di quegli utenti.

Tra una decina di giorni, in sostanza, tutto quello che direte in presenza di un Alexa potrà essere registrato e inviato ad Amazon, dove potrà essere ascoltato, trascritto, registrato e dato in pasto all’intelligenza artificiale.* E questo vale anche per le versioni di Alexa che gli utenti hanno acquistato specificamente perché non facevano nulla di tutto questo.

* Per maggiore chiarezza: è così da tempo per la stragrande maggioranza dei dispositivi Alexa. Però finora c‘erano alcuni modelli di Alexa che non funzionavano in questo modo. 

Questa è la storia di come Amazon è riuscita a convincere centinaia di milioni di persone in tutto il mondo a installarsi in casa un oggetto che è a tutti gli effetti un microfono aperto e connesso a Internet e ai suoi server, in ascolto ventiquattro ore su ventiquattro, ed è anche riuscita a convincere queste persone a pagare per avere quel microfono.

Benvenuti alla puntata del 17 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


Siamo nel 2014, a novembre; quasi undici anni fa. Amazon presenta al pubblico Echo, uno strano altoparlante cilindrico, connesso a Internet, che include un assistente vocale simile a Siri di Apple.

Il primo Echo (fonte: Tech.co, 2019).
Spaccato di un Amazon Echo di prima generazione (fonte: Techcrunch).

Come Siri, anche Echo risponde ai comandi vocali quando viene attivato tramite una parola specifica, che per questo prodotto di Amazon è “Alexa”: una parola scelta per il suo suono piuttosto insolito, caratterizzata dalle vocali dolci e dalla X che la fanno spiccare e la rendono più facilmente riconoscibile da parte della limitata potenza di calcolo presente a bordo di Echo. Se in casa c’è qualcuno che si chiama Alexa o Alessia e quindi c’è rischio di confusione, l’utente può scegliere in alternativa le parole Amazon, Echo, Ziggy o Computer [Business Insider; FAQ Amazon].

Al suo debutto, Echo di Amazon costa ben 199 dollari ed è disponibile solo su invito da parte dell’azienda [TechCrunch] e soltanto negli Stati Uniti. Arriva in Europa due anni più tardi, nel 2016, quando viene offerto anche in versione compatta a circa 60 euro [CNBC]. Tramite comandi vocali, permette di fare acquisti su Amazon, comandare vari dispositivi domestici interconnessi, impostare sveglie e timer e rispondere a varie domande attingendo alle informazioni di Wikipedia e di altre fonti.

Il principio di funzionamento di Echo è relativamente semplice. I suoi microfoni estremamente sensibili captano costantemente tutti i suoni e tutte le conversazioni che si svolgono nell‘ambiente nel quale Echo è collocato. I suoi processori analizzano altrettanto costantemente quello che è stato captato dai microfoni. Se secondo questa analisi è stata pronunciata la parola di attivazione (o wake word in gergo tecnico), allora i suoni raccolti vengono trasmessi via Internet ai computer di Amazon, dove vengono elaborati, trascritti e trasformati in comandi. Questi comandi vengono eseguiti, sempre sui computer di Amazon e anche su quelli delle aziende associate ad Amazon, e i loro risultati vengono inviati al dispositivo dell’utente.

L’intero procedimento è talmente veloce e invisibile che chi usa Alexa ha l’impressione che sia il dispositivo a fare tutto questo lavoro. Non ha nessuna percezione del fatto che le sue parole vengano registrate e trasmesse ad Amazon, che le conserva. Lo scopre soltanto se gli capita di accedere al suo account Amazon e di consultare una sezione dedicata appunto ad Echo e Alexa, che contiene la Cronologia voce, ossia tutto quello che è stato registrato dal suo dispositivo.

[Questo è il link alla Cronologia voce di un account (accessibile solo dando login e password): https://www.amazon.it/alexa-privacy/apd/rvh?ref_=privacy0]

Screenshot della Cronologia voce (dal mio account Amazon).

[CLIP: spezzoni delle mie registrazioni di Alexa]

Questi sono alcuni campioni di quello che ha registrato il mio Alexa, nei rari momenti in cui l’ho tenuto acceso per fare qualche esperimento. Alcuni risalgono a più di cinque anni fa, ed è chiaro da quello che è stato registrato che Alexa registra e archivia non solo i comandi impartiti ma anche spezzoni di conversazioni nei quali viene citato il suo nome o qualcosa che gli assomiglia. Cosa ancora più interessante, registra e archivia anche alcuni secondi di quello che è stato detto prima di dire la parola di attivazione.

Un esempio di audio ambientale raccolto da Alexa e inviato ad Amazon nonostante non fosse un comando rivolto ad Alexa (dalla mia Cronologia voce).

[CLIP: una nostra amica che dice “è un po’ lenta Alexa” e Paolo che dice “OK Google parla con Alexa”. Notate che in entrambi i casi “Alexa” è l’ultima parola registrata e sono state registrate anche quelle dette appena prima]

Questo dimostra che Alexa è costantemente in ascolto e altrettanto costantemente in registrazione. Quando “crede” di aver sentito la parola di attivazione, prende l’audio che ha registrato e lo invia ad Amazon. E questo vuol dire che qualunque conversazione domestica è a rischio di essere registrata e inviata. Una confidenza, un momento di intimità con un partner, una telefonata al proprio medico per discutere la propria situazione di salute, una riunione confidenziale di lavoro, una discussione politica o religiosa. Tutto può finire negli archivi di Amazon.


È chiaro che questo modo di funzionare di Alexa è un grave rischio per la privacy, e non si tratta di ipotesi paranoiche: nel 2023 Amazon ha accettato di pagare un’ammenda di 25 milioni di dollari perché era stata colta a conservare per sempre le registrazioni delle interazioni dei bambini con Alexa, violando le leggi statunitensi sulla privacy [New York Times].

Amazon ha dichiarato che conserva tutte le registrazioni indefinitamente, se l’utente non provvede a cancellarle a mano [CNET; ZDNET] o a impostare la cancellazione automatica dopo tre o diciotto mesi. Ha aggiunto anche che un campione “estremamente piccolo” delle registrazioni acquisite viene ascoltato dai suoi dipendenti. Nel caso di Amazon, “estremamente piccolo” significava, nel 2019, che ciascuno dei suoi addetti specializzati a Boston, in Costa Rica, in India e in Romania ascoltava fino a mille spezzoni di audio domestico ogni giorno, e fra l’altro questi spezzoni venivano condivisi fra gli addetti non solo per ragioni tecniche ma anche semplicemente perché erano divertenti [Bloomberg (copia su Archive.is); Ars Technica].

Il fatto che le conversazioni degli utenti di Alexa possano essere ascoltate da queste persone non viene mai indicato nelle sue rassicuranti informazioni di marketing [copia su Archive.is; altre info qui] e neppure nelle sue informative sulla privacy. E così l’impressione che ha l’utente medio è che quello che dice ad Alexa nell’intimità della propria casa sia ascoltato soltanto da freddi e indifferenti sistemi automatici, ma non è affatto così.

Screenshot parziale delle informazioni di Amazon sul funzionamento di Alexa.

A volte va anche peggio: queste registrazioni possono finire in mano a sconosciuti. Nel 2018 un utente Alexa in Germania ha provato a esaminare la propria cronologia delle conversazioni e vi ha trovato circa 1700 registrazioni di qualcun altro: un uomo che in casa propria parlava con la compagna. Quando ha segnalato la serissima violazione della privacy, inizialmente Amazon non gli ha neppure risposto e ha avvisato la vittima solo quando la notizia è uscita sulla stampa specializzata. L’azienda ha dichiarato che si è trattato di “un errore umano e un caso singolo isolato” [Washington Post; Reuters].*

* C’è poi tutta la questione degli attacchi intenzionali agli assistenti vocali: esistono vari modi per ingannare il loro riconoscimento vocale, usando per esempio suoni verbali che alle nostre orecchie sembrano privi di senso (i cosiddetti nonsense attack) oppure sembrano avere un altro significato (missense attack). Maggiori informazioni sono negli articoli Nonsense Attacks on Google Assistant and Missense Attacks on Amazon Alexa (2019), Researchers show Alexa “skill squatting” could hijack voice commands (2018), Skill Squatting Attacks on Amazon Alexa (2018) e A Survey on Amazon Alexa Attack Surfaces (2021).

Insomma, il problema di fondo è che i microfoni di questi dispositivi di Amazon, come del resto quelli equivalenti di Google e di Apple, prendono i suoni ascoltati in casa e li consegnano alle rispettive aziende per l’analisi e l’elaborazione. Se questa analisi ed elaborazione avvenissero localmente, a bordo del dispositivo, in modo da non trasmettere esternamente i suoni ambientali, il funzionamento di questi oggetti sarebbe molto più rispettoso della naturale riservatezza che ci si aspetta di avere in casa propria.

Infatti nel 2020 Amazon ha presentato i dispositivi Echo Dot di quarta generazione, che insieme agli Echo Show versione 10 e 15, dotati di schermo e telecamera, erano in grado di elaborare localmente i suoni che captavano. Una rivoluzione nel modo di funzionare di questi dispositivi che li rendeva decisamente appetibili per chiunque avesse riflettuto seriamente sulla questione. Finalmente un prodotto fatto come si deve in termini di privacy.*

* Questa funzione era disponibile esclusivamente agli utenti statunitensi con Alexa impostato sulla lingua inglese [The Technology Express]

Ma chi ha comprato questi dispositivi ora si trova con una sorpresa molto amara: il 28 marzo prossimo Amazon disabiliterà l’elaborazione locale dell’audio su tutti questi apparati, che cominceranno a funzionare esattamente come tutti gli altri di Amazon, mandando quindi ai server dell’azienda (e alle orecchie dei suoi dipendenti addetti al servizio Alexa) tutto quello che viene ascoltato dai loro sensibilissimi microfoni e interpretato come comando da mandare.

L’utente che ha pagato per avere questi prodotti si troverà quindi con un dispositivo degradato che non farà più la cosa fondamentale per la quale era stato acquistato, ossia rispettare la riservatezza dell’utente. E non ci sarà nulla che potrà fare per opporsi.*

* Negli Stati Uniti la legge DMCA (1998) rende punibile con cinque anni di carcere e una sanzione da 500.000 dollari l’alterazione del software (e in questo caso del firmware) di un dispositivo protetto dal copyright, anche se viene fatta dal proprietario del dispositivo stesso.

Quello di Amazon è un comportamento che viene spesso chiamato cinicamente “l’MBA di Darth Vader”, con riferimento al celeberrimo personaggio malvagio di Star Wars, il cui potere è così assoluto che se tenesse un corso di formazione per l’amministrazione aziendale insegnerebbe ai suoi studenti che il rispetto dei contratti e delle regole concordate è roba per gli inferiori, alle cui fastidiose obiezioni si risponde sempre in questo modo:

[CLIP: Darth Vader che dice “Ho cambiato il nostro accordo. Prega che non lo cambi ancora” (da L’Impero Colpisce Ancora, 1:34:10)]


Amazon giustifica questa menomazione intenzionale dei dispositivi comprati dai suoi clienti con la scusa onnipresente del mondo informatico: l’intelligenza artificiale. Sta infatti per arrivare Alexa+, che è in grado di offrire servizi più complessi e sofisticati grazie appunto all’intelligenza artificiale [Ars Technica]. Intelligenza che però sta nei computer di Amazon, non fisicamente dentro i dispositivi degli utenti, per cui non c’è scelta: l’audio captato deve essere per forza trasmesso ad Amazon ed elaborato sui computer dell’azienda. Alexa+, fra l’altro, avrà probabilmente un canone mensile, a differenza dell’Alexa attuale.*

* La maggior parte delle fonti prevede che questo canone sarà di 20 dollari al mese per gli utenti generici ma gratuito per gli utenti iscritti ad Amazon Prime [Aboutamazon.com].

Questa transizione all’intelligenza artificiale remota significa che gli attuali dispositivi Echo Show perderanno una delle loro funzioni più potenti: la capacità di identificare le voci delle varie persone che li usano e di offrire agende, musica e promemoria personalizzati ai vari membri di una famiglia elaborando l’audio localmente per riconoscere le varie voci, grazie a una funzione chiamata Voice ID. Amazon ha avvisato i proprietari di questi dispositivi che questa funzione non ci sarà più. Adesso la stessa cosa verrà fatta con l’intelligenza artificiale, ma mandando l’audio di casa ad Amazon.

Certo, l’azienda sottolinea nel suo avviso che l’audio è cifrato in transito e che gli utenti potranno chiedere che venga cancellato dopo l’uso, e aggiunge che ci sono “strati di protezioni di sicurezza per tenere al sicuro le informazioni dei clienti”. Ma visti i precedenti di Amazon, e visto che in generale l’intelligenza artificiale ha la discutibile abitudine di rigurgitare in modo inatteso i dati personali che ha ingerito, una certa diffidenza è comprensibile e inevitabile.*

* Anche perché fino al 2022 Amazon era lanciatissima verso l‘elaborazione on-device, che era presentata come una tecnologia con “tanti benefici: riduzione della latenza, ossia del tempo che Alexa impiega a rispondere alle richieste; riduzione del consumo di banda, importante sui dispositivi portatili; e maggiore disponibilità per le unità a bordo di auto e per altre applicazioni nelle quali la connettività verso Internet è intermittente. L’elaborazione on-device consente anche di fondere il segnale vocale con altre modalità, come la visione, per funzioni come il parlare a turno naturale di Alexa” [Amazon Science, gennaio 2022]. Se questi non sono più “benefici” e Amazon vuole accollarsi l’onere computazionale di elaborare in-cloud tutte le richieste, ci sarà probabilmente un tornaconto sotto forma di utilizzo dei dati vocali per addestramento di IA o ulteriore analisi.

Per chi preferisce non avere in casa, in ufficio o nello studio medico microfoni aperti e connessi a Internet, le soluzioni alternative ad Amazon non mancano. Una delle più interessanti è Home Assistant, un ecosistema di dispositivi e di software che fa quasi tutto quello che fa Alexa di base, compreso il collegamento con i sistemi domotici di ogni marca che rispetti gli standard tecnici, lo fa senza canone mensile ed è configurabile in modo che elabori tutto l’audio localmente, senza mandare nulla via Internet a nessuno, tenendo privacy e sostenibilità come valori centrali.*

* Due altre opzioni sulla stessa falsariga sono Mycroft AI (ora OpenVoiceOS) e Snips AI (acquisita da Sonos).

Inoltre Home Assistant è basato sul principio dell’open source, per cui tutti i componenti e tutto il software sono liberamente esaminabili e modificabili e tutti gli standard utilizzati sono liberi e documentati. Non c’è nessun Darth Vader o Jeff Bezos che possa cambiare gli accordi e far pregare che non li cambi ancora, ma c’è una fondazione, la Open Home Foundation, che coordina lo sviluppo di Home Assistant e ha fra l’altro sede in Svizzera [altre info], c’è una base legale solida e collaudata che tutela il tutto e c’è una vasta comunità di utenti che sviluppa il prodotto e insegna a usarlo, per esempio pubblicando dettagliati tutorial su YouTube.

Screenshot della pagina iniziale della Open Home Foundation.

Insomma, se vi è sempre sembrato assurdo che con la domotica per accendere le luci in soggiorno il comando dovesse fare il giro del mondo e dipendere da una rete di computer gestita da chissà chi, le soluzioni ci sono. Si tratta solo di scegliere fra ricevere la pappa pronta da chi può ritirare il suo costoso cucchiaio in ogni momento e rimboccarsi le maniche per studiare come cucinarsi le cose da soli. Di solito si fatica di più, ma si risparmia, e le cose fatte in questo modo hanno più gusto.

Fonti aggiuntive

Amazon annihilates Alexa privacy settings, turns on continuous, nonconsensual audio uploading, Cory Doctorow, 2025

Amazon’s subscription-based Alexa+ looks highly capable—and questionable, Ars Technica, 2025

Amazon Ends Local Voice Processing for Echo Devices, The Technology Express, 2025

Everything you say to your Echo will be sent to Amazon starting on March 28, Ars Technica, 2025

Amazon is getting rid of the option for Echo devices to process Alexa voice requests locally, Engadget, 2025

Amazon admits that employees review “small sample” of Alexa audio, Ars Technica, 2019

Amazon’s Echo will send all voice recordings to the cloud, starting March 28, TechCrunch, 2025

Amazon is ending the option to not send Echo voice recordings to the cloud, The Verge, 2025

Amazon plans to give Alexa an AI overhaul — and a monthly subscription price, CNBC, 2024

The Gdańsk man who brought US giant Amazon to Poland, The First News, 2020

“Zebra striping” in Thunderbird: come cambiare l’aspetto dell’elenco messaggi

Come si fa a dare una colorazione alternata (il cosiddetto zebra striping) alle righe dell’elenco dei messaggi in Thunderbird, in modo che siano più leggibili? Ne avevo scritto un paio d’anni fa, sul blog “classico”, e posso confermare che il metodo descritto allora funziona ancora oggi con la versione più recente di Thunderbird, che è la 136.0.

Lo riassumo brevemente qui:

  1. Andare nel Config Editor di Thunderbird (tre trattini in alto a destra, Settings/Impostazioni, scorrere giù, cliccare sul pulsante Config Editor/Editor di configurazione) e digitare le lettere iniziali di toolkit.legacyUserProfileCustomizations.stylesheets fino a che viene elencata solo la voce omonima.
  2. Questa voce è probabilmente settata su False. Cliccare sull’icona con le due mezze frecce contrapposte in modo che questa voce diventi True.
  3. Identificare la cartella del profilo generale di Thunderbird: la si trova cliccando in Thunderbird sui tre trattini in alto a destra – Help/Aiuto – Troubleshooting information/Informazioni per la risoluzione dei problemi, trovando Profile Folder/Cartella del profilo e cliccando su Show in Finder/Mostra nel Finder, perlomeno su macOS.
  4. In questa cartella, creare una sottocartella di nome chrome (se non esiste già).
  5. in questa sottocartella, creare un file di testo semplice di nome userChrome.css (con la C maiuscola) e metterlo nella cartella chrome suddetta.
  6. Nel file userChrome.css, immettere queste righe di testo (la prima riga è un commento di documentazione ed è opzionale):
    /* riabilita lo zebra striping */
    #threadTree tr:nth-child(2n) {
    background-image: linear-gradient(rgba(0,0,0,.08), rgba(0,0,0,.08)) !important;
    }
  7. Salvare il file.
  8. Chiudere e riavviare Thunderbird: le modifiche immesse in userChrome.css vengono attivate e valgono per tutti gli account di mail.

Ecco il risultato:

Astronautichicche stasera ad Ascona

Questa sera al Centro Congressi del Monte Verità di Ascona (Svizzera), via Collina, in occasione dell’evento Asconoscienza 2025 (Asconoscienza.ch), Paolo parlerà di Spazio con la conferenza Astronautichicche: gli aspetti poco conosciuti dell’esplorazione spaziale.

L’appuntamento è alle 20.30.

Ci saranno alcune copie di Carrying the fire in vendita.

Niente Panico RSI – Puntata del 2025/03/10

È andata in onda lunedì 10 marzo scorso alle 9 una nuova puntata in diretta di Niente Panico, il programma che conduco insieme a Rosy Nervi settimanalmente sulla Rete Tre della Radiotelevisione Svizzera. La trasmissione è riascoltabile presso www.rsi.ch/rete-tre/programmi/intrattenimento/serotonina oppure nell’embed qui sotto.

Lo streaming in diretta della Rete Tre è presso www.rsi.ch/audio/rete-tre/live; la mia raccolta completa delle puntate è presso Attivissimo.me/np.

Podcast RSI – Blender, software libero e gratuito, aiuta a vincere un Oscar. Creatività per tutti senza ostacoli di costi

Questo è il testo della puntata del 10 marzo 2025 del podcast Il Disinformatico della Radiotelevisione Svizzera, scritto, montato e condotto dal sottoscritto. Il testo include anche i link alle fonti di questa puntata.

Le puntate del Disinformatico sono ascoltabili anche tramite iTunes, YouTube Music, Spotify e feed RSS. Il mio archivio delle puntate è presso Attivissimo.me/disi.


[CLIP: brano dall’inizio di Flow (2024)]

Un gatto vaga in un mondo nel quale gli esseri umani sembrano svaniti nel nulla ma i cani, eterni persecutori di felini, ci sono ancora, e al micio tocca trovare nuovi rifugi, insoliti compagni di viaggio e nuove strategie per cercare di sopravvivere. È l’inizio di Flow – Un mondo da salvare, l’opera che ha vinto l’Oscar come migliore film d’animazione di quest’anno dopo aver conquistato anche il Golden Globe.

Il trailer di Flow (YouTube).

Il film ha molti meriti e molte caratteristiche insolite: un regista lettone, la totale assenza di dialoghi perché la storia è raccontata dalle immagini, e il fatto di aver battuto la concorrenza di colossi dal portafogli ben fornito come Disney, Pixar e Netflix.

Ma Flow ha anche una particolarità molto informatica: è stato realizzato usando il software Blender, che è libero e gratuito eppure riesce a generare animazioni ed effetti paragonabili a quelli dei costosi software commerciali che si usano normalmente per produrre i film di animazione digitale.

Questa è la storia di Blender, di come è possibile che un software che non costa nulla competa e vinca contro applicazioni sostenute e sviluppate dalle più importanti aziende del settore e sia giunto al traguardo dell’Oscar grazie al talento di un gruppo di persone creative, ed è anche la storia di cosa significa tutto questo per chiunque sogni di trasformare le proprie idee in immagini sullo schermo ma si trova paralizzato o intrappolato da costi di licenza insostenibili. Ed è anche la storia di un inaspettato legame di questo nome,Blender,con la Svizzera.

Benvenuti alla puntata del 10 marzo 2025 del Disinformatico, il podcast della Radiotelevisione Svizzera dedicato alle notizie e alle storie strane dell’informatica. Io sono Paolo Attivissimo.

[SIGLA di apertura]


È il 1994. Uno studio di animazione olandese, NeoGeo, che oggi non esiste più, sviluppa un software di grafica e animazione digitale per uso interno. I suoi creatori lo chiamano Blender, frullatore, come tributo all’omonimo brano della band svizzera Yello che l’azienda usa nel suo video dimostrativo.

Il brano degli Yello che ha dato il nome al software Blender (YouTube).
Il video dimostrativo di NeoGeo (YouTube).

Il software viene poi rilasciato pubblicamente come freeware, ossia come software gratuito liberamente scaricabile e utilizzabile senza pagare nulla, e successivamente come shareware, vale a dire come software che si può scaricare gratis in prova limitata e poi si paga per averne una versione completa.

Blender però non fa grandi progressi, e langue fino al 2002, quando Tom Roosendaal, principale autore del software, crea nei Paesi Bassi la fondazione senza scopo di lucro chiamata Blender Foundation e avvia con successo una campagna di raccolta fondi per rendere Blender libero e open source: in altre parole, gratuito, liberamente ispezionabile e modificabile da chiunque, a patto che le modifiche siano a loro volta distribuite gratuitamente e altrettanto ispezionabili.

Nasce così una comunità internazionale di sviluppatori appassionati che lo fanno crescere, sotto il coordinamento dei membri della Blender Foundation, e lo fanno diventare quello che è oggi: uno strumento potentissimo di grafica digitale accessibile a chiunque a costo zero, che include modellazione, animazione, rendering, compositing ed è disponibile in versioni per Windows, MacOS e Linux presso Blender.org.

Ogni uno o due anni, inoltre, la Blender Foundation gestisce la produzione di un cortometraggio di animazione che serve per stimolare l’innovazione e dimostrare pubblicamente le potenzialità di Blender. Questi brevi video (come per esempio Big Buck Bunny, Sintel, Tears of Steel) hanno un discreto successo di critica e di pubblico e vengono indicati come esempi di modi alternativi, collettivi e aperti, di creare arte e cinema d’animazione: chiunque sia competente può partecipare alla loro realizzazione e tutte le risorse e i modelli creati vengono messi a disposizione di chiunque per essere riutilizzati. L’esatto contrario del cinema tradizionale, dove tutti i diritti sono riservatissimi e usare un costume o un oggetto di scena senza permessi e contratti appositi è assolutamente vietato.

Dai primi anni Duemila Blender non è più uno strumento per appassionati e autori indipendenti ma comincia a essere usato nella preproduzione e negli effetti visivi di film e telefilm commerciali, anche con budget molto consistenti [Spider-Man 2; Captain America: The Winter Soldier; The Man in the High Castle], e viene usato anche dalla NASA per le animazioni che illustrano le sue missioni spaziali. Ma tutto questo è poco visibile al grande pubblico ed è quasi trascurabile rispetto all’impatto mediatico di vincere, come adesso, un premio Oscar con Flow.


Ovviamente Flow non è stato creato da Blender; questo software è solo uno strumento a supporto della creatività umana, e in questo caso il creativo si chiama Gints Zilbalodis ed è un regista e animatore lettone, che ha già realizzato da solo vari cortometraggi digitali e un intero lungometraggio, intitolato Away [trailer], usando il software commerciale Maya di Autodesk, ma nel 2019 decide di abbandonare questo prodotto per passare appunto a Blender, perché questo software libero e gratuito ha delle caratteristiche superiori, che gli servono per i suoi progetti successivi.

È in quell’anno che Zilbalodis inizia lo sviluppo di quello che diventerà poi Flow. Numerose scene prevedono ambientazioni acquatiche, per cui serve un software capace di generare simulazioni realistiche di fluidi e di vari fenomeni fisici, di fare modellazione, di fare il cosiddetto rigging (cioè la creazione delle articolazioni virtuali dei personaggi), l’animazione vera e propria, l’unione di tutti gli elementi della scena e anche il rendering in tempo reale, vale a dire la visualizzazione immediata del risultato finale, senza dover attendere tempi di elaborazione (per fare un paragone, ai tempi del primo Toy Story, nel 1995, alcuni fotogrammi richiedevano trenta ore di calcoli ciascuno, e ne servono 24 per ogni secondo di un film). Blender consente di fare tutto questo all’interno di un singolo programma, e questo rende più efficiente, rapido e coerente il flusso di lavoro.

Anche così, per concepire gli 80 minuti di animazione di Flow servono in tutto cinque anni e mezzo, perché i calcoli oggi si fanno velocemente, ma la creatività e la ricerca di fondi per finanziare un progetto di film d’animazione richiedono tempo come e forse anche più di prima. La produzione vera e propria delle 22 sequenze che compongono Flow richiede in totale sei mesi alla squadra di venti animatori sparsi fra Parigi, Marsiglia e Bruxelles. Il resto del tempo viene speso in preparativi, organizzazione, scrittura, sviluppo dei personaggi e della trama, e ovviamente promozione e trattative per trovare sostegno economico e canali di distribuzione.

Vincere un Oscar come miglior film d’animazione è un grande riconoscimento al talento creativo del regista Gints Zilbalodis, ma è anche un segnale importantissimo per l’intera comunità dei progetti informatici basati sui principi dell’open source di libertà, collaborazione aperta e trasparenza. Comunica in modo forte che questo modo di creare software è capace di competere alla pari con la maniera commerciale di sviluppare applicazioni.

Soprattutto, l’Oscar conquistato conferma che “la creatività, il talento e la visione contano più dell’investimento economico riversato in costosi strumenti a codice sorgente chiuso”, come scrive It’s Foss News, aggiungendo che “il successo di Flow ispirerà molti creatori che non hanno accesso a carissimi software di creazione 3D per sviluppare le proprie idee.”


La questione dell’accesso a questi software è fondamentale per chiunque voglia incamminarsi lungo un percorso per diventare autore di animazioni, per i giovani talenti che vorrebbero emergere. Un costo di licenza che è sostenibile per un’azienda avviata non lo è per una persona che vuole imparare e farsi le ossa con l’animazione digitale. Duemila euro l’anno, come nel caso del software Maya, sono una cifra importante per chi studia o fa animazione per passione. Possono rendere impossibile un sogno o un desiderio di carriera.

E c’è il problema aggiuntivo che se si crea qualcosa con un software che ha un costo di licenza ricorrente, quella creazione diventa dipendente da quel software e quindi per lavorarci, per aggiornarla o modificarla in qualunque modo, bisogna continuare a pagare, pagare, pagare, come sa bene chiunque abbia creato progetti con i popolarissimi software di Adobe Creative Cloud, come Photoshop o Premiere, giusto per fare un esempio molto conosciuto.

I prezzi attuali di licenza per usare le app di Creative Cloud (Adobe.com).
I prezzi attuali di licenza d’uso di Autodesk Maya (Autodesk.com).

Per non parlare della dipendenza che nasce dal tempo investito per imparare a usare quel software, o della dipendenza da aziende che risiedono in paesi soggetti a ghiribizzi politici surreali come quelli attuali che stanno sconvolgendo anche l’informatica e il mondo del cinema, con censure e autocensure che rievocano e fanno riscoprire il maccartismo di settant‘anni fa.

Il potenziale dirompente del software libero e gratuito è stato sottolineato proprio da Gints Zilbalodis in un’intervista subito dopo aver ricevuto l’Oscar: “Blender è un software libero, gratuito e a codice sorgente aperto” dice il regista “e questo vuol dire che è accessibile a tutti, e quindi oggi qualunque persona giovane ha a disposizione strumenti che vengono usati per realizzare film che ora hanno anche vinto un Oscar. Quindi credo che vedremo creare film emozionanti di ogni genere da parte di giovani che altrimenti non avrebbero mai avuto l’occasione di farlo. Blender è un grande strumento, non è in alcun modo un compromesso: ha la stessa qualità di tutti gli altri prodotti in circolazione, e lo useremo anche per il mio prossimo film.”

Blender è scaricabile liberamente presso Blender.org. Se vi interessa, datevi da fare.

Fonti aggiuntive

Ton Roosendaal Reveals the Origin of Blender’s name, BlenderNation, 2021

Open Source Fueled The Oscar-Winning ‘Flow’, It’s FOSS News, 2025

Ehi Samsung, puoi piantarla di mettermi scocciature IA inutili? Grazie

Salve, Samsung. So che magari non sono il vostro cliente quadratico medio, ma vorrei dirvi pubblicamente che se ho voglia di informarmi, sono perfettamente capace di farlo da solo, grazie; non mi piace essere trattato come un deficiente la cui vita è così vuota da dover essere allietata da una petulante “intelligenza” artificiale, e l’ultima cosa che voglio mentre sto lavorando, dormendo o facendo qualunque altra cosa della mia giornata è essere interrotto da una notifica che ha un bisogno incontenibile di farmi sapere “notizie” di cui non me ne frega assolutamente nulla.

Ho approfittato di un’offerta del mio operatore cellulare (Salt.ch) per acquistare un Samsung Galaxy S25 che userò principalmente come telefono di backup, come autenticatore di riserva e come “saponetta” 5G per avere una connessione a Internet di riserva.

Questo telefono, come tanti altri ultimamente, è infarcito di applicazioni basate sull’intelligenza artificiale che sono fondamentalmente inutili e irritanti. Una di queste è la “Now Brief”, il cui scopo sembra essere quello di informarmi sulle condizioni meteo locali e altre cose del genere di cui assolutamente non sento il bisogno. È attiva per default.

Per disattivarla, si va in Impostazioni – Schermata di blocco e AOD – Now bar – Now brief e si disattiva. Lo segnalo qui così magari altri che hanno la mia stessa esigenza trovano le istruzioni per soddisfarla.

Ecco, così va meglio, grazie.

Fonte: Sammyfans.

Sì, ho una Tesla. Non vuol dire che approvo i deliri di Elon Musk

Cinque anni fa, in piena pandemia, la Dama del Maniero e io abbiamo deciso di abbandonare definitivamente le auto a carburante e abbiamo acquistato una Tesla Model S di seconda mano, spendendo circa 35.000 euro. Cinque anni fa Elon Musk sembrava davvero un genio innovatore, eccentrico ma animato da intenti positivi. Oggi risulta essere un pazzo pericoloso con deliri di onnipotenza.

L’auto è in leasing, che scade tra pochi mesi: a quel punto decideremo cosa farne. Di certo continueremo a usare auto elettriche perché costano pochissimo (la sto caricando gratis in questo momento con l‘eccedenza di produzione dei pannelli solari sul tetto del Maniero, e la manutenzione in questi cinque anni è stata trascurabile), hanno di fatto un impatto ambientale molto minore di quello delle auto tradizionali e ci danno un grandissimo piacere di viaggio e di guida. Ma non credo che prenderemo un’altra Tesla: non ci piacciono le attuali scelte tecniche e soprattutto il marchio oggi è legato troppo strettamente a una persona totalmente tossica e socialmente disastrosa.

Abbiamo deciso di mettere in chiaro la nostra opinione mettendo due adesivi sulla nostra Tesla.

Sì, lo so che si legge la targa. Non è un segreto e ho scelto di pubblicarla perché il numero è un omaggio a Star Trek.
Dettaglio dell’adesivo in basso a sinistra.

Se vi interessa, li ho acquistati online qui:

Non ricevo commissioni o sponsorizzazioni da parte di questi venditori: sono semplicemente un loro cliente.

Annunciate le date della Sci-Fi Universe 2026: 17-18 gennaio, sempre a Peschiera del Garda

Dopo il successo dell’edizione 2025 della convention di fantascienza, astronomia e astrofisica Sci-Fi Universe che ho il piacere di co-organizzare e co-presentare insieme all’allegra squadra dello Stargate Fanclub Italia, è già partita la preparazione dell’edizione 2026. Abbiamo già fissato le date per quella che speriamo sarà la vostra prima convention di ogni nuovo anno: l’appuntamento è per il weekend del 17 e 18 gennaio 2026.

Potremo trascorrere insieme un intero fine settimana (e qualcuno fra noi minaccia “forse anche di più”, visti gli entusiasmi di tanti partecipanti arrivati la sera prima quest’anno), alternando momenti interessanti ed istruttivi ad altri allegri e divertenti, tutti accomunati dalla fantastica atmosfera di amicizia e convivialità che contraddistingue la Sci-Fi Universe fin dalla sua prima edizione.

Il luogo scelto per le edizioni passate sembra proprio piacere tanto a tutti, per cui restiamo anche per il 2026 al Parc Hotel di Peschiera del Garda (VR), dove non solo avremo capienti sale a nostra disposizione ma si potrà comodamente pernottare e mangiare in loco, e godersi momenti di pausa negli ampi spazi dell’hotel, dal bar alla fantastica piscina/spa.

Ci siamo accorti, infatti, che oltre agli eventi letterari, scientifici e fantascientifici, ai workshop, alle conferenze, agli ospiti e alle sessioni di gioco, per molti partecipanti la SFU è soprattutto un’occasione per ritrovare tanti amici tutti insieme e passare un weekend in allegra compagnia nelle ampie aree di ritrovo del Parc Hotel. E questo ci fa felicissimi! Volevamo proprio creare un momento di ritrovo fra appassionati che fosse fruibile comodamente da tutti, senza pellegrinaggi continui per i pasti, accessibile e divertente anche per chi magari vuole portare la famiglia, e da come avete risposto fin qui ci sembra che ci stiamo muovendo nella direzione giusta.

Se volete saperne di più, e magari cominciare a prenotare le camere (quelle più vicine si esauriscono in fretta), trovate tutti i dettagli sul sito della Sci-Fi Universe: Scifiuniverse.it (per gli amici, la Sciallacon).

Potete inoltre seguire gli annunci sui canali social della SFU: Instagram (@scifiuniverseit), Mastodon (@mastodon.uno@SciFiUniverseIt), Facebook (@scifiuniverseit), YouTube (@SciFiUniverseIT), TikTok (@scifiuniverseit), WhatsApp (canale), Telegram (t.me/scifiuniverse) e mail (info@scifiuniverse.it).

Sto per perdere il bollino blu su Instagram. È intenzionale, smetto di dare soldi a Zuckerberg

A settembre scorso ho provato ad attivare l’opzione Meta Verified sul mio account Instagram, spendendo circa 13 euro al mese per avere alcuni “vantaggi” tipo il bollino di autenticazione, una maggior protezione contro il furto di identità e un supporto tecnico prioritario, ma dopo le recenti svolte politiche non me la sento proprio più di dare soldi a questi fantastiliardari arroganti, arraffoni e insensibili.

Inoltre ho provato Instagram pensandolo come sostituto di Twitter, ma il suo ostinato rifiuto a permettere link verso il resto di Internet lo rende inutile per le mie necessità. Meglio allora Threads o Bluesky, e meglio di tutti Mastodon. Per cui vedrete che sparirà dal mio account Instagram il bollino blu (anzi, è già sparito, perché ho chiesto la rimozione immediata). È intenzionale e mi va benissimo così.

Al momento la mia situazione social è questa:

  • Instagram: 6133 follower
  • Threads: 4896 follower
  • X/Twitter: 403.882 follower (ma non pubblico nulla)
  • Mastodon: circa 13.000 follower
  • Bluesky: 368 follower (l’ho aperto il 2 febbraio scorso)
  • Facebook: ho solo un segnaposto contro gli intrusi
  • Telegram (canale): 2197 follower
  • WhatsApp: non ci sono