L’importanza degli studi sull’etica digitale

Nelle ultime due puntate della nostra rubrica abbiamo parlato con il professor Marco Montali del confirmation bias, ovvero della tendenza che tutti noi abbiamo, sui social, di “coccolarci” frequentando soprattutto contenuti e utenti in linea con il nostro pensiero e i nostri interessi. Si tratta di una tendenza sostanzialmente sostenuta finanche promossa dagli stessi social network, per motivi sostanzialmente commerciali. Con il professor Montali abbiamo anche ribadito quanto sia importante che anche nel mondo della ricerca possano affermarsi ambiti di studio in grado dare un contributo importante in merito agli aspetti etici dei meccanismi prima citati ed anche delle più recenti innovazioni nel campo dell’intelligenza artificiale, che stanno davvero rivoluzionando il nostro mondo. 

“Sono temi cruciali che hanno anche degli importanti punti di riferimento nella comunità scientifica. Posso citare ad esempio il filosofo Luciano Floridi, oggi è uno dei più citati al mondo in questo campo. Lui fa il filosofo della comunicazione ed ha scritto sia libri divulgativi che scientifici. Recentemente è stato chiamato a Yale per formare un centro di ricerca sull’etica digitale. 

Insomma: ci sono vere e proprie linee di ricerca dedicate proprio a queste tematiche.

Sì. Ma adesso il problema resta quello di superare la tendenza conservatrice delle comunità di ricerca. Tutti noi dobbiamo sopravvivere e ci misurano sul numero di articoli che abbiamo pubblicato alla fine dell’anno. Non è facile se lavori nelle intersezioni tra le aree di ricerca. 

Rischi che non ti pubblichino gli articoli sia in un’area che nell’altra. Comunque oggi si sente molto di più l’esigenza di mettere insieme le aree di ricerca. Anche se insieme all’esigenza vera bisogna difendersi dalle mode. Ci sono anche quelli che ora si occupano di etica dell’intelligenza artificiale senza saperne nulla, di intelligenza artificiale. 

Sono aattirati da compensi importanti, pubblicazioni a larga divulgazione, comparsate televisive…

Esatto. Ma si tratta  comunque di una questione cruciale e di strettissima attualità. Ne riparleremo di sicuro molto presto, aggiornando i nostri lettori. 

Confirmation bias digitale #2

Nello scorso numero abbiamo parlato degli aspetti informatici e social del confirmation bias, ovvero dell’atteggiamento, tipico della natura umana, che ci porta a confermare un’ipotesi tramite prove a favore, piuttosto che cercare di prendere in considerazione evidenze contrarie. Nei social ma anche nei motori di ricerca tale meccanismo naturalmente può comportare dei gravi pericoli rispetto alla garanzia di una corretta informazione. Al prof. Marco Montali chiediamo se esiste un’are di ricerca informatica che si occupa della differenziazione nei contenuti che vengono proposti agli utenti sia dei social che nei motori di ricerca. 

L’area di ricerca esiste eccome, d’altronde non è detto infatti che tutti gli utenti del web vogliano leggere solo opinioni simili alle loro. Ci sono infatti molte persone che vogliono avere un panorama più ampio e conoscere anche pareri discordanti. Ci sono dei ricercatori allora che, per esempio, lavorano su come differenziare il ranking dei risultati, una volta che cerchiamo qualcosa nei motori di ricerca. Nei social network però lo scopo delle piattaforme non è quello che le persone siano informate, ma piuttosto che stiano lì. E allora ci sono altri filoni di ricerca – dai quali io personalmente mi dissocio – che studiano invece come promuovere dipendenza e consumo. Il concetto è: se ti faccio vedere le cose che non vuoi vedere, magari allora te ne vai più facilmente. In ogni caso anche i social network si possono usare in maniera consapevole, andando a cercare le cose e seguendo una serie di profili, pagine o gruppi “certificati” rispetto a quello che si vuole vedere. Se ci si ferma al feed si è fregati, insomma In ogni caso nei social c’è anche il pericolo che se tu per interesse personale o per curiosità vai a visitare i profili di politici estremi che la vedono in maniera opposta rispetto a te, alla fine corri il rischio di essere profilato dal social network come un sostenitore di quel politico o di quel partito. 

In definitiva: oggi nel mondo accademico ci sono esperti di problematiche etiche e morali, che interagiscano con la ricerca in qualche modo orientandola in maniera “umanistica”?

La risposta breve è sì. Quella più lunga dice però che la questione è un po’ più complicata. 
A Vienna è stato stilato un manifesto per l’umanesimo digitale. Il documento dice che abbiamo in mano una cosa enorme che ha delle importanti implicazioni sociali, quindi è importante che ognuno si specializzi in un’area, ma ci vuole anche la consapevolezza che se la cosa non viene coordinata c’è il pericolo di causare gravi danni alla società e ai singoli individui. Il filosofo che si occupa di intelligenza artificiale deve avere delle competenze tecniche, altrimenti non può andare nel concreto. Ma lo stesso problema ce l’ha l’ingegnere in senso inverso. In sostanza ci vogliono figure ci si collochino nel mezzo e che consentano di creare dei ponti. E figure di ricerca che si occupino proprio di questi specifici aspetti. Occorre anche uscire dal meccanismo conservativo presente nella ricerca, che normalmente ostacola le attività nelle terre di mezzo, rendendo più difficoltosa la pubblicazione di specifici articoli scientifici. 

(continua)

Raccomandazione e differenziazione #1

Nei social network esiste un meccanismo che seleziona i contenuti, sulla base delle propensioni dell’utente. Quindi ogni utente tende a vedere soprattutto notizie in linea con le sue visioni e opinioni e la stessa cosa vale per la comunicazione tra i singoli utenti. La conseguenza di ciò non è un meccanismo nuovo, in realtà, che ha anche un nome: confirmation bias. Di fatto è quell’atteggiamento, tipico della natura umana, che ci porta a confermare un’ipotesi tramite prove a favore, piuttosto che cercare di prendere in considerazione evidenze contrarie. La cosa ha non poche implicazioni anche in prospettiva sociale e politica. E c’entra anche con la sopravvivenza o meno del mondo dell’informazione come l’abbiamo percepito finora. Come sempre ne abbiamo parlato con il nostro esperto in materia, il professor Marco Montali.
”La ricerca pura ovvero non guidata da interessi economici è quella che a suo tempo ha prodotto gli algoritmi sui quali sono basati i social network. E anche qui il discorso è analogo a quello che è successo quando è stata scoperta l’energia nucleare: nessuno in origine aveva pensato di farci una bomba, invece… Nel caso specifico si parla di “sistemi di raccomandazione”. Sono gli stessi meccanismi che nelle piattaforme cinematografiche ti propongono film che ti potrebbero interessare, e la stessa cosa succede per lo streaming musicale. C’è chi non li ama, questi algoritmi, ma di per sé sono utili. Tornando al punto: oggi ci sono dei filoni di ricerca sia tecnici che oggi sempre più ibridati con la dimensione umanistica, dedicati proprio a cercare di risolvere le problematiche di cui sopra. Un sistema di raccomandazione “classico” tende infatti a proporti sempre solo le cose che tu vuoi vedere. Ma se questo va bene per la musica da ascoltare, non vuol dire che all’utente vada bene anche per le notizie da ricevere. Spesso – per fortuna – le persone vogliono anche sentire i pareri discordanti dai loro e altre versioni dei fatti. Esiste allora un’area di ricerca che si occupa proprio della cosiddetta ‘differenziazione’.

(continua)

Intelligenza artificiale superstar #2

Ne avevamo parlato già su queste pagine, ma il tema delle frontiere e soprattutto dei pericoli dell’intelligenza artificiale nelle ultime settimane è diventato ancor più di strettissima attualità. Torniamo allora ad occuparcene, sempre con il supporto del prof. Marco Montali al quale chiediamo quali sono i principali quesiti che gli vengono posti a questo proposito nell’ambito degli incontri pubblici sul tema, che vedono sempre più protagonista il grande pubblico, al di là degli addetti ai lavori.

C’è molta curiosità sul funzionamento di queste tecnologie. La prima cosa che noi accademici cerchiamo di spiegare è che non esiste una sola intelligenza artificiale. Esistono infatti in particolare due grandi famiglie. La prima è quella del ragionamento automatico in cui siamo noi a dare la conoscenza alla macchina e poi lei ragiona sulle regole ricevute. La seconda è quella dell’apprendimento automatico, in cui io non fornisco le regole, ma solo degli esempi e dei dati che vengono automaticamente digeriti dall’algoritmo, che dunque in qualche modo impara le regole in modo implicito. Sembra solo una questione tecnica ma in realtà tra l’uno e l’altro concetto cambia davvero tutto. Se io per esempio ho un chatbot (software progettato per simulare una conversazione con un essere umano) che funziona con delle regole prestabilite, quando io gli chiedo una cosa lui mi risponde sulla base di quelle regole. Se invece io ho Chatgpt che ha appreso delle regole implicite su come generare il testo – “digerendosi” tutta la biblioteca di Babilonia che abbiamo sul web – come risultato mi ritrovo senz’altro con delle risposte molto sofisticate, però di fatto non so quali regole il sistema sta utilizzando, perché restano “nascoste”. 

Il quesito è allora: l’intelligenza artificiale in questo caso sta generando delle informazioni “plausibili” secondo dei parametri statistici oppure va a prendere queste informazioni da un’altra parte? 

Risponderei in due fasi. Per prima cosa: focalizziamoci su ChatGPT nella versione nuda e cruda che si può utilizzare sul sito di openai. In questo contesto, ricordiamo che GPT è un acronimo. “G” sta per “generativo” (a indicare che genera del testo mai prodotto), “P” sta per “pretrained” ovvero che la fase in cui lui ha digerito i testi è fatta e finita e non vengono più aggiunti altri testi. “T” invece sta per “trasformer”, che è l’architettura di rete neurale che il programma utilizza per l’apprendimento. La “P” qui indica proprio che il chatbot non va a recuperare informazioni in tempo reale da nessuna fonte, ma utilizza in modo statistico i testi che si è “predigerito”, senza quindi nessuna garanzia di correttezza. Se sappiamo questo allora non ci può stupire il fatto che il sistema possa generare informazioni false. O, meglio, plausibili ma non necessariamente vere, come detto. 

C’è però una “seconda fase”: ChatGPT viene sempre più spesso mescolato con altre tecnologie, rendendo sempre più difficile capire cosa stia davvero succedendo dietro le quinte. Un esempio per tutti: la versione di ChatGPT (o, meglio, l’ulteriore evoluzione chiamata GPT-4) che è integrata in Bing, integra in un unico software le capacità conversazionali di GPT-4 con quelle di recupero di informazioni dal web fornite da Bing. La correttezza fattuale di quello che viene prodotto cambia qui, e di molto.

Passi indietro sul tracciamento dei bus

Arriva? Sì, c’è scritto che arriva, ma poi… non arriva. è un’esperienza, questa, condivisa a Bolzano da molti utenti del trasporto pubblico. Gli orari degli autobus che si trovano sulle pensiline spesso lasciano il tempo che trovano, ma da un bel po’ anche gli strumenti più innovativi e digitali, come tabelloni con display e App per smartphone sono tutt’altro che precisi, anzi. E quando prendiamo il bus la precisione non è un optional, perché la maggior parte di noi non è in vacanza, ma ha un appuntamento da rispettare a breve termine. No?

Per chiarirci le idee ne abbiamo parlato con il nostro esperto della città digitale Marco Montali, che ci ha confermato nelle nostre perplessità. 

“La cosa strana è che fino a qualche anno fa, con la App di Sasa, il tracciamento dei bus era realizzato attraverso una mappa con Gps dove i mezzi erano rappresentati in tempo reale durante il loro spostamento. Si trattava di un prototipo sperimentale, realizzato in collaborazione con il Noi, ma funzionava bene tanto che noi l’avevamo lodato proprio in questa rubrica.

E poi cosa è successo?

“Beh, la App di Sasa è stata dismessa e ora c’è un’unica App (sudtirol mobil) che fa riferimento all’intero sistema della mobilità. Ma è evidente che non ha la stessa affidabilità.” 

La “vecchia” mappa che tracciava i bus in città non c’è più?

“No. E va detto non si tratta del livello di sofisticazione delle App. Il problema di fondo è capire a quali dati questi servizi fanno riferimento, e alla qualità di questi dati ovvero quanto sono fedeli alla realtà e con quale frequenza vengono aggiornati. Guardando come funziona il sito di Alto Adige Mobilità l’impressione è che i dati siano presi dalla pianificazione e non dalla situazione in tempo reale, oppure si basino (specie per quanto riguarda i ritardi) sulle dichiarazioni dell’autista. Di certo non è il GPS.”

Com’è stato possibile un passo indietro di questo tipo?

“Eh, sembra un esempio di omologazione verso il basso. Un vero peccato. Lo ripeto: è una questione di dati. Lo potete verificare anche per il tracciamento dei treni a livello nazionale. Per vedere dove si trovano si può fare riferimento al sito di Trenitalia, alla App, oppure – ad esempio – al sito viaggiatreno.it che si basa sulle informazioni presenti sui tabelloni elettronici nelle stazioni. Ebbene: se andate a vedere le informazioni sulle posizioni in tempo reale dei treni vedrete che non sono coerenti tra di loro. Lo ripeto: è una questione di qualità dei dati ed è un vero peccato. Spesso oggi sono disponibili open data, ma è solo attraverso un approvvigionamento corretto dei dati che può essere reso disponibile un servizio efficace. Altrimenti si tratta, sempre, di occasioni perse nella nostra città digitale. 

Due chiacchiere con… l’intelligenza artificiale

Negli ultimi tempi hanno preso piede in maniera esponenziale alcune nuove tecnologie legate all’intelligenza artificiale, basate sui modelli generativi. Non si tratta più dunque di modelli in grado solo di analizzare un testo o delle richieste fatte da un umano, ma si tratta di sistemi in grado loro stessi di generare contenuti. Sul nostro giornale abbiamo già parlato della vera e propria moda che ha riguardato la generazione di immagini virtuali; ora invece ci troviamo di fronte al passaggio alle reti neurali che sono in grado di generare linguaggio e testo. Sono state soprattutto le cosiddette chat Gpt a portare due grandi novità: innanzitutto hanno migliorato di molto i precedenti sistemi facendoli divenire più interattivi, ma soprattutto sono state aperte al pubblico soprattutto per raccogliere ulteriori dati e “allenare” i sistemi stessi.

La vera rivoluzione è la flessibilità, che porta questi sistemi ad interpretare le richieste degli utenti, generando testi plausibili. Se pensiamo a sistemi come Alexa che agiscono attraverso un’interpretazione del linguaggio davvero molto primordiale, arrivando spesso a causare frustrazione negli utenti, la tecnologia chat Gpt potrebbe avere davvero effetti rivoluzionari per questo tipo di utilizzo. Nella domotica a breve potrebbero dunque esserci sviluppi davvero importanti. Ora si dice che Google potrebbe perdere molto del suo appeal rispetto a questi sistemi. Ma in realtà si tratta di sistemi chiusi e definiti. Una possibile evoluzione allora potrà proprio essere quella di integrare l’interfacciamento evoluto con l’utente con motori di ricerca che vadano a cercare le informazioni su internet. Al momento si dice che le chat Gpt potenzialmente potrebbero passare degli esami universitari. Il punto è vedere quali esami e quale grado di certezza ci sarebbe, nella possibilità di superarli. Questi sistemi al momento vengono chiamati, scherzosamente, pappagalli stocastici. Quindi forse c’è ancora un po’ di strada da fare in questa direzione. Ma ci torneremo su.

Autore: Marco Montali

Computer che generano immagini mai viste

Immaginate di essere un pubblicista che, per una consegna importante, debba realizzare una fotografia di un astronauta a cavallo sulla luna. Invece di organizzare un complesso set fotografico, apre il proprio computer, digita “immagine fotografica di un astronauta a cavallo sulla luna”, aspetta 90 secondi, e ottiene alcune fotografie che mostrano la scena richiesta, sceglie quella che gli piace di più, e la integra nel manifesto pubblicitario da consegnare. In realtà non stiamo parlando di un futuro recondito, ma del presente, in particolare di un sistema di intelligenza artificiale chiamato DALL-E, sigla con significato tecnico ma anche pensata per rimandare, non a caso, a Dalì. DALL-E è in grado di produrre immagini plausibili mai viste a partire da una descrizione testuale. La versione attuale di DALL-E, chiamata DALL-E 2, non è direttamente accessibile al grande pubblico: può essere provata iscrivendosi a una lista di attesa, essendo attualmente in fase di test. Si può comunque curiosare su come funziona questo prodigio della tecnica visitando il sito https://openai.com/dall-e-2/ (dove troverete proprio l’esempio dell’astronauta), oppure provare liberamente un fratello minore (in effetti meno sofisticato) di DALL-E, chiamato DALL-E mini, accessibile al sito https://www.craiyon.com.
DALL-E in realtà ha molteplici capacità. Ad esempio: genera immagini secondo stili diversi in base alle indicazioni date, quindi al posto di “immagine fotografica” si può specificare “disegno a pastelli” o ancora “nello stile di Andy Warhol”. O ancora, può ricevere due immagini diverse per crearne una nuova che in qualche modo “combina” il contenuto delle due, ma anche variazioni stilistiche della stessa immagine. Vi lasciamo, per oggi, con la curiosità di approfondire un po’ questo tema, che cercheremo poi di analizzare più in profondità e di demistificare, per capire dove sta la meraviglia, ma anche dove stanno i limiti profondi, di questa tecnologia.

Autore: Marco Montali

Il Phishing informatico: quando a pescare sono i malintenzionati

Nella nostra rubrica abbiamo affrontato varie volte il tema della sicurezza informatica e del cybercrimine. Oggi continuiamo sul tema, parlando del cosiddetto “phishing” informatico. Il termine, che letteralmente significa “pescare”, rimanda al concetto di “provare a lanciare un amo” e vedere chi cade nel tranello. In questo contesto, lanciare l’amo significa, solitamente, inviare una e-mail a moltissimi indirizzi spacciandosi per qualcun altro: una azienda, la polizia, un ente pubblico, ecc. Il soggetto dell’e-mail ha spesso un tono allarmistico, come ad esempio “il tuo account facebook sta per essere bloccato”, oppure “abbiamo rilevato delle transazioni sospette con la tua carta di credito”, o ancora “la tua certificazione COVID è stata rubata”. Il contenuto dell’e-mail non è da meno, e porta gli utenti (soprattutto quelli inesperti) a preoccuparsi. Al di là del contenuto specifico del messaggio, la parte finale è sempre la stessa: invita chi riceve l’e-mail a cliccare su un link e fornire i propri dati (username, account, nome, cognome, carta di credito, …). Cliccando sul link, si apre un sito che appare (quasi) identico a quello che ci si aspetta di trovare (ad esempio, una “copia” fedele della pagina di autenticazione di Facebook, o del sito della carta di credito), oppure comunque dall’aspetto professionale (ad esempio, un sito che riporta il logo del ministero della salute). È qua che il malcapitato viene preso all’amo: una volta inseriti i dati sensibili richiesti, questi vengono in realtà rubati per poi essere utilizzati per attività illecite, come utilizzare i dati della carta di credito per effettuare transazioni o rubare l’identità dell’utente. Varianti del phishing sono oggi diffuse anche direttamente sui social network stessi, e non sono facilmente rilevabili dai software antivirus e antispam. Come difendersi quindi? Imparando a conoscere il fenomeno e a stare vigili. Innanzitutto controllando l’indirizzo e-mail di provenienza (non il nome che compare nei software per leggere l’e-mail, ma l’indirizzo vero e proprio). In secondo luogo: praticando lo stesso accorgimento sul nome del link che si viene invitati a seguire. Questi nomi richiamano di solito il tema della truffa (ad esempio, contengono “facebook”, oppure “ministero-della-salute”) ma contengono anche parti sospette. In terzo luogo, e in senso molto generale: nessuna attività lecita chiede all’utente di inserire dati sensibili attraverso il click di un link da una e-mail. Per verificare quindi se c’è davvero un problema, invece di cliccare sul link basta andare autonomamente sul sito in oggetto (utilizzando quindi l’indirizzo web ufficiale). Insomma: i piccoli accorgimenti umani fanno la differenza.

Autore: Marco Montali

L’intelligenza artificiale non è ancora tra noi

Stiamo assistendo ad una nuova ondata di articoli sensazionalistici sul tema dell’intelligenza artificiale generale (in inglese AGI: “ artificial general intelligence”), con cui si descrivono sistemi informatici capaci di mostrare intelligenza a livello umano in campi diversi. Il termine “generale” indica proprio la capacità di questi sistemi di competere con gli umani non su uno specifico compito (come ad esempio giocare a scacchi o a Go, dove i computer sono ormai campioni indiscussi), ma su un qualunque compito che, in termini umani, richiede di esibire una qualche forma di intelligenza. Una delle più complesse palestre per l’AGI è quella del linguaggio naturale. È proprio sul tema del linguaggio naturale (in inglese NLP: “natural language processing”) che si concentrano molti articoli sensazionalistici, principalmente focalizzandosi sul fatto che una recente generazione di algoritmi per reti neurali (in termini tecnici, chiamate “transformer”) mostra incredibili capacità di generazione del testo, anche in risposta a domande formulate da umani. Famosissime ormai sono le reti transformer BERT e GPT-3, ma nei quotidiani di questi giorni l’enfasi è il loro successore LaMDA, di Google, che avrebbe addirittura portato al licenziamento di un ingegnere di Google. Il motivo? L’ingegnere avrebbe violato le politiche di privatezza dell’azienda, dichiarando che LaMDA è a tutti gli effetti una intelligenza senziente. Al di là degli aspetti di marketing e pubblicità che ormai permeano l’intelligenza artificiale, è importante ricordare come funzionano questi sistemi: secondo principi statistici, applicati all’immensa quantità di testi disponibili su web. Vengono infatti allenati su una moltitudine di testi imparando, data una frase incompleta, distribuzioni di probabilità su quale parola successiva aggiungere per continuare la frase in modo compiuto. I risultati sono stupefacenti e in molti casi rendono queste reti capaci di generare testi complessi, di senso compiuto, e diversi da quelli su cui si sono allenate, ma altrettanto spesso li portano a generare testi senza senso. Queste reti falliscono, ad esempio, quando il tema del discorso è quello del “ragionamento di senso comune”. Questo non dovrebbe stupire: imparare distribuzioni di probabilità non ha nulla a che fare con imparare come funziona il mondo che ci circonda e quali leggi lo governano (ad esempio, banalmente, che se un oggetto viene messo in una scatola non può magicamente sparire da essa a meno che non succeda qualcosa). Riconoscere la differenza tra un essere in grado di utilizzare il linguaggio per parlare del mondo, e questi sistemi che sono a tutti gli effetti dei “pappagalli stocastici”, richiede arguzia, mentre superficialmente si può essere in effetti ingannati. Meglio ricordarcelo ancora una volta, in questo mondo di fuochi (più che di intelligenze) artificiali.

Autore: Marco Montali

SIGINT e la realtà indiretta

Nel precedente articolo della nostra rubrica, abbiamo parlato del fatto che la guerra si combatte anche su internet, secondo il seguente principio fondamentale: il mondo reale e quello digitale sono sempre più intimamente connessi; quindi interagendo col mondo digitale possiamo conoscere molto della realtà, e addirittura interferire con essa.
In effetti, è dall’inizio del 1900 che gli apparati militari intercettano segnali elettromagnetici allo scopo di ottenere informazioni importanti sul nemico. Ovviamente, “segnali elettromagnetici” e “internet” non sono la stessa cosa, ma il principio è lo stesso: ricostruire e interferire con la realtà attraverso uno “specchio” che la rappresenta indirettamente, ma in modo sufficientemente fedele. In gergo militare, l’acronimo SIGINT sta proprio a significare la “SIGnal INTelligence”: lo spionaggio focalizzato sui segnali elettromagnetici. SIGINT si suddivide in due branche principale: COMINT (“COMmunication INTelligence”) – lo spionaggio di comunicazioni tra persone; ELINT (“ELEctronic Intelligence”) – lo spionaggio di segnali elettronici a supporto delle comunicazioni (ma che non trasportano direttamente l’informazione comunicata).
Anche solo captando segnali elettronici a supporto della comunicazione si può sapere molto di quello che sta succedendo. Prendiamo uno degli esempi più minimali che possiamo immaginare: semplicemente intercettare che un cellulare si sta collegando alla rete satellitare da una certa posizione. In una delle nostre prime rubriche, abbiamo parlato del fatto che, per stimare quanto traffico c’è in un’area geografica, è sufficiente “contare” quanti cellulari sono collegati in quell’area, e con che velocità media si stanno muovendo. Secondo lo stesso principio, i militari possono decidere di bombardare un’area per il solo fatto che hanno intercettato un numero elevato di cellulari in quell’area, possibile indicazione di gruppi militari antagonisti (e se si tratta di civili, questo fa parte del terribile, cosiddetto “danno collaterale” della guerra). Questo è il motivo per cui i militari in Ucraina, dall’una e dall’altra parte, hanno l’indicazione di spegnere il GPS. Lo stesso principio può essere però utilizzato, all’inverso, per “imbrogliare”. In un contesto civile, è noto l’esperimento dell’artista Simon Wecker, che con un carretto pieno di un centinaio di cellulari è riuscito, nel 2020, a convincere Google Maps che Berlino fosse congestionata dal traffico. A riprova che questa intima connessione tra reale e digitale è sofisticata ma anche molto fragile.

Autore: Marco Montali