Telecamere posizionate ovunque nelle nostre città e tecnologie biometriche sempre più sofisticate proteggono la nostra sicurezza ma contemporaneamente possono ledere i nostri diritti di cittadini e registrano, spesso senza il nostro consenso, enormi quantità di dati personali dei quali non conosciamo la destinazione e l’impiego. L’irrinunciabile smartphone, l’assistente vocale, i wearable device e molti altri oggetti ‘smart’ che l’Internet of Things (IoT) ha introdotto nel nostro privato, ci semplificano la vita rendendo tutto interconnesso, ma allo stesso tempo tracciano movimenti e azioni della nostra vita online e offline. I dati che tutti questi device di uso o di contatto quotidiano estraggono da noi sono, nelle parole di Shoshana Zuboff, il “petrolio” di una nuova forma di capitalismo, che la studiosa definisce come “capitalismo della sorveglianza”, titolo anche del suo celebre libro in cui spiega come nuovi mezzi di produzione, le Intelligenze artificiali, elaborano questa materia prima per creare il prodotto che alimenta il nuovo mercato, in rapida evoluzione: le previsioni sui nostri comportamenti. Un altro aspetto significativo è la componente discriminatoria dei dati, che nasce dall’illusione che essi siano oggettivi e scevri da quei pregiudizi che istintivamente riconduciamo all’umanità, e non alle macchine. Kate Crawford, esperta di Intelligenze artificiali e curatrice della mostra “Excavating AI: The Politics of Images in Machine Learning Training Sets”, spiega che i dati sono interventi politici. Non sono neutri e oggettivi come appaiono, ma organizzati in data-sets che inevitabilmente incarnano i pregiudizi ideologici di chi li costruisce. La loro gestione, quindi, può portare al proliferare di “discriminazioni automatizzate” in base a razza, genere, status sociale, situazione finanziaria, e anche a stile di vita, gusti e personalità.
Il design della privacy: 13 progetti di consapevolezza e resistenza alla sorveglianza digitale
Nella società digitalizzata i nostri dati personali sono diventati la nuova merce di scambio: ecco come il design interviene per proteggere la vulnerabilità della privacy e sensibilizzare intorno a tematiche spesso sottovalutate o poco conosciute.
View Article details
- Rei Morozumi
- 24 gennaio 2023
Di fronte a questo scenario, complesso e in continua evoluzione, il design non è rimasto fermo. Oltre alla progettazione di oggetti semplici come i “privacy shutter”, oscuratori per webcam già spesso integrati nei laptop, nella sua dimensione critica il design ha proposto progetti provocatori che hanno innanzitutto la finalità di creare consapevolezza sulla minaccia che il tracciamento digitale costituisce per la privacy, ma che possono anche concretizzarsi in oggetti commerciabili e utilizzabili dall’utente per eludere il controllo dei device, permettendogli di proteggersi senza ritirarsi in un anacronistico eremo anti-digitale. Diversi sono i metodi che i vari progetti adottano per salvaguardare la privacy individuale: alcuni per esempio isolano l’utente dai sistemi di tracciamento, altri confondono le varie tecnologie attraverso il sovraccarico di dati o la loro falsificazione. La gallery qui proposta presenta una selezione di progetti che si concentrano principalmente su due temi: la difesa dal riconoscimento facciale e la protezione dalla sorveglianza degli oggetti smart, toccando quindi l’ambito sia pubblico che privato del cittadino di oggi.
Presentato alla mostra Anonymous realizzata dalla HKU (University of Arts di Utrecht), Privacy Mask è uno degli oggetti creati per proteggere la privacy dall'invasività delle telecamere con riconoscimento facciale, sempre più diffuse e in grado di riconoscere le persone con un'efficienza che supera l’occhio umano. Il riconoscimento facciale è utilizzato nella gestione delle smart cities e per motivi di sicurezza, tra i quali, soprattutto in alcuni regimi, l’identificazione di chi partecipa a manifestazioni di protesta e a disordini sociali. Lo scopo della maschera è garantire la protezione evitando che chi la indossa perda totalmente la propria espressività e la propria identità nel mondo reale. Il materiale è infatti un PMMA trasparente che permette di mantenere visibile il proprio volto, ma che impedisce il riconoscimento da parte delle telecamere grazie alle sue ondulazioni.
Anche Face Projector, esposto nella Milano Design Week 2017, è uno dei prototipi realizzati per la mostra Anonymous della HKU, che esplora la difesa dell’ identità individuale in un futuro sempre meno distopico e sempre più vicino, in cui gli strumenti per il riconoscimento facciale sono ubiqui. Consiste in un dispositivo wearable, indossato sul capo come una visiera, che proietta immagini di volti casuali sul viso dell’utente, in modo da disorientare le tecnologie di riconoscimento facciale. Il progetto ha riacquistato popolarità nel 2019, quando alcune fake news apparse sui social descrivevano il prodotto, decontestualizzandolo, come un escamotage utilizzato dai manifestanti durante le proteste di Hong Kong per evitare di essere identificati dalla polizia.
Adam Harvey, artista e ricercatore indipendente americano residente a Berlino, è uno dei personaggi più attivi nel contesto della privacy e della sorveglianza. CV Dazzle, il cui nome si ispira alle tecniche di mimetizzazione navale utilizzate durante la Prima guerra mondiale, è certamente uno dei progetti più noti e interessanti nell’ambito del contrasto al riconoscimento facciale. Esplora come il trucco e le acconciature possano essere utilizzati per evitare di essere riconosciuti dalle telecamere pur rimanendo riconoscibili alle persone. Con una varietà di make-up e diverse pettinature d’avanguardia, infatti, CV Dazzle spezza la continuità di un volto e altera le relazioni spaziali tra i suoi tratti principali, disturbando e bloccando così i sistemi di riconoscimento facciale. Harvey specifica che il progetto non deve essere inteso come un prodotto o un modello finito, ma piuttosto come una strategia di camuffamento che deve essere progettata di volta in volta, in relazione a un algoritmo e a un volto specifico.
Manifesto Collection è una collezione di capi in maglia di cotone che, grazie a una tecnologia innovativa, permette di trasporre sul tessuto delle adversarial patches, cioè immagini apparentemente astratte, ma accuratamente progettate per bloccare il riconoscimento o per creare associazioni dei dati biometrici del viso a categorie errate, per esempio ad animali anziché a persone, ingannando i rilevatori. E’ anche questo uno strumento di protezione dal riconoscimento facciale poco invasivo, che permette di non coprirsi il viso. Il progetto è stato realizzato da Cap_able, startup fashion-tech italiana attenta all’etica e alla tecnologiaca, con un metodo brevettato che consente di incorporare l’algoritmo nella texture in modo da garantire una perfetta vestibilità dei capi che si fondono con i volumi del corpo senza perdere la loro efficacia nella protezione. Efficacia che è stata testata con Yolo, il più comune e veloce sistema di rilevamento di oggetti in tempo reale. I capi della collezione non hanno solo una funzione provocatoria, ma possono essere acquistati e realmente indossati.
Con Tricking Biometrics, progetto presentato nel 2014 alla Dutch Design Week, Alix Gallet affronta con umorismo l’invasività delle tecnologie biometriche proponendo una collezione di accessori costituiti da finte parti del corpo (orecchie, nasi, dita). Indossandoli, come spiega l’artista, si possono alterare, spostare o moltiplicare i tratti e gli elementi del viso per confondere i sistemi di riconoscimento e impedire l’identificazione. L’estetica degli accessori, che ricordano travestimenti da carnevale, e l’idea stessa alla base del progetto rispondono all’obiettivo dell’artista di stigmatizzare l’assurdità e le contraddizioni dello sviluppo di queste tecnologie, che raccolgono un’infinità di dati sulla nostra identità fisica, senza fornire alcuna garanzia su come e da chi verranno usati.
Off pocket, un altro progetto di Adam Harvey, nasce dalla sperimentazione personale dell’artista sulla protezione della propria privacy e si focalizza sullo smartphone, il device forse più usato nel quotidiano e certamente quello che crea e condivide più dati in assoluto. Anche quando non lo utilizziamo, infatti, lo smartphone continua a tracciare la nostra posizione, non solo con il GPS, ma anche tramite Wi-Fi, 5G e celle telefoniche. Riesce quindi a seguire tutti i nostri movimenti, riconoscendo dove andiamo, con che mezzi ci spostiamo, dove ci fermiamo e così via. Il progetto consiste in una custodia per Smartphone in tessuto che funziona come una gabbia di Faraday, schermando tutti i segnali (700MHz – 5GHz) e isolando il cellulare da tracciamenti o intercettazioni. Parte della collezione Design, Architecture and Digital Department del Victoria and Albert Museum di Londra, non è però attualmente disponibile sul mercato a causa degli eccessivi costi di produzione.
Progettato dagli architetti austriaci dello studio Copp Hummelb(l)au e presentato nel 2014 nella mostra “Abiti da Lavoro” alla Triennale di Milano, Jammer Coat è un indumento capace di proteggere l’individuo dalla sorveglianza degli smart device, permettendogli di disconnettersi e salvaguardando la sua privacy. Il cappotto è realizzato con tessuti metallizzati che bloccano le onde radio, i segnali internet e degli smartphone, fungendo così da scudo alla sorveglianza. Ospitati nelle tasche interne della giacca, infatti, telefonini e tablet rimangono isolati, rendendo gli utenti virtualmente irraggiungibili. Lo stesso design della giacca vuole richiamare il principio della libertà fisica dell’individuo, mascherando la forma del corpo di chi la indossa con una sovrabbondanza di scanalature che, insieme ai motivi di punti e linee nere stampati sul tessuto, danno l’illusione di una strana molteplicità di parti del corpo.
Anche Project Kovr di Marcha Schagen and Leon Baauw nasce con lo scopo di creare indumenti acquistabili in grado di proteggere l’individuo dalla sorveglianza degli smart device, permettendogli di disconnettersi. Il progetto consiste in una giacca realizzata con diversi strati di tessuti metalliferi che sono in grado di schermare e isolare i segnali in entrata e uscita, funzionando con il principio della gabbia di Faraday. La giacca mantiene tuttavia la possibilità di rimanere connessi grazie a delle tasche nere non schermate, utilizzabili, appunto, quando si vuole essere raggiungibili. L’utente ha così la libertà di scegliere quando vuole connettersi o isolarsi. Oltre alla giacca, con lo stesso materiale sono stati progettati zaini e borse nei quali poter isolare, con lo stesso principio, i vari device digitali che vi si ripongono.
Accessories For The Paranoid esplora un approccio alternativo alla privacy digitale, proponendo una famiglia di oggetti da utilizzare per contrastare la sorveglianza operata su di noi da vari tipi di device molto comuni, che agiscono anche nel contesto domestico o in generale privato, leggendo, raccogliendo e memorizzando una quantità impressionante di informazioni sugli utenti. Gli accessori proposti da questo progetto sono oggetti parassiti che, applicati ai device, sono in grado di generare dati casuali con lo scopo di “inquinare” i dati dell’utente e falsificare quindi la profilazione che gli algoritmi fanno di lui. Uno di questi oggetti, ad esempio, viene posizionato sulla webcam del computer e funziona con lo stesso principio delle toy camera, mostrando alla webcam fotografie casuali che la confondono. Un altro, invece, interferisce con Echo, lo speaker di Amazon con l’assistente vocale Alexa, disturbandolo con la produzione di rumori bianchi o di conversazioni casuali che, di nuovo, confondono gli algoritmi. Un terzo oggetto si collega al computer e naviga autonomamente, accedendo a caso su siti come Google, Facebook, YouTube, Twitter o Amazon, lasciando tracce false.
Negli ultimi anni, gli assistenti vocali hanno invaso case e uffici di utenti spesso inconsapevoli della capacità di questi device di ascoltare e tracciare tutto ciò che viene detto intorno a loro, riconoscendo la persona che parla, il suo tono di voce e tutte le sue interazioni con oggetti connessi. Project Alias consiste in un filtro che emette in continuazione rumori bianchi e che si installa nell’assistente vocale per impedirgli di sentire cosa accade al suo esterno e quindi di sorvegliare l’utente. Quando si vuole utilizzare l'assistente vocale, per toglierlo dall’isolamento bisogna interagire con Alias, che si attiva tramite la parola trigger scelta dall'utente durante la configurazione. Una volta interpellato, Alias disattiva i rumori bianchi di fondo e consente all'utente di comunicare direttamente con l'assistente vocale. Terminata l'interazione, Alias riattiva i rumori bianchi garantendo la privacy.
Project Seen ha lo scopo di far riflettere sul tracciamento dei contenuti testuali che condividiamo tramite social, messaggistica, email e così via. In particolare, mostra come determinate parole, le cosiddette parole trigger, ci rendano immediatamente oggetto di tracciamento da parte di sistemi di sicurezza e non. Emil Kozole ha realizzato quindi un font, Seen, che ha precaricato un set di parole sensibili che la NSA e altre agenzie usano per filtrare i documenti che controllano. Queste parole trigger vengono barrate con una riga nera appena si scrivono e il testo che ne risulta fornisce così all’utente informazioni sui campi in cui è più vulnerabile alla sorveglianza, prevenendo contemporaneamente la sua tracciabilità. Seen può essere usato su tutti i software più popolari e anche su un browser.
Anche questo progetto affronta il tema del tracciamento e il riconoscimento dei contenuti testuali sul web, in particolare sui social media, dove i nostri tweet e i nostri commenti possono essere facilmente analizzati per ottenere dati comportamentali ed emozionali sul nostro conto, che vanno a dettagliare sempre più finemente la nostra profilazione. Captcha Tweet è un’App con la quale l’utente può postare tweet sotto forma di Captcha, il celebre test per distinguere gli utenti umani dai bot, proteggendo il suo messaggio dalle Intelligenze artificiali che non sono in grado di leggerlo in questa forma. Captcha viene qui considerato un simbolo della relazione tra la visione umana e quella del computer, e tramite questa App viene applicato alla comunicazione nei social network.
Unfit Bits affronta il tema del self tracking, ovvero dell’auto tracciamento, focalizzandosi sui device che registrano le nostre attività fisiche e sportive. Il nome stesso del progetto è una parafrasi di quello di una delle aziende più importanti del settore dei wearable, Fitbit, acquisita da Google nel 2021. Il progetto consiste in una serie di soluzioni artigianali sviluppate da Suraya Mattu, ingegnere, artista e giornalista d'inchiesta residente a Brooklyn, per ingannare i fitness tracker, device da indossare per il controllo dell’attività fisica. Questi tracker, progettati per permetterci di monitorare il nostro corpo, condividono e vendono i dati che generiamo con le nostre attività. I fitness tracker sono anche stati proposti ai clienti di alcune assicurazioni in cambio di sconti sulle polizze vita, perché attraverso di essi le compagnie assicurative possono tracciare l’attività fisica dell’utente. L’uso degli Unfit bits, oltre a salvaguardare la privacy, consente di simulare il raggiungimento degli obiettivi quotidiani di esercizio fisico fissati da eventuali polizze, con soluzioni molto semplici: il device, ad esempio, può essere collegato a un trapano, la cui rotazione simula la corsa, oppure a un metronomo, il quale simulerà un movimento totalmente diverso. Ogni soluzione, infatti, fornisce pattern di attività fisiche diverse.