Riconoscimento facciale

Quanto in là ci vogliamo spingere?

Vai agli articoli della serie “L’Intelligenza artificiale

Image for post
Image for post

Il magazine “Sentieri Selvaggi” — n. 5 (dicembre 2019-febbraio 2020), da apprezzare per l’iniziativa — ha dedicato molte pagine al tema del riconoscimento facciale riproducendo, in traduzione italiana, gli stralci di alcuni contributi comparsi sulla stampa internazionale. Si tratta di una scelta molto accurata e significativa che, grazie alla disponibilità del magazine, siamo lieti di riprodurre nella nostra area di Medium. Le traduzioni dall’inglese sono di Pasquale Pirisi, Annarita Guidi e Giovanna Canta.

L’intelligenza artificiale non è simile a quella umana. Pensarla così potrebbe essere pericoloso

di Elizabeth Fernandez (da www.forbes.com)

Le reti neurali

Uno dei tipi di apprendimento automatico più potenti e popolari di questi tempi è costituito dalla rete neurale. Il nome ha origine dall’idea alla base di neuroni e sinapsi presenti nel cervello. In una rete neurale l’input viene inviato a più strati di “neuroni”. Ogni strato genera un output che viene a sua volta trasmesso come input allo strato successivo.

Le reti neurali che contengono un gran numero di strati sono spesso chiamate reti neurali profonde (DNN dall’inglese Deep Neural Network). Le reti neurali si sono evolute al punto da diventare il “motore” di Google Translate, del riconoscimento facciale di Facebook e di Siri. In più, le reti neurali possono anche dipingere alla maniera di Van Gogh o perfino salvare le balene.

Questi algoritmi sono senza dubbio potenti, ma pensare che “ragionino” e “imparino” allo stesso modo degli umani sarebbe inesatto, dice David Watson dell’Oxford Internet Institute e dell’Alan Touring Institute. Tra le tante differenze, ne tratteggia tre.

Le reti neurali si possono ingannare

La prima: le DNN si lasciano ingannare facilmente. Immaginate per esempio di avere la foto di una banana. Una rete neurale la classificherà con successo come una banana. È possibile però creare una rete generativa avversaria capace di ingannare la vostra DNN. Aggiungendo un minimo di “rumore” o un’altra immagine oltre a quella della banana, la vostra DNN potrebbe pensare che l’immagine della banana sia un tostapane.

Un umano non verrebbe mai ingannato da un trucco simile. Alcuni sostengono che ciò dipende dal fatto che le DNN sono in grado di vedere cose che gli umani non possono, ma Watson afferma: “Questo scarto tra le reti neurali biologiche e quelle artificiali suggerisce che alle seconde manchino alcune importanti componenti, essenziali per orientarsi nel mondo reale”.

Le reti neurali sono secchione

La seconda: le DNN hanno bisogno di un’enorme quantità di dati per imparare. Una DNN che classifica le immagini potrebbe avere bisogno di “vedere” migliaia di immagini di zebre per riconoscere una sola zebra all’interno di un’immagine.

Fate fare lo stesso test a un bambino e con tutta probabilità sarà in grado di riconoscere una zebra, anche parzialmente nascosta, solo avendo visto l’immagine di una zebra per poche volte. Gli umani sono straordinari nell’apprendimento cosiddetto “one-shot” (basato cioè su uno o pochi esempi), dice Watson. Insegnare a una rete neurale, d’altro canto, può rivelarsi molto difficile, specialmente nei casi in cui i dati siano difficili da reperire.

Le reti neurali sono miopi

La terza: le reti neurali sono “miopi”. Sono in grado di vedere gli alberi, per così dire, ma non la foresta. Per esempio, una DNN potrebbe classificare con successo un’immagine di Kim Kardashian come quella di una donna, artista e starlet. Però, dopo aver spostato la bocca e uno degli occhi, la sicurezza del pronostico della DNN migliora: essa non trova nulla di sbagliato nell’immagine. È chiaro insomma che qualcosa non va.

Un altro esempio: un essere umano può dire “quella nuvola sembra un cane”, laddove una DNN direbbe che la nuvola è un cane.

Afferma Watson:

Sarebbe un errore sostenere che questi algoritmi riproducono l’intelligenza umana, È vero invece che essi introducono una nuova modalità di inferenza che ci è superiore per certi versi, ma inferiore per altri.

Image for post
Image for post

Il tuo cellulare rinnega la democrazia

di Charlie Warzel e Stuart A. Thompson (The New York Times)

Tracciamento invisibile

Nelle riprese aeree dei droni le strade notturne di Hong Kong sembrano quasi incandescenti, una costellazione di decine di migliaia di cellulari, luci che ondeggiano all’unisono. Ogni bagliore un segno di partecipazione, un appello alla libertà. I manifestanti — alcuni in maschera per boicottare la rete governativa di telecamere destinate al riconoscimento facciale — si sentono al sicuro tra la folla.

Ma nell’oscurità, oltre le luci scintillanti, ciascun cellulare emette un altro segnale — questo invisibile all’occhio umano.

Il segnale viene captato e raccolto, molte volte al minuto, non da un drone, bensì da un’app. E la sua trasmissione continua molto dopo che i manifestanti hanno spento le fotocamere, raggiunto le case, tolto le maschere.

Negli Stati Uniti, e nel mondo, una persona che porta con sé un cellulare a una manifestazione viene tracciata e la sua partecipazione all’evento viene puntualmente inserita in banche dati di carattere commerciale. I partiti politici hanno iniziato, per scopi elettorali, a raccogliere e comprare dati sulle posizioni dei cellulari.

Una minaccia alla democrazia

Todd Gitlin, professore di giornalismo alla Columbia University ed ex presidente degli Studenti per una Società Democratica, un gruppo di attivisti di spicco degli Anni ’60, comments con queste parole:

È senza dubbio inquietante. Rappresenta una minaccia per alcune libertà costituzionalmente garantite. Se le persone sanno di essere tracciate, ci pensano due volte prima di scegliere di essere parte di un movimento.

Una banca dati contenente oltre 50 miliardi di posizioni estratte dai cellulari di più di 12 milioni di cittadini americani, raccolte da “Times Opinion”, mostra come un monitoraggio di tale ampiezza metta a rischio il diritto di riunirsi e partecipare nell’ambito di una sana democrazia.

In pochi minuti, senza alcuna formazione specifica e con qualche ricerca su Google, “Times Opinion” è stata in grado di identificare i partecipanti a manifestazioni pubbliche di ogni tipo, da una costa all’altra.

Tracciando determinati cellulari, si seguono i percorsi dei manifestanti dalla Marcia delle Donne (2017) fino alle loro case. Si identificano le persone presenti all’inaugurazione delle proteste Black Bloc (2017). Le si seguono fino ai luoghi in cui lavorano. In alcuni casi — ad esempio uno scontro a Berkeley, California tra antifascisti e attivisti di estrema destra, simpatizzanti di Milo Yiannopolous — è stato fin troppo facile rintracciare le abitazioni dei manifestanti e i membri delle loro famiglie.

L’anonimato dei manifestanti

L’anonimato dei manifestanti è un tema dibattuto da tempo. Generalmente ai governi non piace l’idea — il timore è che le persone mascherate possano più facilmente fomentare disordini. Molti Stati, tra cui quello di New York e la Georgia, hanno emanato leggi che vietano l’uso di maschere durante le manifestazioni.

Paesi come il Canada e la Spagna si sono dotati di norme che limitano o vietano l’uso di maschere durante le manifestazioni non autorizzate. Ma nell’era degli smartphone nessuno — mascherato o meno — può più perdersi tra la folla.

Vengono alla mente scenari da incubo. Governi che usano i dati di posizione per identificare i dissidenti politici durante le manifestazioni. Pubblici ministeri, polizie che li sfruttano per intimidire gli avvocati e indurli al patteggiamento. Impiegati corrotti del settore tecnologico che condividono questi dati con gruppi politici. Donatori magnati che acquistano aziende specializzate in localizzazione, con lo scopo di potenziare il loro partito in termini di targeting elettorale, e di rendere pubbliche informazioni riservate su un dissidente. Gruppi di suprematisti bianchi che bucano i server di piccole startup di localizzazione e acquisiscono gli indirizzi personali di persone potenzialmente interessate.

Image for post
Image for post

Il riconoscimento facciale è il più grave errore dell’industria Tech

di Max Eddy (Medium)

Sta tutto nelle intenzioni

Il riconoscimento facciale è sbagliato. È più che sbagliato. È un sistema orribile di verifica dell’identità delle intenzioni; è troppo permissivo e ci educa a sentirci a nostro agio nel farci scansionare la faccia. In conclusione, il riconoscimento facciale nel mercato tecnologico rappresenta la fine della civiltà per come la conosciamo.

Portando come esempi Google e Apple, dovrei sottolineare che entrambi affrontano le paure più distopiche che riguardano la scansione facciale. No, i dati del vostro viso restano sul vostro telefono. No, i vostri dati biometrici non vengono raccolti così da permettere una ricostruzione della vostra faccia.

E sì, potete disattivare la funzione (lasciare una misera password o un ancora più misero PIN). Ma sia Google che Apple hanno dimenticato o ignorato che la verifica riguarda anche le intenzioni.

Quando digito la mia password, sto segnalando un’intenzione a fare qualcosa. Di certo non inserirei alcuna password in contesti altri. E se è possibile toccare accidentalmente il lettore di impronte digitali, è comunque un’azione che devi compiere — richiama un’intenzione.

Un pessimo modello

Il riconoscimento facciale è un pessimo modello di messa in sicurezza perché non c’è alcuna possibilità di segnalare quali che siano le vostre intenzioni. Un ottimo e recentissimo esempio ce lo fornisce Google Pixel 4.

È ormai risaputo che la funzione di “sblocco facciale” funziona persino quando avete gli occhi chiusi. Suppongo che possiamo tutti inchinarci di fronte alla bravura di Google di riconoscerci addirittura da svenuti, ma ingenera lo sgradevole timore che qualcuno possa sbloccare il nostro telefono mentre dormiamo, o in stato di incoscienza, oppure morti.

Come se non bastasse, è Google stesso nella documentazione allegata al dispositivo ad indicare che se qualcuno dovesse tirarvi in faccia il telefono, quest’ultimo si sbloccherebbe, che lo vogliate oppure no. “Se lo guardate, il telefono può sbloccarsi anche se non desiderate farlo” afferma il sito. Qualcuno che vi somiglia molto, per esempio un gemello, non avrà problemi a sbloccarlo.

Anche a occhi chiusi

E ancora: “Il vostro telefono può essere sbloccato da qualcun altro se si trova molto vicino a voi, anche se avete gli occhi chiusi”.

Nonostante l’identificazione facciale, e non il riconoscimento, necessiti che abbiate gli occhi ben aperti, ha fondamentalmente lo stesso problema. Ogni volta che lo schermo è spento, ma si trova in corrispondenza del vostro viso, è bello che sbloccato e prontissimo all’uso. È interessante notare che Apple, sulla piattaforma Apple Pay, affronta invece il problema delle intenzioni per i dispositivi che si servono dell’identificazione facciale.

Se volete acquistare qualcosa, è necessario guardare lo schermo per la verifica e premere due volte il pulsante di sblocco. Se è possibile che per sbaglio guardiate il telefono o addirittura premiate il pulsante, è altamente improbabile fare tutte queste cose insieme a meno che non vogliate davvero effettuare un pagamento.

Creare brutte abitudini

Il riconoscimento facciale ad ampio spettro è ben più spaventoso della maggior parte di modalità d’identificazione biometrica. Proviamo a immaginare una stanza stipata di persone e che la polizia ne cerchi una. Se la polizia possiede soltanto l’impronta digitale dell’individuo in questione, dovrà esaminare le mani di tutti i presenti nella stanza.

Non è solo tedioso, ma rende evidente a chiunque si trovi lì che c’è qualcosa che non va. Ora immaginate che invece delle impronte digitali, la polizia abbia a disposizione una foto della persona, videocamere nascoste, e un software in grado di far combaciare quella foto con una persona in carne e ossa.

La polizia potrà a quel punto scansionare tutti i presenti senza che nessuno se ne accorga. E potrà anche tracciare i movimenti dell’individuo, raccogliendo molte più informazioni oltre alla semplice presenza nella stanza.

Nuovi sistemi di sorveglianza

Questo secondo esempio è già una realtà di fatto in alcuni paesi. È stato reso noto che la polizia cinese è ora equipaggiata di speciali occhiali di identificazione facciale capaci di isolare determinati individui qualora si trovassero in gruppi numerosi.

Il Regno Unito ha fatto da apripista nei nuovi sistemi di sorveglianza. L’intelligenza artificiale è in grado di abbinare una persona a una faccia, e Google Photos ha dimostrato che non ci vuole poi molto ad accoppiare un individuo con una qualsiasi delle sue foto — sia che si tratti di un anziano o di un neonato.

Gli aeroporti statunitensi utilizzano gli scanner facciali su passeggeri che si imbarcano su voli internazionali. Ring sta prendendo accordi con le forze dell’ordine per promuovere i suoi campanelli dotati di videocamere e una piattaforma che consente alla polizia di richiedere video alle persone. Il futuro è adesso, ed è pericoloso.

Un modello deleterio

Il riconoscimento facciale si è già fatto strada in quel modello (e lo dico con una bella dose di sarcasmo) di privacy che è Facebook. Di recente l’azienda ha ammesso di aver creato e poi messo da parte un’applicazione di scanning facciale che consentiva all’utente di turno di identificare chicchessia puntandogli contro il telefono.

Il servizio è già in grado di identificare automaticamente le persone sia nelle immagini che nei video. Il numero di chi è pronto ad accettare i nostri dati facciali sta crescendo.

Dotati come sono di un potenziale vastissimo, ho molta paura che l’identificazione facciale o lo sblocco o varie ed eventuali tecnologie di riconoscimento ci stiano educando a sentirci tranquilli nel farci scansionare il viso. Non dovremmo mai sentirci tranquilli di fronte a una cosa del genere.

Image for post
Image for post

Riconoscimento facciale: Apple, Amazon, Google e la marcia per la faccia

di Andrew Gebhart (www.cnet.com)

Un settore in espansione

Il riconoscimento facciale è un settore della tecnologia in espansione ed è tanto eccitante quanto problematico. Se avete mai sbloccato il vostro iPhone semplicemente guardandolo, o se avete mai chiesto a Facebook o Google di sfogliare per conto vostro un album ancora in disordine e mostrarvi le foto dei vostri figli, allora lo avete già visto all’opera.

Che lo vogliate oppure no, il riconoscimento facciale (chiamato anche solo “riconoscimento faccia”) è destinato a giocare un ruolo sempre maggiore nella vostra vita. Il vostro viso potrebbe essere analizzato in un aeroporto oppure a un concerto, che ne siate a conoscenza oppure no. Potreste ricevere annunci pubblicitari personalizzati grazie alle telecamere installate nei centri commerciali.

Il riconoscimento facciale ha moltissimi pregi. Una tecnologia del genere potrebbe rendere una smart home ancora più smart, inviandovi notifiche in base a chi entra in casa vostra e offrendo un accesso privilegiato ad amici e parenti.

Ma, come minimo, il riconoscimento facciale solleva la questione della privacy.

Che cos’è il riconoscimento facciale?

Il riconoscimento facciale è una tipologia di autenticazione biometrica; utilizza i vostri parametri fisici per verificare la vostra identità. Si viene dunque identificati grazie alla forma e alla struttura unica dei nostri volti.

Sistemi diversi per un impiego di tecniche altrettanto diverse, ma essenzialmente parliamo degli stessi principi che regolano altri strumenti di autenticazione, quali lo scanner di impronte digitali o il riconoscimento vocalico.

Se a Bledsoe va il merito di averne gettato le basi, è solo negli Anni ’80 e ’90 che grazie ad un gruppo di matematici del MIT è iniziato lo sviluppo del moderno riconoscimento facciale.

Dove viene impiegato?

Da allora è stato impiegato innumerevoli volte sia a scopo commerciale che istituzionale e con esiti diversi. Il governo cinese fa uso del riconoscimento facciale per la sorveglianza su larga scala nelle telecamere a circuito chiuso dei luoghi pubblici.

Ciò, sia per acciuffare i criminali che per analizzare il comportamento della popolazione con lo scopo di trasformare i dati in un punteggio. Infrazioni apparentemente innocue come comprare troppi videogiochi o attraversare la strada col rosso possono abbassare tale punteggio.

La Cina lo utilizza poi per una specie di sistema di “credito social”, il quale determina se un individuo sia più o meno degno di ricevere un prestito, comprare una casa, fino ad arrivare a cose molto più semplici come prendere un aereo o accedere ad Internet.

Anche la London Metropolitan Police fa uso di questa tecnologia nelle indagini per restringere il campo degli indiziati, sebbene il loro sistema non sembri granché collaudato — sappiamo che la percentuale degli abbinamenti erronei è di un imbarazzante novantotto per cento.

Negli Stati Uniti i dipartimenti di polizia dell’Oregon e della Florida stanno facendo squadra con Amazon per installare il riconoscimento facciale nelle telecamere di proprietà del governo.

Il riconoscimento facciale è attualmente in fase di sperimentazione negli aeroporti per consentire una maggiore scorrevolezza alle file di viaggiatori durante i controlli di sicurezza; i Servizi Segreti ne stanno testando l’efficacia alla Casa Bianca; Taylor Swift l’ha utilizzato per identificare gli stalker durante uno dei suoi concerti.

Il riconoscimento facciale ha inoltre portato all’arresto del responsabile della sparatoria di massa conosciuta come Capital Gazette (cinque morti, due feriti) nel 2018, dopo aver inserito una foto del sospettato in un database di foto segnaletiche e averla confrontata con quelle della patente di guida.

Inoltre Tokyo 2020 sarà la prima manifestazione olimpica [rinviata] a impiegare questa tecnologia per migliorare i sistemi di sicurezza. Una tecnologia che potrebbe apportare cambiamenti massicci sia nei punti vendita al dettaglio che nei mercati in generale, identificazione ladri a parte.

Durante il CES (la più importante fiera di elettronica al mondo) del 2019, la multinazionale di beni a largo consumo Procter & Gamble ha installato un concept store in cui grazie all’impiego di videocamere dotate di un sistema di riconoscimento facciale il cliente di turno riceveva consigli personalizzati su cosa comprare.

Quali sono le implicazioni?

A differenza di altre tipologie di autenticazione biometrica, le videocamere sono in grado di raccogliere informazioni, che lo sappiate oppure no, e con o senza il vostro consenso. Se siete persone riservate, ma vi trovate in un luogo pubblico, potreste far disporre dei vostri dati liberamente.

Trattandosi di una tecnologia così recente, negli Stati Uniti non esistono leggi che limitino il raggio d’azione delle aziende dopo che queste hanno preso possesso delle vostre immagini. Da poco il senato ha approvato un decreto bipartisan per rettificare la mancata regolamentazione in merito.

Lo scorso anno L’American Civil Liberties Union (ONG orientata a difendere i diritti civili e le libertà individuali) ha presentato una petizione in cui chiedeva ad Amazon di non condividere più il proprio sistema di riconoscimento facciale con le forze dell’ordine e il governo, definendo tale prospettiva “un manuale di sorveglianza autoritaria”.

Stando a quanto riportato dalla società di media Buzzfeed, la US Costum and Border Protection (tra le maggiori forze dell’ordine per la sicurezza delle frontiere) progetta un incremento di tale tecnologia per i voli internazionali negli aeroporti dell’intero paese.

L’Electronic Privacy Information Center (gruppo di ricerca pubblico) ha condiviso con Buzzfeed una serie di documenti che suggerivano che prima ancora di raccogliere dati pubblici questi sistemi risultavano già difettosi, con una percentuale di accuratezza quanto mai opinabile e una regolamentazione sulla privacy ancora da definire circa l’utilizzo dei dati che le compagnie aeree possono fare dopo averli raccolti.

Oltre il consenso

NBC News ha riportato che i database di immagini usati per migliorare i sistemi di riconoscimento facciale provengono dai social media e senza esplicito consenso da parte del soggetto o del fotografo.

Aziende come l’IBM hanno un obiettivo preciso: utilizzare queste immagini nell’intento di incrementare l’accuratezza dei sistemi, con particolare riferimento alle persone di colore. In via teorica, assorbendo i dati di un lungo catalogo di volti, il sistema avrà più chance di affinare i propri algoritmi e quindi riconoscere un maggior numero di strutture facciali.

L’Electronic Frontier Foundation (ONG per la tutela dei diritti digitali) sottolinea che le attuali tecnologie producono un numero elevatissimo di falsi positivi nel caso di riconoscimento di minori. L’apporto della NBC evidenzia inoltre quanto sia tedioso se non anche impossibile per un privato cittadino sottrarre le proprie immagini a questi database.

Facebook affronta un’azione legale a causa della sua stessa tecnologia di riconoscimento, chiamata DeepFace, la quale identificava gli individui senza previo consenso. L’azienda per le smart home Ring, di proprietà di Amazon, ha sollevato un polverone per aver registrato brevetti sul riconoscimento facciale che avrebbero potuto violare i diritti civili.

Un’arma a doppio taglio

Ring, con i suoi campanelli con telecamere annesse, avrebbe esaminato centri abitati alla ricerca di individui con reati sessuali alle spalle oltre ai cosiddetti “most wanted” per poi notificarli automaticamente alle forze dell’ordine. L’idea è stata criticata in quanto avrebbe potuto bersagliare persone ingiustamente considerate una minaccia nonché attivisti politici.

La scienza che soggiace al riconoscimento facciale è di certo entusiasmante e una tecnologia di tale portata potrebbe rendere una smart home più sicura e più personale.

Ma al tempo stesso, potrebbe provocare una drastica riduzione della privacy, un profiling errato e la violazione di libertà civili. Se l’impatto di questo sistema è ancora da determinare e discutere, è essenziale riconoscere che non parliamo più di un concetto riservato alla fantascienza. Giusto o sbagliato che sia, il riconoscimento facciale è qui ora e si sta diffondendo a macchia d’olio.

Image for post
Image for post

Intelligenza artificiale e riconoscimento facciale: perché la società della sorveglianza digitale non è più accettabile

di Fabio Chiusi (Valigia blu)

I manifestanti di Hong-kong

La rivoluzione deve ancora cominciare, ma il totem è già stato abbattuto. Accade il 24 agosto, a Hong Kong, in un sabato di protesta che segue a molti altri. Nel video, circolato ovunque in rete, ci sono manifestanti vestiti principalmente di nero. Si coprono il volto con maschere e indumenti, quando non bastano gli ombrelli, l’oggetto-simbolo della volontà di interporre uno strato di stoffa tra l’occhio dello Stato e il proprio spazio personale, che è uno dei grandi motori della rivolta.

Un ragazzo armeggia con una flex mentre altri, con e senza tiranti, circondano elettrici un palo della luce “intelligente”. Nella città ne sono previsti 400, di cui 350 in arrivo. Ma per i manifestanti, in lotta col governo cinese per ottenere libertà di pensiero e democrazia, sono l’incarnazione di quello sguardo del potere a cui hanno ben compreso sia indispensabile sfuggire. Perché, dicono, quei pali sarebbero dotati di tecnologie di riconoscimento facciale.

Non è un lampione

“Quello non è un lampione”, afferma un tweet virale di un manifestante, “è un lampione intelligente dotato di videocamera e tecnologia di riconoscimento facciale. Consentono di sorvegliare Hong Kong, e dunque i manifestanti. Di conseguenza i manifestanti li stanno abbattendo”. “Le informazioni dei cittadini di Hong Kong vengono già estradate in Cina, dobbiamo essere molto preoccupati”, raccontano altri all’ABC.

Altro che misurare la qualità dell’aria o l’intensità del traffico, come si limitano a dichiarare le autorità di Hong Kong: quella luce significa essere costantemente monitorati e riconosciuti dagli algoritmi, prima, e dai funzionari, poi, di un regime autoritario. Per questo bisogna proteggersi, celare la propria identità in ogni modo. Per questo quel palo, apparentemente innocuo, va distrutto.

Gesti simbolici

Nessuna motosega azzera un regime, certo, ma il gesto è simbolico. Nel video condiviso da Jordan Sather su Twitter, oltre 14 milioni di visualizzazioni da solo, si vede benissimo: abbattere quel palo della luce significa segare il tronco da cui si alimenta il potere repressivo delle autorità cinesi; quantomeno, dare forma al desiderio di farlo. Significa dire, come si è letto sempre su Twitter in una deliziosa parafrasi del manifesto di Gil Scott-Heron, “the revolution will not be facially recognised”.

O meglio: che è cominciata la lotta per impedirlo. Dall’inizio della protesta contro la nuova legge sull’estradizione, i manifestanti hanno regolarmente preso d’assalto, spray alla mano, telecamere a circuito chiuso, a partire, lo scorso luglio, da quelle fuori dagli edifici governativi.

Già allora avevano scelto di coprirsi il volto con mascherine e caschi, usare chat cifrate per comunicare in modo sicuro, chiedere regolarmente: “No photo”. Gli esperti dicono: lasciate a casa i cellulari. È la rivolta dell’era della sorveglianza digitale di massa, la rivolta contro lo “smart” al servizio della repressione. Una battaglia all’interno di una guerra lunga e appena cominciata, il cui esito è tutt’altro che scritto.

La mania del controllo

E in cui, tra i nemici, figura il riconoscimento facciale. Lampioni-spia o meno, i manifestanti hanno ragione a preoccuparsi. A quanto sappiamo il governo di Hong Kong, infatti, usa eccome il riconoscimento facciale per controllare i propri cittadini.

BuzzFeed per esempio ha visionato centinaia di pagine prodotte dal Dipartimento Logistica del governo in risposta a richieste passate di accesso agli atti, scoprendo che il riconoscimento facciale è in uso in “almeno” tre casi: è collegato con il chip biometrico della carta d’identità dei residenti, viene utilizzato nei passaporti e per l’ingresso nel paese.

E così ci si copre, come si può. Si parla insieme al riparo degli ombrelli, organizzando le prossime mosse. Ma cosa vieta di pensare che alcuni poliziotti si siano infiltrati tra i manifestanti, solo per fotografarli a tradimento, e fornire così l’immagine al proprio database, verificando all’istante l’identità del bersaglio?

In molti tra i manifestanti lo pensano, e lo riportano ai media. Il New York Times arriva a scrivere che “manifestanti e polizia hanno trasformato l’identità in un’arma”. Ed è vero. Identità, armi, diritti: tutto viene comunque ridotto a dati e analisi di dati.

Written by

Graduated in European history in Florence, he started working in publishing soon after having come across a Mac computer in 1984

Get the Medium app

A button that says 'Download on the App Store', and if clicked it will lead you to the iOS App store
A button that says 'Get it on, Google Play', and if clicked it will lead you to the Google Play store