Il riconoscimento facciale e gli aspetti più problematici

Il riconoscimento facciale come tutte le tecniche di intelligenza artificiale indubbiamente presenta serie problematiche in materia di privacy poiché vengono trattati dati di natura biometrica estremamente delicati. Nello specifico tale tecnica comporta l’applicazione di un software biometrico in grado di identificare in modo univoco e verificare l’identità di una persona analizzandone le caratteristiche distintive del volto e confrontandole con quelle di altre immagini già acquisite.

Difatti ognuno di noi ha dei tratti facciali unici. Questo tipo di software è in grado di analizzarli, confrontarli con le informazioni archiviate in un database e identificare la persona (se trova una corrispondenza).

Riguardo il rapporto con lo specifico settore della protezione dei dati personali, come spesso accade nel campo delle nuove tecnologie, non si può parlare di assoluta incompatibilità, in quanto il trattamento dei dati se conforme a quei principi di legalità, necessità, proporzionalità e minimizzazione dettati dal Regolamento UE n. 2016/679 (GDPR) può essere senz’altro possibile e lecito. In caso contrario potremmo trovarci di fronte a casi di diffusione illegittima di dati estremamente delicati e quindi a furti di identità oppure a trattamenti automatizzati di dati non consentiti dalla normativa o comunque ad altre forme di trattamento illecito di dati personali.

In effetti, mentre l’uso di queste tecnologie può essere percepito come particolarmente efficace, i titolari del trattamento dovrebbero prima di tutto valutare l’impatto sui diritti e sulle libertà fondamentali e considerare possibilmente mezzi meno invasivi per raggiungere il loro legittimo scopo del trattamento.

Nel nostro ordinamento non esistono normative ad hoc che regolano il riconoscimento facciale, ma il relativo trattamento dei dati personali deve rispettare alcune disposizioni fondamentali del GDPR, in particolare l’art. 5 che disciplina i principi applicabili al trattamento dei dati personali, l’art. 6 che definisce le condizioni di liceità del trattamento e l’art. 9 che disciplina il trattamento di categorie particolari di dati tra cui quelli biometrici. Inoltre proprio di recente il Comitato Europeo per la Protezione dei dati personali (EDPB) nelle linee guida n. 3/2019 sul trattamento dei dati personali attraverso dispositivi di videosorveglianza dedica particolare attenzione al riconoscimento facciale ed alla videosorveglianza intelligente.

Per parlare di dato biometrico alla luce degli articoli 4.14 e 9 del GDPR, si devono considerare tre criteri:

– Natura dei dati: dati relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica;

– Mezzi e modalità di elaborazione: dati “risultanti da un’elaborazione tecnica specifica”;

– Scopo del trattamento: i dati devono essere utilizzati per identificare in modo univoco una persona fisica.

Le linee guida sostengono che l’articolo 9 del GDPR si applica se il titolare del trattamento memorizza dati biometrici (più comunemente attraverso modelli creati mediante l’estrazione di caratteristiche chiave dalla forma grezza dei dati biometrici (ad es. misurazioni facciali da un’immagine)) al fine di identificare in modo univoco una persona. Se un titolare del trattamento desiderasse rilevare un soggetto che rientra nell’area o che entra in un’altra area (ad esempio per proiettare un annuncio pubblicitario personalizzato), lo scopo sarebbe quello di identificare in modo univoco una persona fisica, il che significa che l’operazione rientrerebbe fin dall’inizio nell’ambito di applicazione dell’articolo 9.

Talvolta alcuni sistemi biometrici sono installati in ambienti non controllati, il che significa che il sistema prevede la cattura al volo dei volti di qualsiasi individuo che passa nel raggio d’azione della telecamera, comprese le persone che non hanno acconsentito al dispositivo biometrico, e quindi la creazione di modelli biometrici. Questi modelli vengono confrontati con quelli creati da persone che hanno dato il loro previo consenso durante un processo di arruolamento (cioè un utente biometrico) affinché il titolare del trattamento dei dati riconosca se la persona è un utente di dispositivi biometrici o meno.

In questo caso, secondo le indicazioni dell’EDPB il sistema è spesso progettato per discriminare gli individui che vuole riconoscere in un database da quelli che non sono arruolati ed ovviamente è necessaria una specifica eccezione ai sensi dell’art. 9 paragrafo 2 del GDPR.

Quando il trattamento biometrico viene utilizzato a scopo di autenticazione, le linee guida raccomandano che il titolare del trattamento deve offrire una soluzione alternativa che non comporti un trattamento biometrico – senza restrizioni o costi aggiuntivi per la persona interessata. Questa soluzione alternativa è necessaria anche per le persone che non rispettano i vincoli del dispositivo biometrico (iscrizione o lettura dei dati biometrici impossibile, situazione di disabilità che ne rende difficile l’utilizzo, ecc.) e in previsione di una indisponibilità del dispositivo biometrico (come un malfunzionamento del dispositivo), deve essere implementata una “soluzione di back-up” per garantire la continuità del servizio proposto, limitata però ad un uso eccezionale.

Naturalmente in conformità al principio di minimizzazione dei dati, i titolari del trattamento devono garantire che i dati estratti da un’immagine digitale per costruire un modello non siano eccessivi e contengano solo le informazioni necessarie per lo scopo specificato, evitando così ogni possibile ulteriore elaborazione.

Dal punto di vista tecnico, secondo le linee guida, il titolare del trattamento deve adottare tutte le precauzioni necessarie per preservare la disponibilità, l’integrità e la riservatezza dei dati trattati.

A tal fine deve:

1. compartimentare i dati durante la trasmissione e la memorizzazione;

2. memorizzare i modelli biometrici e i dati grezzi o i dati di identità su database distinti;

3. cifrare i dati biometrici, in particolare i modelli biometrici, e definire una politica di cifratura e di gestione delle chiavi;

4. integrare una misura organizzativa e tecnica per l’individuazione delle frodi;

5. associare un codice di integrità ai dati (ad esempio firma o hash) e vietare qualsiasi accesso esterno ai dati biometrici.

Tali misure naturalmente dovranno evolvere con il progresso delle tecnologie.

Articolo Ripreso da : FederPrivacy.org