Perche’ Bruxelles vuole vietare il riconoscimento facciale?

|Novità|28 gennaio 2020

Intelligenza artificialeNel libro bianco sull'intelligenza artificiale, che sarà pubblicato a febbraio, la Commissione europea affronta una serie di questioni legate al rispetto della privacy. Fra queste, la messa al bando del riconoscimento facciale nei luoghi pubblici.

Innovazione e startup - fondo UE da 100 milioni per IA e blockchain 

Tra gli interventi proposti, in base alle anticipazioni fornite da Euractiv, ci sono una serie di limitazioni temporanee all'uso delle tecnologie per il riconoscimento facciale.

La ricetta per far crescere il PIL? IA, competenze e investimenti

Intelligenza artificiale, in arrivo strategia UE per tutelare la privacy

Nel dettaglio la Commissione propone di introdurre un divieto all'uso delle tecnologie di riconoscimento facciale da parte di attori pubblici o privati ​​negli spazi pubblici per un periodo definito, presumibilmente tra i 3 e i 5 anni. L'obiettivo è definire in questo lasso di tempo una metodologia solida per valutare gli impatti e le possibili misure di gestione dei rischi.

Inoltre, il Collegio dei commissari suggerisce cinque opzioni per regolamentare l'uso dell'Intelligenza artificiale in Europa:  

  • su base volontaria, adottando un marchio di riconoscimento per tutti i soggetti che rispettano i principi etici per un uso consapevole dell'intelligenza artificiale;
  • requisiti specifici per la pubblica amministrazione;
  • requisiti obbligatori per le applicazioni ad alto rischio, in settori come quello sanitario, giudiziario e dei trasporti;
  • disposizioni legislative per tutelare la sicurezza in UE, con riferimento ai cyber-attacchi, alla privacy e alla protezione dei dati personali;
  • definizione di un sistema di governance per garantire l'applicazione delle disposizioni normative UE, coinvolgendo le autorità nazionali.

Il libro bianco sull'intelligenza artificiale sarà pubblicato il 19 febbraio 2020, insieme ad una strategia sulla protezione dei dati e ad una relazione sulla sicurezza e le responsabilità nell'IA, ha annunciato la Vestager, ricordando che in Europa sono già presenti regole per la protezione dei dati, come il GDPR, ma "si deve capire se sono adeguate anche alle tecnologie di IA, se valutare standard più elevati per il riconoscimento facciale per l'utilizzo dei dati".

Fintech: ABI, al via Centro di competenze sull’Intelligenza artificiale