UK Markets closed
  • NIKKEI 225

    28,608.59
    -909.71 (-3.08%)
     
  • HANG SENG

    28,013.81
    -581.89 (-2.03%)
     
  • CRUDE OIL

    65.39
    +0.47 (+0.72%)
     
  • GOLD FUTURES

    1,837.60
    0.00 (0.00%)
     
  • DOW

    34,269.16
    -473.66 (-1.36%)
     
  • BTC-GBP

    40,211.01
    +844.49 (+2.15%)
     
  • CMC Crypto 200

    1,525.13
    +1,282.46 (+528.46%)
     
  • Nasdaq

    13,389.43
    -12.43 (-0.09%)
     
  • ^FTAS

    3,962.98
    -97.82 (-2.41%)
     

Ue, no a riconoscimento facciale in luoghi pubblici

webinfo@adnkronos.com (Web Info)
·2-min read

L'Ue non diventerà come la Cina, dove i sistemi di riconoscimento facciale o di identificazione biometrica in remoto vengono utilizzati su scala massiccia per controllare la popolazione. Nella proposta di regolamento sull'intelligenza artificiale presentata oggi dalla Commissione Europea, tutti i sistemi di identificazione biometrica in remoto vengono considerati "ad alto rischio" e sono pertanto soggetti a severa regolamentazione. L'uso di questi sistemi in luoghi accessibili al pubblico a fini di applicazione della legge è proibito, in linea di principio.

Sono previste limitate eccezioni, che vengono strettamente regolate, per esempio per la ricerca di bambini scomparsi, per prevenire una minaccia terroristica "specifica ed imminente" o per localizzare o identificare o perseguire un sospetto autore di un reato grave. Questo utilizzo delle tecniche di riconoscimento biometrico in remoto deve essere autorizzato dall'autorità giudiziaria, o da un'altra istituzione indipendente, e deve avere limiti appropriati nel tempo, nello spazio e per i database utilizzati.

Le nuove regole sull'intelligenza artificiale saranno applicate direttamente in tutti gli Stati membri e seguono un approccio basato sul rischio. I sistemi di intelligenza artificiale (Ai in gergo) che comportano "rischi inaccettabili", che costituiscono in altre parole una "chiara minaccia" per la vita e alla sicurezza delle persone, verranno vietati.

Tra questi figurano sistemi e applicazioni di Ai che manipolano il comportamento umano, come ad esempio i giochi che utilizzano l'assistenza vocale incoraggiando comportamenti rischiosi da parte di minori e sistemi che permettono ai governi di effettuare classificazioni nella società ('social scoring' in gergo).

Sotto i sistemi a rischio inaccettabile ci sono quelli a rischio elevato, che includono le tecnologie di Ai utilizzate in infrastrutture critiche come i trasporti, che possono mettere a rischio la vita e la salute dei cittadini; i sistemi di formazione, che potrebbero determinare l'accesso all'educazione e il percorso professionale delle persone, come i sistemi che valutano gli esami.