Advertisement
UK markets closed
  • FTSE 100

    7,952.62
    +20.64 (+0.26%)
     
  • FTSE 250

    19,884.73
    +74.07 (+0.37%)
     
  • AIM

    743.26
    +1.15 (+0.15%)
     
  • GBP/EUR

    1.1710
    +0.0016 (+0.14%)
     
  • GBP/USD

    1.2622
    -0.0000 (-0.00%)
     
  • Bitcoin GBP

    55,715.93
    -13.09 (-0.02%)
     
  • CMC Crypto 200

    885.54
    0.00 (0.00%)
     
  • S&P 500

    5,254.35
    +5.86 (+0.11%)
     
  • DOW

    39,807.37
    +47.29 (+0.12%)
     
  • CRUDE OIL

    83.11
    -0.06 (-0.07%)
     
  • GOLD FUTURES

    2,254.80
    +16.40 (+0.73%)
     
  • NIKKEI 225

    40,369.44
    +201.37 (+0.50%)
     
  • HANG SENG

    16,541.42
    +148.58 (+0.91%)
     
  • DAX

    18,492.49
    +15.40 (+0.08%)
     
  • CAC 40

    8,205.81
    +1.00 (+0.01%)
     

Ue, no a riconoscimento facciale in luoghi pubblici

L'Ue non diventerà come la Cina, dove i sistemi di riconoscimento facciale o di identificazione biometrica in remoto vengono utilizzati su scala massiccia per controllare la popolazione. Nella proposta di regolamento sull'intelligenza artificiale presentata oggi dalla Commissione Europea, tutti i sistemi di identificazione biometrica in remoto vengono considerati "ad alto rischio" e sono pertanto soggetti a severa regolamentazione. L'uso di questi sistemi in luoghi accessibili al pubblico a fini di applicazione della legge è proibito, in linea di principio.

Sono previste limitate eccezioni, che vengono strettamente regolate, per esempio per la ricerca di bambini scomparsi, per prevenire una minaccia terroristica "specifica ed imminente" o per localizzare o identificare o perseguire un sospetto autore di un reato grave. Questo utilizzo delle tecniche di riconoscimento biometrico in remoto deve essere autorizzato dall'autorità giudiziaria, o da un'altra istituzione indipendente, e deve avere limiti appropriati nel tempo, nello spazio e per i database utilizzati.

Le nuove regole sull'intelligenza artificiale saranno applicate direttamente in tutti gli Stati membri e seguono un approccio basato sul rischio. I sistemi di intelligenza artificiale (Ai in gergo) che comportano "rischi inaccettabili", che costituiscono in altre parole una "chiara minaccia" per la vita e alla sicurezza delle persone, verranno vietati.

Tra questi figurano sistemi e applicazioni di Ai che manipolano il comportamento umano, come ad esempio i giochi che utilizzano l'assistenza vocale incoraggiando comportamenti rischiosi da parte di minori e sistemi che permettono ai governi di effettuare classificazioni nella società ('social scoring' in gergo).

Sotto i sistemi a rischio inaccettabile ci sono quelli a rischio elevato, che includono le tecnologie di Ai utilizzate in infrastrutture critiche come i trasporti, che possono mettere a rischio la vita e la salute dei cittadini; i sistemi di formazione, che potrebbero determinare l'accesso all'educazione e il percorso professionale delle persone, come i sistemi che valutano gli esami.