Intelligenza artificiale: l'Ue mette fuori legge riconoscimento delle emozioni e identificazioni biometriche
Europa prima al mondo a normare sul tema: fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini
Il 13 marzo 2024, l’Unione europea è stata la prima al mondo a dotarsi di una legge in materia di intelligenza artificiale. Il Parlamento europeo ha approvato con 523 voti a favore, 46 contrari e 49 astenuti, il regolamento sull'AI. Vediamo i dettagli.
Ue: il primo regolamento al mondo sull'AI
L’Europarlamento ha approvato il cosiddetto Ai Act, l'impianto di norme europee sull'Intelligenza Artificiale.
Le norme mettono fuori legge alcune applicazioni di IA che minacciano i diritti dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’estrapolazione indiscriminata di immagini facciali da internet o dalle registrazioni dei sistemi di telecamere a circuito chiuso per creare banche dati di riconoscimento facciale.
Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone.
Le nuove norme riguardano tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di AI in Europa. Ciò vale anche per chi non ha sede in un paese europeo, a condizione che l’output del sistema sia usato in Ue. La legge obbliga poi anche altri soggetti, come importatori e distributori.
Il regolamento non si applica invece ai sistemi di AI per scopi militari, di difesa o sicurezza nazionale, per finalità di ricerca scientifica e a quelli rilasciati con licenze free e open source. Escluse anche le attività di ricerca, prova e sviluppo dell’AI e l’uso personale non professionale da parte di singoli individui.
L’AI Act introduce una serie di misure per favorire la conoscibilità e la trasparenza degli algoritmi. Nel caso di chatbot e sistemi che interagiscono con le persone, queste ultime devono sapere di relazionarsi con una macchina. Le immagini, i testi e gli altri output di un’AI generativa devono essere contrassegnati in un formato leggibile dalla macchina e rilevabili come artificiali, così come occorre indicare che i deep fake sono stati creati da un’AI.
Ci sono poi obblighi specifici per i modelli di AI per finalità generali, vale a dire algoritmi addestrati con grandi quantità di dati e in grado di svolgere un’ampia gamma di compiti. Tra questi, la redazione di documentazione tecnica, l’attuazione di politiche per rispettare il diritto d’autore e la pubblicazione di report sui contenuti usati per addestrare l’algoritmo.
Sul versante della governance, ogni Paese avrà un’autorità di controllo nazionale, a cui potranno rivolgersi cittadini e imprese. A livello Ue saranno diversi i soggetti coinvolti, tra cui Commissione, Comitato europeo per l’intelligenza artificiale e Ufficio per l’AI (istituito a fine gennaio). Ci saranno poi un forum consultivo e un gruppo di esperti scientifici indipendenti.
Ma come fa a riconoscere le nostre emozioni?
In molti, leggendo questi dettagli, si saranno chiesti come un algoritmo possa arrivare a riconoscere le nostre emozioni. In realtà è presto spiegato. Le scienze psicologiche, negli ultimi decenni, hanno fatto grandissimi passi in merito alla codifica delle emozioni umane basandosi sull'analisi di espressioni facciali, posture e tono della voce.
Su queste "indagini" si basava anche una nota serie tv, interpretata da Tim Roth: "Lie to me".
Essendo l'intelligenza artificiale basata sull'apprendimento delle nozioni, è sufficiente condividere con lei i parametri alla base di queste scienze e ricerche, per fare in modo che possa applicarle in maniera autonoma.
"Giornata storica"
Brando Benifei, capodelegazione Pd del Parlamento europeo e co-relatore dell'AI Act, in conferenza stampa a Strasburgo, ha parlato di “giornata storica”, a proposito della “prima regolamentazione a livello internazionale che indica una chiara strada verso uno sviluppo sicuro e basato sull'essere umano”.
“Abbiamo un testo che rispecchia moltissimo le priorità del Parlamento europeo” ha spiegato ancora il capodelegazione dem, soffermandosi in particolare sulla parte legata ai divieti, ulteriormente rafforzata nel negoziato, e su quella dedicata a “trasparenza e sicurezza dei modelli fondativi più potenti”.
L'entrata in vigore
Le regole dell’AI Act verranno implementate in fasi distinte. Entro sei mesi saranno introdotti divieti, mentre enti pubblici e privati dovranno valutare rapidamente i rischi dei sistemi che utilizzano. Dopo un anno, le norme si concentreranno sui modelli fondativi, con particolare attenzione alle intelligenze artificiali generative, che dovranno soddisfare rigorosi standard di trasparenza e sicurezza. Queste regole si applicheranno prima della commercializzazione dei prodotti per le AI ad alto impatto, come GPT-4 di OpenAI, mentre per modelli più semplici sarà richiesta la conformità al momento della vendita. Infine, fra due anni, l’AI Act entrerà in vigore completamente, con sanzioni per chi non rispetta le normative che arrivano a 35 milioni di euro e, per le imprese, dall’1,5% al 7% del fatturato globale.