L’Unione Europea, nel suo incessante impegno per regolamentare in modo efficace le tecnologie emergenti, ha recentemente aggiornato l’AI Act – una legge rivoluzionaria proposta dalla Commissione europea il 21 aprile 2021 – che mira a governare l’uso dell’Intelligenza Artificiale (IA) nei suoi Stati membri.
Questa nuova normativa rappresenta un passo significativo verso la creazione di un quadro normativo chiaro e trasparente per l’adozione e lo sviluppo responsabile dell’IA nell’UE, e risponde alla crescente necessità di garantire la sicurezza e la protezione dei cittadini europei in un mondo sempre più digitalizzato.
AI Act: che cosa contiene, in sintesi
Il testo di legge dell’AI Act affronta una vasta gamma di questioni relative all’IA, dalle implicazioni etiche e sociali alle considerazioni tecniche e legali.
Tra le disposizioni più importanti c’è l’istituzione di standard etici e tecnici per l’IA, basati su principi come la trasparenza, la responsabilità e la non discriminazione.
Inoltre, la legge stabilisce requisiti specifici per la trasparenza e la tracciabilità dei sistemi basati sull’IA, consentendo ai cittadini di comprendere come vengono presi i loro dati e di quali decisioni sono oggetto.
L’obiettivo è quindi classificare e regolamentare le applicazioni dell’intelligenza artificiale in base al rischio di causare danni ai cittadini.
Questa classificazione rientra principalmente in tre categorie: pratiche vietate, sistemi ad alto rischio e sistemi per uso generale.
Usi Proibiti dell’IA
Al fine di garantire il rispetto dei diritti fondamentali e la tutela della dignità umana, l’AI Act identifica alcuni utilizzi dell’IA che sono considerati inaccettabili o proibiti nell’UE.
Tra questi vi sono tutte le pratiche che minacciano la privacy e la libertà individuali, come:
- La discriminazione ingiustificata basata su caratteristiche personali
- La categorizzazione biometrica che fa riferimento a dati personali sensibili (es. credo religioso, orientamento politico e sessuale…)
- La manipolazione comportamentale nascosta
- Monitoraggio invasivo delle attività personali
- Scraping di volti tramite internet
- Riconoscimento di emozioni sul posto di lavoro o in ambito scolastico
- Polizia predittiva per stabilire se una persona possa compiere un reato o meno sulla base della personalità, nazionalità, situazione familiare o economica.
Tuttavia ci sono alcune eccezioni, come ad esempio l’etichettatura o il filtro di dataset biometrici, legalmente acquisiti, per scopi di polizia. E sono ammessi sistemi di analisi del rischio che non facciano profilazione di individui, come quelli per smascherare transazioni sospette o per tracciare le rotte del narcotraffico, sulla base dello storico accumulato nei database.
Sistemi AI ad Alto Rischio: cosa devono fare gli sviluppatori
Un elemento chiave dell’AI Act riguarda i sistemi AI ad alto rischio, definiti come quelli che possono influenzare significativamente i diritti fondamentali, la salute o la sicurezza dei cittadini.
Questi sistemi sono soggetti a requisiti più rigidi, inclusa la valutazione della conformità, la certificazione e la supervisione continua.
Ad esempio, i dispositivi medici basati sull’IA o i sistemi di guida autonoma sono considerati ad alto rischio e devono soddisfare standard specifici per garantire la sicurezza e l’affidabilità.
Quindi chi sviluppa sistemi di AI ad alto rischio è tenuto a stabilire sistemi di controllo e a gestire in modo trasparente i dati chiarendo l’origine delle informazioni usate e mantenendole aggiornate, oltre a registrare in automatico i log (da conservare per tutta la vita commerciale dell’algoritmo) così da poter risalire a eventuali situazioni di rischio e indagare sulle origini.
Gli sviluppatori di sistemi ad alto rischio dovranno inoltre comunicare il livello di accuratezza dell’AI, compresa una serie di metriche stabilita dalla Commissione, robustezza e sicurezza informatica: il tutto sotto il controllo di un essere umano che, in caso di pericolo imminente, può bloccare l’intelligenza artificiale attraverso un “bottone di stop o una procedura simile, che consente al sistema di bloccarsi in modo sicuro”.
Sistemi di AI per Uso Generale
Parallelamente ai sistemi ad alto rischio, l’AI Act disciplina anche i sistemi di IA per uso generale, che non sono soggetti agli stessi requisiti stringenti ma devono comunque rispettare le disposizioni generali sulla trasparenza, sulla supervisione umana e sulla responsabilità.
Questi sistemi includono applicazioni di intelligenza artificiale per la gestione dei dati, l’automazione dei processi aziendali e l’assistenza virtuale. Pur non rappresentando un rischio critico per la sicurezza o i diritti fondamentali, devono essere progettati e utilizzati in modo etico e responsabile.
Parliamo quindi di tutti gli strumenti di AI generativa come ChatGPT, Google Bard, Copilot etc. per cui gli sviluppatori devono assicurarsi che i contenuti siano marcati in un sistema leggibile da una macchina e siano riconoscibili come generati da un’AI.
Un utente deve sapere se sta interagendo con un chatbot e i contenuti deepfake devono essere etichettati come tali (attraverso sistemi come il watermarking, la filigrana digitale applicata a foto o video).
Come verrà applicato l’AI Act?
L’AI Act delega una serie di controlli alle autorità locali, che entro due anni dall’entrata in vigore dovranno istituire almeno una sandbox regolatoria a livello nazionale.
La sandbox regolatoria consiste in uno schema che consente di effettuare test in sicurezza, in deroga alla legge, per non soffocare l’innovazione a causa dei troppi obblighi da rispettare e sostenere l’addestramento di algoritmi, anche con test condotti nel mondo reale.
La Commissione si doterà di un Consiglio dell’AI, dove siede un esponente per ogni Stato dell’Unione. Il Garante europeo dei dati personali è invitato come osservatore, così come l’Ufficio dell’AI collocato sotto la Direzione generale Connect.
Il Consiglio sarà strutturato in due sottogruppi, uno dedicato alla sorveglianza del mercato e uno alle notifiche delle autorità, e assisterà la Commissione nell’implementazione del regolamento, nell’identificazione di tendenze tecnologiche da monitorare e nella modifica delle norme.
A sua volta il Consiglio dell’AI sarà affiancato da un forum di consulenti tecnici, mentre la Commissione potrà avvalersi di un comitato indipendente di scienziati ed esperti, sulla falsariga del gruppo di tecnici del clima che aiuta l’Onu nella regia delle politiche ambientali.
Chi non si adegua all’AI Act rischia multe fino a 35 milioni di euro o al 7% del fatturato globale nel caso degli usi proibiti, 15 milioni o del 3% del fatturato globale in caso di mancata ottemperanza alle regole per i sistemi ad alto rischio o quelli di suo generale e 7,5 milioni di euro o dell’1% del fatturato globale se si contestano informazioni scorrette.
Comments are closed.