L’avanzamento inesorabile dell’Intelligenza Artificiale in ambito industriale (e non solo) pone continuamente nuovi interrogativi. Che opportunità offre l’IA? Come deve essere regolamentata? E quali potenziali minacce porta con sé? Questi sono solo alcuni quesiti con cui gli addetti ai lavori convivono ormai da tempo. Se da una parte l’Intelligenza Artificiale si palesa come tecnologia rivoluzionaria dall’altra è bene comprenderne i rischi e regolamentarne l’utilizzo per evitare spiacevoli conseguenze. Per questo motivo il Parlamento europeo ha recentemente pubblicato delle proposte di adeguamenti sul tema dell’Intelligenza Artificiale. Un intervento necessario per fare in modo che le imprese e gli sviluppatori possano cooperare in piena sinergia e sicurezza.
Le proposte della Commissione europea
Il 20 ottobre del 2020 il Parlamento europeo, riunito a Bruxelles, ha così pubblicato delle idee normative riguardanti l’Intelligenza Artificiale, nello specifico tre risoluzioni e due proposte di regolamento su argomenti quali etica, responsabilità e proprietà intellettuale. Una proposta di intervento senza dubbio necessaria per regolamentare l’utilizzo della tecnologia e potenziarne il più possibile il suo impiego. Il fine ultimo dei vertici europei è quello di creare più fiducia possibile attorno a questo rivoluzionario strumento e, contestualmente, ridurre al minimo i rischi per lavoratori e stakeholders economici.
La questione etica dell’Intelligenza Artificiale
Più volte si è dibattuto sull’opportunità di integrare l’Intelligenza Artificiale nel processo produttivo. I detrattori reputano la sua applicazione dannosa per i diritti fondamentali dell’uomo, tra cui, come intuibile, il diritto al lavoro. Per questo motivo enorme valenza possiedono i principi etici delineati dal Parlamento europeo in materia. Il punto nevralgico della questione è strettamente legato all’implementazione di Intelligenza Artificiale e di tecnologie robotiche nel processo di produzione. Più la loro presenza si amplia più il rischio di sostituzione operativa si materializza.
Un tentativo di porre definitivamente fine al dibattito è stato lanciato dal Consiglio europeo che ha ribadito la centralità della Carta dei diritti fondamentali e ha sottolineato come l’applicazione di tali tecnologie debba essere accompagnata dal rispetto di tali diritti. Ne consegue l’esortazione ad implementare solamente soluzioni IA che abbiano un approccio antropocentrico.
Responsabilità: cosa propone il Parlamento europeo
Strettamente collegato alla questione etica vi è il concetto di responsabilità. Si tratta forse del tema più complicato da normare perché affiancato al discorso della sicurezza. Il Parlamento europeo ha previsto importanti aggiornamenti in tal senso, proponendo un regime differenziato basato sulla pericolosità dei sistemi di Intelligenza Artificiale. Si è così pensato di suddividere le tecnologie di IA a seconda della categoria di rischio: sistemi “ad alto rischio” e sistemi “non ad alto rischio”.
Per sistemi “ad alto rischio” si intendono sistemi che funzionano in modo autonomo e che possono determinare danni sia materiali che immateriali (con dimostrabile conseguenza economica) di entità oltre la ragionevole attesa. In questi casi la Commissione europea ha previsto un regime di responsabilità oggettiva. Ciò significa che la responsabilità prescinde dal dolo e dalla colpa. Per i sistemi “non ad alto rischio” invece la raccomandazione del Parlamento europeo è quella di scegliere la responsabilità per colpa. Questa, ovviamente, può essere sempre esclusa quando l’azienda dimostra di aver seguito diligentemente le regole di impiego.
La responsabilità ricade sugli operatori
Sempre all’interno del perimetro normativo della responsabilità è giusto sottolineare come questa ricada direttamente sugli operatori, sia di front end che di back end (a seconda delle modalità di funzionamento del sistema intelligente e del livello di controllo che l’operatore ha sul dispositivo). È chiaro quindi che per una maggiore tutela del lavoratore debba essere rivisto anche l’aspetto assicurativo. La proposta della commissione europea introduce così l’idea di obbligo assicurativo, ricalcando le direttive già previste per la circolazione di veicoli.
La centralità della sorveglianza umana
Come già accennato, all’interno delle tecnologie di Intelligenza Artificiali “ad alto rischio” rientrano tutte quelle soluzioni dal funzionamento autonomo, ovvero dotate di auto-apprendimento. Questa opportunità, benché senz’altro in grado di portare enormi benefici a livello operativo, nasconde dei rischi di responsabilità non sottovalutabili. Per questo motivo la Commissione europea ha sottolineato come tali soluzioni debbano essere progettate solo se accompagnate dalla sorveglianza umana. Se si dovessero quindi verificare casistiche in cui l’applicazione dell’Intelligenza Artificiale finisca per generare una violazione dei principi etici o, alternativamente, dei problemi di sicurezza è necessario sospendere ogni programma di auto-apprendimento e ripristinare il controllo umano.
Cosa succederà in futuro?
Le proposte del Parlamento europeo sono senz’altro un ulteriore passo avanti verso la totale integrazione dell’Intelligenza Artificiale nel processo produttivo. Come ogni nuova tecnologia però necessita di un quadro normativo che renda il suo impatto su lavoratori, economia e società il meno traumatico possibile.
Per questo motivo la Commissione europea sta lavorando per generare massima fiducia riguardo all’introduzione dell’IA. Per farlo sarà necessario coniugare diverse esigenze in un unico documento. Tale tecnologia infatti richiede una revisione completa dei concetti di sicurezza (visto che si basa sull’utilizzo di dati) e soprattutto di autonomia decisionale. Il punto di partenza è ben delineato: l’apporto dell’uomo deve essere ancora centrale nel governo di questi sistemi, nel pieno rispetto dei valori etici contenuti all’interno della Carta dei diritti fondamentali.
Comments are closed.