Intelligenza artificiale e rischi morali

Alessia Sialino

2/11/20242 min leggere

La proposta della Commissione europea di una nuova legge sull'IA risale ad aprile 2021 e segue il Libro bianco sull'intelligenza artificiale pubblicato nel febbraio 2020, in cui già si evidenziava il ruolo centrale dell'IA nell'apportare molteplici benefici sociali ed economici multisettoriali. A dicembre 2023 è finalmente arrivato l’accordo fra il Parlamento, la Commissione ed Consiglio sul testo da adottare. Solo a febbraio 2024 l’approvazione del Regolamento, che mira ad assicurare che i sistemi di IA immessi sul mercato europeo e utilizzati nell'UE siano sicuri e rispettino i diritti fondamentali ed i valori dell'UE. L'idea principale era quella di regolamentare l'IA sulla base della capacità di quest'ultima di causare danni alla società seguendo un approccio "basato sul rischio": tanto maggiore è il rischio, quanto più rigorose sono le regole. Ci si è dati uno standard globale per la regolamentazione dell'IA in altre giurisdizioni, come ha fatto il regolamento generale sulla protezione dei dati, promuovendo in tal modo l'approccio europeo alla regolamentazione della tecnologia sulla scena mondiale.

Il regolamento contiene regole sui modelli di IA per finalità generali ad alto impatto che possono comportare rischi sistemici in futuro, nonché sui sistemi di IA ad alto rischio. Prevede un sistema di governance riveduto con alcuni poteri di esecuzione a livello dell'UE, determina l’ampliamento dell'elenco dei divieti, ma con la possibilità di utilizzare l'identificazione biometrica remota da parte delle autorità di contrasto negli spazi pubblici, fatte salve le tutele, garantisce una migliore protezione dei diritti tramite l'obbligo per gli operatori di sistemi di IA ad alto rischio di effettuare una valutazione d'impatto sui diritti fondamentali prima di utilizzare un sistema di IA.

Di rilevante importanza ai fini dell’evoluzione del diritto europeo è il divieto della manipolazione comportamentale cognitiva, lo scraping non mirato delle immagini facciali da Internet o da filmati di telecamere a circuito chiuso, il riconoscimento delle emozioni sul luogo di lavoro e negli istituti di istruzione, il punteggio sociale, la categorizzazione biometrica per dedurre dati sensibili, quali l'orientamento sessuale o le convinzioni religiose, e alcuni casi di polizia predittiva per le persone.      All’uomo sono stati introdotti sistemi di autorità di contrasto che sono legittimati ad usare i suddetti criteri solo in determinate situazione. La governance è stata affidata all’ufficio IA presso la Commissione che con diritto di reclamo del cittadino all'Autorità di vigilanza del mercato competente in merito alla non conformità con l’AI Act o all’impatto sui propri diritti. L’obiettivo è sempre stato di trovare un equilibrio tra il desiderio di cogliere appieno i vantaggi di nuovi prodotti innovativi e la necessità di controllare l’uso dell’intelligenza artificiale, evitandone gli abusi.

Il Regolamento entra in vigore subito, dopo la pubblicazione sulla Gazzetta dell’Unione mentre viene demandata agli Stati membri l’attuazione delle linee guida contenuta nell’apposita direttiva che dovrà essere recepita entro due anni. “Sostenere l’applicazione anticipata delle regole per il contrasto a disinformazione e deepfakes, sicuramente inizialmente approssimativa per via degli standard ancora non pienamente adottati, sarà però fondamentale pur in forma imperfetta per proteggere le nostre democrazie nell’anno elettorale più importante per l’Europa e per il mondo», riferisce il relatore italiano.

Se ha fatto premio tra le altre cose il rischio sempre più concreto di un uso penalmente perseguibile dell’intelligenza artificiale, non solo nel campo delle frodi o del crimine organizzato, ma anche della pornografia, dubbi permangono sulla completezza del testo rispetto agli iniziali desiderata, sia sul versante della chiarezza delle nuove regole, sia sulla diffusione di nuovi applicativi da parte di imprese che dell’IA han fatto il loro core business.