AGI - Scatta lo stop all’intelligenza artificiale ingannevole ed è in dirittura d’arrivo l’uso dell’Ia per sottoporre i migranti richiedenti asilo alla macchina della verità o stabilire la priorità nell'invio dei servizi di emergenza sanitaria o dei vigili del fuoco. Fa tutto parte della scaletta del nuovo, e finora unico, Regolamento europeo sull’Ia.A dicembre in Europa saranno vietati quei sistemi definiti “inaccettabili”, capaci di “manipolazione comportamentale” e “di classificare le persone sulla base di razza, religione e orientamento sessuale” e attraverso l’analisi dei loro dati biometrici. La novella legge è stata pubblicata in Gazzetta Ufficiale europea il 12 luglio scorso e dopo 20 venti giorni c’è stato il primo via libera. Ma non a tutte le sue parti. Passato il mese prossimo, la successiva data utile per l’attuazione delle norme generali sarà il giugno 2025. Mentre il varo dei vincoli per i sistemi ad alto rischio - quelli cioè ritenuti potenzialmente pericolosi per diritti e salute del cittadino, come la macchina della verità appunto – è stato rimandato dal 2026 al 2027. Nel novembre scorso l’Ue ha cercato di giocare d’anticipo stringendo un patto con le “parti interessate” (volontarie), organizzando un webinar per informare e “condividere esperienze” sull’Ia”.A conti fatti, dunque, non sono ancora all’opera le regole che dovranno scandagliare i sistemi intelligenti ad alto rischio. Quando lo saranno, l’Unione “valuterà l'impatto sui diritti fondamentali”, garantirà “una maggiore trasparenza” degli apparati registrati in banca dati e, laddove si userà l’Ia per il riconoscimento delle emozioni, il documento stabilisce che “si dovranno informare le persone esposte” all’occhio elettronico. Inoltre, la legge baderà che le macchine intelligenti possiedano tre requisiti considerati fondamentali: Accuratezza, robustezza e cybersicurezza”. Aggiungendo l’avvertenza: “Le imprese che non rispettano le norme – si scandisce nell’atto - saranno sanzionate fino al 7% del fatturato annuo globale per le violazioni di applicazioni di Ia vietate, fino al 3 % per le violazioni di altri obblighi e fino al 1,5% per la fornitura di informazioni inesatte”.

Sembra fantascienza, ma è già realtà

Arriva la macchina della verità