Dal 2 febbraio sono entrate in vigore le prime norme previste dall’Artificial Intelligence Act (AI Act), tra le quali si trovano:
- la definizione di sistema AI,
- l’alfabetizzazione AI,
- un numero limitato di casi d’uso proibiti che comportano rischi elevati nell’Unione Europea.
Al fine di supportare gli Stati membri e promuovere un panorama di Intelligenza Artificiale sicuro ed etico, la Commissione Europea ha pubblicato:
- linee guida non vincolanti sia sulla definizione di sistema di intelligenza artificiale: pensate per aiutare i fornitori e gli altri soggetti interessati a capire quando un sistema software possa essere considerato un sistema di intelligenza artificiale, così da facilitare l’applicazione delle normative europee. Queste indicazioni verranno aggiornate in base all’evoluzione del contesto, soprattutto alla luce delle esperienze pratiche e dei casi d’uso.
- pratiche di IA vietate: che offrono una panoramica delle pratiche ritenute inaccettabili per i rischi che pongono ai valori e diritti fondamentali europei. L’AI Act classifica i sistemi di IA in diverse categorie di rischio: vietati, ad alto rischio e soggetti a obblighi di trasparenza. In particolare, le linee guida affrontano pratiche come la manipolazione dannosa, il punteggio sociale e l’identificazione biometrica remota in tempo reale.
Le linee guida forniscono inoltre spiegazioni legali ed esempi pratici per aiutare le parti interessate a comprendere e rispettare i requisiti previsti dall’AI Act.
Scarica le Linee Guida sulla definizione di sistema di intelligenza artificiale istituito dal Regolamento UE 2024/1689
Scarica le pratiche di IA vietate