Dal febbraio 2025 è iniziata ufficialmente l’applicazione del nuovo AI Act, il regolamento europeo sull’intelligenza artificiale. Questa normativa rappresenta un punto di riferimento fondamentale per chi sviluppa, vende o utilizza tecnologie basate sull’AI all’interno dell’Unione Europea. L’obiettivo è garantire un utilizzo sicuro, etico e trasparente dell’AI, tutelando i diritti delle persone e prevenendo abusi.
AI Act: opportunità o freno all’innovazione?
L’AI Act è la prima normativa globale sull’intelligenza artificiale. L’UE vuole porsi come leader mondiale nella regolamentazione etica della tecnologia. Ma il rischio è che un eccesso di vincoli scoraggi l’innovazione, soprattutto per le piccole e medie imprese, già spesso in difficoltà con la burocrazia europea. La sfida sarà trovare un equilibrio tra tutela dei diritti e libertà d’impresa. Se il regolamento saprà adattarsi all’evoluzione tecnologica, potrà favorire fiducia e competitività.
Ma cosa cambia, concretamente, per le imprese?
Le classi di rischio dell’AI Act
L’AI Act introduce una classificazione dei sistemi di AI in quattro categorie di rischio: inaccettabile, alto, limitato e minimo.
Pratiche AI a rischio inaccettabile
- Tecnologie che manipolano le persone in modo subliminale o ingannevole
- Sistemi che sfruttano la vulnerabilità di categorie fragili (anziani, minori, persone con disabilità)
- Social scoring o classificazioni basate su razza, religione, orientamento sessuale, ecc.
- Riconoscimento facciale in tempo reale in luoghi pubblici, salvo eccezioni limitate e autorizzate
- Sistemi che deducono emozioni nei luoghi di lavoro o nelle scuole
- Algoritmi che “prevedono” la probabilità che una persona commetta un reato
Le categorie a rischio inaccettabile sono ritenute potenzialmente dannose per la dignità e i diritti fondamentali delle persone e quindi escluse dal mercato europeo.
Pratiche AI considerate a rischio alto
Include sistemi utilizzati in particolari settori come Sanità (es. chirurgia robotica, software medici), Trasporti (es. guida autonoma), Giustizia, Educazione, Servizi Finanziari (es. scoring creditizio).
Chi sviluppa o utilizza questi strumenti dovrà:
- Implementare un sistema di gestione del rischio
- Garantire trasparenza e tracciabilità
- Sottoporre il sistema a valutazione d’impatto sui diritti fondamentali
- Comunicare i risultati alle autorità nazionali competenti
Pratiche AI considerate a rischio limitato
Rientrano in questa categoria i chatbot, assistenti virtuali e sistemi di generazione contenuti. Le aziende dovranno semplicemente informare gli utenti che stanno interagendo con un’AI.
Pratiche AI considerate a rischio minimo
Sono esclusi da obblighi stringenti. Sono i software come filtri antispam o AI per videogiochi. La maggior parte degli strumenti AI attuali rientra in questa categoria.
Sanzioni in caso di mancata conformità
- Fino a 35 milioni di euro o 7% del fatturato globale per l’uso di pratiche vietate
- Fino a 15 milioni o 3% del fatturato per altre violazioni
- Fino a 7,5 milioni o 1,5% per informazioni false o incomplete fornite alle autorità
Per le PMI vale l’importo minore tra i due previsti, mentre per le grandi aziende si applica il più elevato.
Calendario di attuazione dell’AI Act
- Febbraio 2025: entrano in vigore i divieti per le AI a rischio inaccettabile
- Agosto 2025: obblighi per i modelli di AI generali
- Agosto 2027: piena applicazione delle regole per l’AI integrata in prodotti regolamentati (es. sanità, trasporti)
Cosa possono fare oggi le aziende
- Valutare se i sistemi AI utilizzati rientrano tra quelli a rischio
- Implementare controlli e audit interni per garantire conformità
- Formare il personale su diritti digitali, privacy e AI responsabile
- Monitorare gli sviluppi normativi e prepararsi AI prossimi obblighi
Bisogno di AIuto? Puoi sempre rivolgerti a GlobalNet!