AI Act 2025: le nuove regole sull’Intelligenza Artificiale

Articoli

Dal febbraio 2025 è iniziata ufficialmente l’applicazione del nuovo AI Act, il regolamento europeo sull’intelligenza artificiale. Questa normativa rappresenta un punto di riferimento fondamentale per chi sviluppa, vende o utilizza tecnologie basate sull’AI all’interno dell’Unione Europea. L’obiettivo è garantire un utilizzo sicuro, etico e trasparente dell’AI, tutelando i diritti delle persone e prevenendo abusi.

AI Act: opportunità o freno all’innovazione?

L’AI Act è la prima normativa globale sull’intelligenza artificiale. L’UE vuole porsi come leader mondiale nella regolamentazione etica della tecnologia. Ma il rischio è che un eccesso di vincoli scoraggi l’innovazione, soprattutto per le piccole e medie imprese, già spesso in difficoltà con la burocrazia europea. La sfida sarà trovare un equilibrio tra tutela dei diritti e libertà d’impresa. Se il regolamento saprà adattarsi all’evoluzione tecnologica, potrà favorire fiducia e competitività.
Ma cosa cambia, concretamente, per le imprese?

Le classi di rischio dell’AI Act

L’AI Act introduce una classificazione dei sistemi di AI in quattro categorie di rischio: inaccettabile, alto, limitato e minimo.

Pratiche AI a rischio inaccettabile

  • Tecnologie che manipolano le persone in modo subliminale o ingannevole
  • Sistemi che sfruttano la vulnerabilità di categorie fragili (anziani, minori, persone con disabilità)
  • Social scoring o classificazioni basate su razza, religione, orientamento sessuale, ecc.
  • Riconoscimento facciale in tempo reale in luoghi pubblici, salvo eccezioni limitate e autorizzate
  • Sistemi che deducono emozioni nei luoghi di lavoro o nelle scuole
  • Algoritmi che “prevedono” la probabilità che una persona commetta un reato

Le categorie a rischio inaccettabile sono ritenute potenzialmente dannose per la dignità e i diritti fondamentali delle persone e quindi escluse dal mercato europeo.

Pratiche AI considerate a rischio alto

Include sistemi utilizzati in particolari settori come Sanità (es. chirurgia robotica, software medici), Trasporti (es. guida autonoma), Giustizia, Educazione, Servizi Finanziari (es. scoring creditizio).

Chi sviluppa o utilizza questi strumenti dovrà:

  • Implementare un sistema di gestione del rischio
  • Garantire trasparenza e tracciabilità
  • Sottoporre il sistema a valutazione d’impatto sui diritti fondamentali
  • Comunicare i risultati alle autorità nazionali competenti

Pratiche AI considerate a rischio limitato

Rientrano in questa categoria i chatbot, assistenti virtuali e sistemi di generazione contenuti. Le aziende dovranno semplicemente informare gli utenti che stanno interagendo con un’AI.

Pratiche AI considerate a rischio minimo

Sono esclusi da obblighi stringenti. Sono i software come filtri antispam o AI per videogiochi. La maggior parte degli strumenti AI attuali rientra in questa categoria.

Sanzioni in caso di mancata conformità

  • Fino a 35 milioni di euro o 7% del fatturato globale per l’uso di pratiche vietate
  • Fino a 15 milioni o 3% del fatturato per altre violazioni
  • Fino a 7,5 milioni o 1,5% per informazioni false o incomplete fornite alle autorità

Per le PMI vale l’importo minore tra i due previsti, mentre per le grandi aziende si applica il più elevato.

Calendario di attuazione dell’AI Act

  • Febbraio 2025: entrano in vigore i divieti per le AI a rischio inaccettabile
  • Agosto 2025: obblighi per i modelli di AI generali
  • Agosto 2027: piena applicazione delle regole per l’AI integrata in prodotti regolamentati (es. sanità, trasporti)

Cosa possono fare oggi le aziende

  1. Valutare se i sistemi AI utilizzati rientrano tra quelli a rischio
  2. Implementare controlli e audit interni per garantire conformità
  3. Formare il personale su diritti digitali, privacy e AI responsabile
  4. Monitorare gli sviluppi normativi e prepararsi AI prossimi obblighi

Bisogno di AIuto? Puoi sempre rivolgerti a GlobalNet!

Condividi sui social:

Altri articoli

Articoli

Smart Working? Game Over!

In questi giorni dove è tornato concreto l’obbligo di chiudere parte delle attività, con anche il rischio di un lockdown…

Scopri i nostri servizi