Seguici su

Intelligenza artificiale

AI Act, meno di 10 settimane per conformarsi alle nuove norme

L’AI Act dell’UE introduce divieti per sistemi di intelligenza artificiale pericolosi e sanzioni fino al 7% del fatturato mondiale. Aziende e sviluppatori hanno meno di 10 settimane per adeguarsi. La normativa punta a un’IA sicura e responsabile

Avatar

Pubblicato

il

Regolamentazione dell'AI
Regolamentazione dell'AI (© Depositphotos)

Con l’entrata in vigore dell’AI Act, l’Unione Europea si prepara a regolamentare rigorosamente l’uso dell’intelligenza artificiale (IA). Le aziende hanno tempo fino al 2 febbraio 2025 per conformarsi e rimuovere i sistemi vietati, pena sanzioni fino a 35 milioni di euro o il 7% del fatturato mondiale.

Una normativa pionieristica sull’IA

L’AI Act, in vigore dall’1 agosto 2024, è il primo quadro giuridico al mondo che affronta i rischi legati all’intelligenza artificiale. L’obiettivo è proteggere i diritti fondamentali e la sicurezza dei cittadini europei, stabilendo divieti chiari per alcune tecnologie IA considerate pericolose.

Tra i sistemi vietati figurano:

  • Tecniche manipolative e ingannevoli per influenzare il comportamento umano;
  • Strumenti che sfruttano le vulnerabilità personali, come età o disabilità;
  • Sistemi di riconoscimento facciale basati su web scraping;
  • Punteggi sociali discriminatori;
  • Applicazioni per la profilazione predittiva dei crimini.

Sanzioni severe e scadenze ravvicinate

Le aziende hanno meno di 10 settimane per iniziare il processo di conformità. Dal 2 agosto 2025, chi non si adegua rischia sanzioni elevate, superiori persino a quelle previste dal GDPR. Le multe possono arrivare fino al 7% del fatturato globale, senza alcun periodo di grazia.

Gianluigi Marino, Head of Digitalisation di Osborne Clarke, sottolinea l’importanza di agire tempestivamente: “Le imprese devono valutare i rischi e sviluppare strategie per affrontare la non conformità. La Commissione UE applicherà il nuovo regime fin dal primo giorno”.

Gianluigi Marino

Gianluigi Marino

Un nuovo approccio alla gestione del rischio

La legge richiede alle aziende di implementare sistemi di gestione del rischio, garantire la trasparenza e produrre documentazione completa per i loro modelli di IA. Inoltre, l’AI Act introduce una maggiore responsabilità per i fornitori di software, rendendo la conformità un aspetto fondamentale della gestione del prodotto.

Implicazioni per lo sviluppo tecnologico

La normativa impone sfide significative agli sviluppatori e agli utilizzatori di IA:

  • Necessità di eliminare i sistemi vietati entro i termini stabiliti;
  • Adozione di misure per conformarsi alle norme sui modelli IA ad alto rischio, applicabili a partire dal 2026;
  • Introduzione di regole per prodotti già soggetti alla normativa UE sulla sicurezza, valide dal 2027.

Un futuro regolamentato per l’intelligenza artificiale

Con l’AI Act, l’Unione Europea mira a stabilire uno standard globale per la gestione dell’intelligenza artificiale, proteggendo i cittadini e incentivando uno sviluppo tecnologico responsabile. Per le aziende, il tempo stringe: la conformità non è solo un obbligo legale, ma una necessità per mantenere la competitività in un mercato sempre più regolamentato.

Continua a leggere le notizie di Diario Innovazione e segui la nostra pagina Facebook

Clicca per commentare

Tu cosa ne pensi?

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *