Comprendere l’AI Act: guida introduttiva per HR (Prima Parte)

Come l’Europa ha deciso di regolamentare e classificare i sistemi basati sull’intelligenza artificiale, in base al rischio.

L’approvazione dell’AI Act segna un passaggio cruciale per comprendere l’impatto che il nuovo regolamento europeo avrà sui vari settori che utilizzano l’Intelligenza Artificiale. Questa normativa non è solo una pietra miliare per la sicurezza e i diritti fondamentali, ma anche una guida essenziale per i professionisti, anche HR, per la scelta e gestione dei sistemi di IA compliant con le direttive.

In questo articolo cercheremo di guidarti negli obiettivi, nei livelli di rischio e nelle implicazioni nell’utilizzo dell’intelligenza Artificiale.

Gli obiettivi dell’AI Act e l’impegno dell’Unione Europea  

Con l’approvazione del 13 marzo 2024 il Parlamento Europeo dell’AI Act, la prima legge sull’intelligenza artificiale. Si tratta di un importante passo avanti per garantire la sicurezza e il rispetto dei diritti fondamentali di tutti i cittadini.

Attualmente, secondo i principi definiti dall’OCSE, l’AI Act definisce un sistema automatizzato come “un sistema progettato per operare con varie gradi di autonomia e che può adattarsi dopo l’installazione.

Tale sistema, basandosi su obiettivi impliciti o espliciti, deduce dagli input ricevuti la generazione di output, come previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali” (articolo 3).

L’AI Act, quindi, è lo strumento che mira a proteggere i cittadini e promuovere l’innovazione, fornendo un quadro normativo chiaro per regolare l’uso di questo insieme di tecnologie in tutta Europa.

Obiettivi dell’AI Act

Gli obiettivi principali sono:

1. Creare un mercato unico per l’IA
Facilitare la libera circolazione e il riconoscimento dei sistemi di IA conformi alle norme dell’UE, promuovendo un ambiente di innovazione dinamico e competitivo in tutta l’Unione.

2. Aumentare la fiducia nell’IA
Assicurare che i sistemi di IA siano affidabili, trasparenti e responsabili, rispettando i principi etici e i diritti fondamentali delle persone. Ciò significa garantire che l’IA sia utilizzata in modo equo, etico e sicuro, mantenendo un equilibrio tra innovazione e protezione degli interessi dei cittadini.

3. Prevenire e mitigare i rischi dell’IA
Vietare o limitare l’uso di sistemi di IA che presentano un rischio inaccettabile per la sicurezza, la salute, la dignità o l’autonomia delle persone, o che violano i valori democratici. Ciò include la messa al bando di pratiche dannose come la manipolazione del comportamento umano.

4. Sostenere l’innovazione e l’eccellenza nell’IA
Fornire incentivi, finanziamenti e orientamenti per lo sviluppo e il dispiegamento di sistemi di IA sicuri ed etici. Promuovere la cooperazione e il coordinamento tra gli Stati membri, le istituzioni e le parti interessate per garantire che l’UE rimanga all’avanguardia nell’innovazione tecnologica e nel rispetto dei diritti fondamentali.

Classificazione dei sistemi di intelligenza artificiale in base al livello di rischio

Perché abbiamo bisogno di una regolamentazione sull’IA?

Indubbiamente, l’Intelligenza Artificiale è una tecnologia molto potente, ma può essere anche un’arma a doppio taglio.

Da un lato, offre soluzioni innovative che migliorano la nostra vita quotidiana, ma dall’altro, può creare rischi per la sicurezza delle persone, minare i diritti fondamentali e generare disuguaglianze.

Compito dell’AI Act è mitigare questi rischi e a garantire che l’IA sia utilizzata in modo responsabile e etico.

La classificazione dei sistemi di intelligenza artificiale in base al livello di rischio è un aspetto fondamentale dell’AI Act. E il regolamento identifica quattro categorie principali:

  • Rischio inaccettabile: Questi sistemi di IA contraddicono i valori e i principi fondamentali dell’UE, come il rispetto della dignità umana e dello stato di diritto. Sono vietati o soggetti a severe restrizioni. Ad esempio, sono proibiti i sistemi che manipolano il comportamento umano o consentono lo “scoring sociale” da parte delle autorità pubbliche.

  • Rischio elevato: Questi sistemi possono avere un impatto significativo sui diritti fondamentali o sulla sicurezza delle persone. Sono soggetti a rigorosi obblighi e requisiti prima di essere immessi sul mercato o utilizzati. Ad esempio, rientrano in questa categoria i sistemi utilizzati per la selezione del personale, l’ammissione all’istruzione, la fornitura di servizi sociali essenziali, la sorveglianza biometrica e le applicazioni giudiziarie e di polizia.

  • Rischio limitato: Questi sistemi possono influenzare i diritti o le volontà degli utenti, ma in misura minore rispetto a quelli ad alto rischio. Sono soggetti a requisiti di trasparenza, che consentono agli utenti di essere consapevoli dell’interazione con un sistema di IA. Ad esempio, rientrano in questa categoria i sistemi utilizzati per la generazione o la manipolazione di contenuti audiovisivi e per fornire suggerimenti personalizzati.

  • Rischio minimo o nullo: Questi sistemi non hanno alcun impatto diretto sui diritti fondamentali o sulla sicurezza delle persone e offrono ampi margini di scelta e controllo agli utenti. Sono liberi da qualsiasi obbligo normativo per promuovere l’innovazione e la sperimentazione. Ad esempio, rientrano in questa categoria i sistemi utilizzati per scopi ludici o estetici.

L’importanza dell’AI Act per i professionisti delle Risorse Umane

Mentre l’AI Act regolamenta l’uso dell’intelligenza artificiale in vari settori, per i professionisti delle Risorse Umane, la comprensione di questo regolamento assume una rilevanza critica.

I sistemi AI utilizzati per la selezione del personale, la valutazione delle performance e le decisioni di gestione del personale spesso rientrano nelle categorie di rischio elevato o limitato. Questo implica non solo una maggiore responsabilità in termini di conformità regolamentare, ma anche l’opportunità di guidare l’adozione etica dell’IA all’interno delle organizzazioni.

Le prossime tappe dell’AI Act

Con l’approvazione dell’AI Act, l’Europa si sta preparando a entrare in una nuova era di regolamentazione dell’intelligenza artificiale. La legge entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta Ufficiale dell’UE, presumibilmente prima della fine dell’attuale legislatura. Tuttavia, i suoi effetti si faranno sentire gradualmente nel corso dei prossimi anni.

I divieti relativi alle pratiche vietate saranno applicati già a partire da sei mesi dopo l’entrata in vigore, mentre i codici di buone pratiche verranno introdotti nove mesi dopo.

Le norme sui sistemi di IA per finalità generali, inclusa la governance, entreranno in vigore entro 12 mesi, mentre gli obblighi per i sistemi ad alto rischio avranno un periodo di transizione di 36 mesi.

Così com’era successo per il GDPR, questo periodo consentirà alle imprese e agli Stati membri di adeguarsi e di implementare le misure necessarie per garantire la conformità.

L’entrata in vigore graduale dell’AI Act rappresenta un importante passo avanti per l’Europa nel promuovere l’innovazione, proteggere i diritti fondamentali e assicurare una regolamentazione efficace dei sistemi di intelligenza artificiale

Un secondo approfondimento, invece, sarà dedicato al settore HR e ai software di recruiting, con consigli pratici per i professionisti delle Risorse Umane su come scegliere e utilizzare le nuove in modo conforme alle normative.

Seguici per trasformare il modo in cui il tuo dipartimento HR opera nell’era dell’intelligenza artificiale.

E se vuoi già scoprire come la tecnologia AI può essere efficace nel tuo lavoro, puoi richiedere una demo senza impegno di Performa Recruit potenziato con L’AI. Richiedi oggi stesso una demo.

Le informazioni contenute in questo articolo sono basate sui dati presentati durante il webinar “The European Artificial Intelligence Act”,del 25 marzo 2024, organizzato dalla Commissione Europea e condotto da Miriam D’arrigo, Legal and Policy Officer, DG CNECT A2, AI Policy Development and Coordination.