Select Dynamic field

AI ACT 1.0 : Navigando tra Diritti e Innovazione nella formidabile era dell’IA.

Giugno 12, 2024

Il Parlamento europeo ha approvato lo scorso Marzo il regolamento sull'intelligenza artificiale (AI ACT ) con l'obiettivo di garantire che i sistemi AI utilizzati nell'UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell'ambiente.

  •  L'accento è posto sul controllo umano per evitare esiti dannosi. Il regolamento mira a stabilire una definizione neutrale di intelligenza artificiale e a classificare i sistemi in base al rischio. 
  • I sistemi ad alto rischio saranno soggetti a obblighi specifici e valutazioni continue. La legislazione vieta i sistemi AI considerati una minaccia per le persone, come la manipolazione cognitivo-comportamentale e l'identificazione biometrica in tempo reale. 
  • Tuttavia, alcune eccezioni sono previste per l'applicazione della legge.La trasparenza è un requisito chiave, anche per l'intelligenza artificiale generativa come ChatGPT. I modelli ad alto impatto devono essere valutati attentamente e gli incidenti gravi devono essere segnalati.
  • La legge supporta l'innovazione offrendo alle PMI l'opportunità di sviluppare modelli AI in un ambiente di prova controllato. L'entrata in vigore avverrà gradualmente, con divieti e obblighi che diventeranno applicabili entro 36 mesi.

Applicazioni Proibite

Nell' AI ACT Le recenti normative sull'intelligenza artificiale pongono il divieto su diverse applicazioni che minacciano i diritti e la privacy dei cittadini. Tra le pratiche vietate vi sono i sistemi di categorizzazione biometrica basati su dati sensibili e la raccolta indiscriminata di immagini facciali da fonti pubbliche per la creazione di database di riconoscimento facciale. Inoltre, saranno banditi il riconoscimento delle emozioni in ambienti lavorativi e scolastici, il punteggio sociale, l'uso della polizia predittiva basata esclusivamente su profilazioni personali e l'IA che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

Esenzioni per le Forze dell'Ordine

nell' AI ACT L'impiego di sistemi di identificazione biometrica (RBI) da parte delle forze dell'ordine è soggetto a restrizioni specifiche e rigorose. In linea di principio, l'uso di RBI in tempo reale è proibito, salvo in circostanze eccezionali debitamente autorizzate. Questo tipo di identificazione può essere impiegato solo per scopi ben definiti come la ricerca di persone scomparse o la prevenzione di attacchi terroristici, previa autorizzazione giudiziaria o amministrativa. D'altra parte, l'utilizzo di RBI post-remoto, cioè l'identificazione successiva a un evento, è considerato un'attività ad alto rischio e richiede l'approvazione da parte dell'autorità giudiziaria, poiché è associato a reati penali.

Obblighi per i Sistemi ad Alto Rischio

Le nuove normative sull'intelligenza artificiale impongono obblighi chiari per i sistemi ad alto rischio, riconosciuti per il loro potenziale impatto sulla salute, sicurezza, diritti fondamentali, ambiente, democrazia e Stato di diritto. Questi sistemi includono infrastrutture critiche, istruzione, servizi pubblici e privati essenziali, applicazione della legge, migrazione e giustizia. Devono essere valutati, ridurre i rischi, garantire la trasparenza, l'accuratezza e la supervisione umana. I cittadini avranno il diritto di presentare reclami e ricevere spiegazioni su decisioni basate su tali sistemi ad alto rischio che influenzano i loro diritti.

Requisiti di Trasparenza

I sistemi di intelligenza artificiale generale (GPAI) e i relativi modelli devono rispettare requisiti specifici di trasparenza, compresa la conformità alla legge europea sul copyright e la pubblicazione dettagliata dei dati utilizzati per la formazione. I modelli GPAI ad alto impatto, che potrebbero comportare rischi sistemici, saranno soggetti a valutazioni approfondite, mitigazione dei rischi e segnalazione degli incidenti. Inoltre, le immagini artificiali o manipolate, i contenuti audio o video ("deepfakes"), devono essere chiaramente identificati come tali.

Misure a Sostegno dell'Innovazione e delle PMI

Sarà importante a Nostro parere che vengano istituiti sandbox normativi e test nel mondo reale a livello nazionale per favorire lo sviluppo e la formazione di intelligenza artificiale innovativa da parte di PMI e start-up prima del lancio sul mercato. SCOPRI CON ODISSEO COME L'INTELLIGENZA ARTIFICIALE PUò ESSERE INCORPORATA IN MODO FLIDO NELLA TUA REALTA'

Infatti l'entrata in vigore dell'UE AI Act segna un passo significativo nel panorama della regolamentazione e dell'innovazione dell'intelligenza artificiale. Per garantire la piena realizzazione dei vantaggi offerti dall'IA, preservando al contempo i diritti fondamentali e la sicurezza degli utenti, è essenziale che le organizzazioni agiscano prontamente, valutino attentamente i rischi e si preparino ai cambiamenti introdotti dalla nuova normativa sull'intelligenza artificiale. Questo approccio proattivo consentirà alle organizzazioni di muoversi verso un ambiente di IA più sicuro e affidabile, permettendo loro di cogliere appieno i benefici di questa tecnologia rivoluzionaria.

>> INIZIA ORA IL TUO VIAGGIO

Enjoyed this article?

Find more great content here:

>