Intelligenza Artificiale e regolamentazione: le pratiche vietate dall’AI Act

14 Feb 2025 | articoli IA e Giovani Consumatori

L’intelligenza artificiale negli ultimi dieci anni è ormai diventata parte integrante della società digitale, influenzando molti aspetti della vita quotidiana, dalle modalità di accesso a quelle di interazione dei consumatori con servizi e aziende. Per questo motivo, l’uso crescente di questo strumento solleva nuove sfide nell’ambito della tutela dei diritti degli utenti, tanto da imporre alle politiche europee e nazionali di sviluppare una normativa ad hoc volta a regolamentare importanti questioni etiche e giuridiche relative all’uso dell’intelligenza artificiale.

Entrato in vigore nell’agosto 2024, l’Artificial Intelligence Act (AI Act) è il regolamento europeo che disciplina un uso sicuro e responsabile dell’intelligenza artificiale. La normativa mira a conciliare l’innovazione tecnologica con la tutela dei diritti degli utenti attraverso un’applicazione graduale delle disposizioni, sulla base dei livelli di rischio dei sistemi di IA. Tali livelli di rischio vengono suddivisi nell’ AI Act in quattro categorie, stabilendo una regolamentazione in base alla loro probabile pericolosità: rischio minimo – sistemi a basso impatto come i filtri antispam per le mail, che non richiedono particolari restrizione per il loro impatto minimo sulla sicurezza degli utenti; sistemi a rischio limitato – chatbot per assistenza clienti o la IA generativa che impongono ai produttori obblighi di trasparenza nei confronti degli utenti; sistemi ad alto rischio – intelligenza artificiale utilizzata in ambito sanitario, istruzione e servizi essenziali, soggetti a controlli più rigidi in termini di trasparenza e sicurezza e supervisione umana; rischio inaccettabile – sistemi di IA che ledono i diritti fondamentali dei cittadini, come la manipolazione psicologica e la sorveglianza biometrica.

A partire dal 02 febbraio 2025 vengono vietate le pratiche considerate inaccettabili visto il loro impatto sui diritti fondamentali del cittadino, elencate nell’articolo 5 AI Act. Di seguito quelle principali:

  • Tecniche di manipolazione ingannevole: si tratta di tecniche che fanno leva sulla vulnerabilità cognitiva per influenzare le scelte di acquisto dei consumatori in modo subdolo. Un esempio potrebbe essere un’ app di e-commerce che utilizza di modelli di intelligenza artificiale manipolativa per analizzare il comportamento dei consumatori. Attraverso l’implementazione di chatbot e assistenti virtuali o attraverso l’analisi dei dati relativi alla cronologia degli acquisti, le preferenze e i comportamenti di navigazione, può attivare strategie manipolative influenzando la decisione di acquisto del consumatore in modo inconsapevole.
  • IA per sfruttare vulnerabilità legate a età, disabilità o condizioni socioeconomiche: l’AI Act vieta l’uso dell’intelligenza artificiale per influenzare persone che si trovano in una condizione di debolezza. Se l’IA viene progettata per sfruttare queste condizioni, inducendo decisioni svantaggiose per i consumatori, l’utilizzo è considerato illegale. Ad esempio, se un sistema di IA induce persone con disabilità cognitive a sottoscrivere un abbonamento costoso senza spiegazioni chiare o accessibili, approfitta di una condizione che limita la capacità di valutazione.
  • Sistemi di social scoring: l’AI Act vieta quei sistemi che valutano le persone in base ai loro comportamenti, attività o dati personali attraverso l’attribuzione di un punteggio sociale. Se questi punteggi vengono utilizzati per prendere decisioni che influenzano la vita degli individui, come l’accesso ai servizi, ai prestiti o alle opportunità lavorative, si tratta di una forma di controllo sociale particolarmente discriminatoria.
  • Riconoscimento biometrico e riconoscimento dei dati sensibili: il regolamento vieta il riconoscimento biometrico in spazi pubblici tranne in caso di minaccia alla sicurezza. Ad esempio è vietato il riconoscimento facciale per identificare le persone senza il loro consenso. Allo stesso modo, vengono vietati sistemi di IA per opinioni politiche, orientamento sessuale o stato di salute perché porterebbe a discriminazioni o violazioni della privacy.
  • Riconoscimento delle emozioni sul lavoro e a scuola: sono vietati sistemi che per il riconoscimento delle emozioni in ambito lavorativo e a scuola. Un esempio potrebbe essere uno strumento che scansiona i volti degli studenti per vedere il livello di stress, di attenzione, di nervosismo. Se lo studente viene valutato come attento potrebbe essere penalizzato o potrebbero essere prese misure disciplinari nei suoi confronti. Questo sistema è riconosciuto solo per finalità mediche o di sicurezza.
  • Creazione di banche dati di riconoscimento facciale mediante scraping: per scraping si intende un processo automatizzato di raccolta dati degli utenti sui social media o siti web senza il consenso delle persone coinvolte. Il regolamento proibisce l’uso di questi sistemi per evitare violazioni della privacy e l’uso improprio di dati personali.

Foto di Tung Nguyen da Pixabay