IA e Giovani Consumatori: Educazione e Diritti a Portata di Click, il progetto di U.Di.Con. Regionale Lazio APS per aumentare la consapevolezza sui diritti e le responsabilità legati all’uso di tecnologie basate sull’AI.

In data 18 dicembre 2024 ha preso il via il progetto dal titolo “IA e Giovani Consumatori: Educazione e Diritti a Portata di Click”, promosso da U.Di.Con. Regionale Lazio APS nell’ambito del Piano provvisorio di attività annuale per la tutela dei consumatori e degli utenti – annualità 2024 – (D.G.R. 966/2024).

L’IA ha attraversato una straordinaria evoluzione, passando dai più semplici algoritmi di automazione a sistemi più complessi in grado di simulare capacità umane, quali l’apprendimento, il ragionamento, la pianificazione e la creatività.

Nel contesto attuale, infatti, l’intelligenza artificiale riveste un ruolo di fondamentale importanza per l’innovazione di diversi settori strategici, dal settore sanitario a quello dell’industria, dal settore della finanza e del marketing a quello della logistica, incidendo fortemente sulla trasformazione di servizi, dei processi produttivi e di business.

Tuttavia, la diffusione di questo strumento comporta sfide importanti da affrontare. Ad esempio, dal punto di vista etico l’utilizzo dell’IA pone dubbi legati all’uso discriminatorio degli algoritmi e alla trasparenza dei processi decisionali automatizzati; dal punto di vista legale solleva preoccupazioni in relazione alla responsabilità legale in caso di errori, danni o incidenti causati dai sistemi di IA; dal punto di vista sociale, le preoccupazioni si riferiscono principalmente alla tutela della privacy per l’utilizzo dei dati sensibili, all’aumento delle disuguaglianze digitali, sociali ed economiche e all’impatto sull’occupazione.

Per questi motivi, diventa di fondamentale importanza promuovere un utilizzo consapevole e responsabile dell’intelligenza artificiale, che sia in grado di integrare trasparenza e difesa dei diritti.

Pertanto, il progetto “IA e Giovani Consumatori: Educazione e Diritti a Portata di Click” intende perseguire determinati obiettivi:

  • Informazione normativa: fornire ai cittadini un accesso chiaro e aggiornato alle normative europee, nazionali e regionali riguardanti la protezione dei consumatori e degli utenti, con particolare attenzione ai giovani e agli sviluppi dell’intelligenza artificiale.
  • Sensibilizzazione pubblica: aumentare la consapevolezza sui diritti e le responsabilità legati all’uso di tecnologie basate sull’intelligenza artificiale, con un focus sui rischi (ad esempio, manipolazione dei dati, algoritmi discriminatori) e sulle opportunità (servizi migliorati, educazione digitale).
  • Inclusione giovanile: promuovere l’educazione dei giovani consumatori, preparandoli a un consumo critico e consapevole delle tecnologie digitali.

U.Di.Con. Regionale Lazio APS conseguirà gli obiettivi prefissati attraverso la realizzazione di diverse attività specificatamente ideate per il loro raggiungimento, quali:

  • Creazione di contenuti informativi da veicolare sulla pagina web dedicata sul sito istituzionale dell’associazione, come articoli, infografiche, guide digitali, archivio e faq contenenti approfondimenti tematici, con particolare riferimento alla normativa europea e italiana sui diritti dei consumatori nei contesti IA (es. algoritmi trasparenti)  e  sui rischi legati alla raccolta dati dei minori da piattaforme IA; la spiegazione di concetti chiave come “trasparenza algoritmica”, “profilazione dei dati”, “IA responsabile”.
  • Realizzazione di un’indagine conoscitiva digitale necessaria a valutare la consapevolezza sui temi dell’intelligenza artificiale, a comprendere le percezioni e le preoccupazioni legate all’uso dell’IA nelle applicazioni quotidiane, a raccogliere opinioni sulle misure normative ai fini di una maggiore protezione, a esplorare il livello di informazione dei giovani sui loro diritti in qualità di consumatori.
  • Sviluppo di una campagna di sensibilizzazione sul tema dell’IA attraverso l’uso delle piattaforme social per coinvolgere diverse generazioni.
  • Attività di monitoraggio del progetto che prevede sia l’implementazione di strumenti analitici per misurare il traffico e l’interazione con lo spazio web sia la redazione di un report finale che includa risultati, criticità riscontrate e raccomandazioni future.

Articoli

Archivio

DIGITAL SERVICE ACT – (DSA)

DIGITAL SERVICE ACT – (DSA)

Il Digital Services Act (DSA) è la normativa dell’Unione Europea che regola le piattaforme digitali per garantire un ambiente online più sicuro e trasparente. Entrato in vigore nel 2024, stabilisce regole precise per social network, marketplace e motori di ricerca,...

FAQ AI e i giovani consumatori

1. Perché è importante regolamentare l’intelligenza artificiale?

L’intelligenza artificiale offre grandi opportunità per la società, l’economia e l’innovazione, ma può anche presentare rischi per la sicurezza, i diritti fondamentali e la democrazia. Per questo, l’Unione Europea ha introdotto la prima normativa completa sull’IA, con l’obiettivo di garantire un uso sicuro e responsabile di queste tecnologie attraverso l’Ai Act – Regolamento Europeo sull’intelligenza artificiale (UE) 2024/1689.

Senza regole chiare, potrebbero emergere problemi come la mancanza di protezione per gli utenti, un’applicazione incoerente delle norme nei vari Paesi e una minore fiducia nelle tecnologie di IA, rallentandone l’adozione. Il regolamento dell’UE mira a creare un equilibrio tra innovazione e tutela, assicurando un mercato unico armonizzato e affidabile per lo sviluppo e l’uso dell’IA.

2. Quali sono le categorie di rischio dell’IA inserite nell’ AI Act - Regolamento Europeo sull’Intelligenza Artificiale (UE) 2024/1689?

La normativa europea sull’intelligenza artificiale adotta un approccio basato sul rischio, classificando i sistemi di IA in diverse categorie a seconda del loro potenziale impatto sulla società e sui diritti fondamentali.

  • Rischio inaccettabile: include usi dell’IA che violano i valori e i diritti fondamentali dell’UE e che sono quindi vietati. Esempi:
    • Manipolazione delle persone o sfruttamento delle loro vulnerabilità.
    • Punteggio sociale (classificazione delle persone in base ai loro comportamenti o caratteristiche).
    • Polizia predittiva basata esclusivamente sulla profilazione.
    • Raccolta massiva di immagini facciali da internet o telecamere di sorveglianza.
    • Riconoscimento delle emozioni sul lavoro e a scuola, salvo eccezioni per sicurezza o salute.
    • Identificazione biometrica remota in tempo reale nei luoghi pubblici (con limitate eccezioni per le forze dell’ordine).
  • Rischio alto: riguarda sistemi di IA che possono avere impatti significativi sulla sicurezza e sui diritti delle persone. Questi sistemi devono rispettare requisiti specifici di affidabilità e trasparenza. Esempi:
    • Sistemi di IA che influenzano decisioni critiche, come l’accesso a cure mediche, lavoro o prestiti.
    • IA utilizzata dalla polizia per profilare individui o valutare il rischio di reati.
    • Sistemi di IA impiegati in robot, droni o dispositivi medici.
  • Rischio specifico per la trasparenza: alcune applicazioni di IA, come chatbot o deepfake, devono informare chiaramente gli utenti che stanno interagendo con un’intelligenza artificiale per evitare manipolazioni.
  • Rischio minimo: la maggior parte dei sistemi di IA rientra in questa categoria e può essere utilizzata senza restrizioni particolari, ma i fornitori possono aderire volontariamente a codici di condotta per un’IA più affidabile.

Inoltre, la normativa tiene conto dei rischi sistemici legati a modelli di IA molto avanzati o diffusi, come quelli generativi, che potrebbero avere impatti su larga scala, ad esempio attraverso attacchi informatici o la diffusione di distorsioni nei dati.

3. Come le regole proteggono i diritti fondamentali?

L’Unione Europea e gli Stati membri già offrono una forte tutela dei diritti fondamentali e della non discriminazione. Tuttavia, alcune applicazioni di intelligenza artificiale, spesso complesse e poco trasparenti (le cosiddette “scatole nere”), possono rappresentare una sfida in questo ambito.

Per questo, la normativa sull’IA adotta un approccio centrato sull’uomo, imponendo regole di trasparenza e responsabilità per i sistemi ad alto rischio. Questi requisiti garantiscono che l’IA venga progettata fin dall’inizio nel rispetto delle leggi sui diritti fondamentali. Inoltre, forniscono alle autorità competenti gli strumenti per verificare che l’uso dell’IA sia conforme alle normative.

La legge prevede anche che alcuni soggetti che utilizzano sistemi di IA ad alto rischio debbano condurre una valutazione d’impatto sui diritti fondamentali, per prevenire possibili violazioni.

4. Come l'intelligenza artificiale influisce sui consumatori?

L’intelligenza artificiale (IA) comprende un insieme di tecnologie avanzate che permettono alle macchine di apprendere, adattarsi e svolgere attività tipicamente umane, come l’analisi dei dati e la previsione dei comportamenti.

L’IA è impiegata in diversi settori, tra cui:

  • Pubblicità personalizzata: grazie all’analisi dei dati dei consumatori, l’IA consente di creare campagne pubblicitarie mirate, migliorando l’efficacia delle strategie di marketing.
  • Assistenti virtuali: strumenti basati su IA, come chatbot e assistenti vocali, facilitano l’interazione tra aziende e clienti, offrendo supporto immediato e personalizzato.
  • Servizi finanziari: l’IA è utilizzata per analizzare i comportamenti dei consumatori, migliorando la comprensione delle loro esigenze e ottimizzando l’offerta di prodotti e servizi.
  • Sanità: l’IA contribuisce a migliorare l’esperienza del paziente, ad esempio attraverso l’analisi dei dati per fornire diagnosi più accurate e trattamenti personalizzati.
5. Come posso sapere se un’IA sta influenzando una mia decisione di acquisto o credito?

Per comprendere se un sistema di intelligenza artificiale (IA) sta influenzando le tue decisioni di acquisto o l’accesso al credito, è fondamentale che le aziende garantiscano trasparenza riguardo agli algoritmi utilizzati. Con l’entrata in vigore dell’AI Act dell’Unione Europea, prevista per il 2 febbraio 2025, i sistemi considerati ad alto rischio, come quelli impiegati nel credit scoring o nelle decisioni di assunzione, devono essere tracciabili e spiegabili ai consumatori. ​

L’AI Act stabilisce che le applicazioni di IA ad alto rischio devono rispettare requisiti rigorosi di trasparenza e sicurezza. Ciò significa che le aziende dovranno fornire informazioni chiare e comprensibili sulle modalità di funzionamento degli algoritmi e sui criteri adottati nelle decisioni automatizzate. Ad esempio, nel settore bancario, ciò implica che gli istituti finanziari devono comunicare ai clienti come vengono valutati i loro dati nel processo di concessione del credito.

6. L’IA può prendere decisioni che mi riguardano senza il mio consenso?

Sì, ma la legge impone delle tutele. Il Regolamento Generale sulla Protezione dei Dati (GDPR, art. 22) stabilisce che le decisioni automatizzate con impatti significativi sulle persone devono essere trasparenti e offrire la possibilità di richiedere un intervento umano.

Il GDPR già prevede che, in caso di decisioni automatizzate, gli individui abbiano il diritto di ottenere “informazioni significative sulla logica utilizzata”, permettendo loro di comprendere e, se necessario, contestare tali decisioni.  

Per assicurarti che le tue decisioni siano informate e consapevoli, è consigliabile:​

  • Richiedere informazioni: Se sospetti che una decisione sia stata influenzata da un sistema di IA, chiedi all’azienda coinvolta dettagli sul funzionamento dell’algoritmo e sui dati utilizzati.​
  • Verificare la presenza di informative: Le aziende dovrebbero fornire informative chiare sull’uso dell’IA nei loro processi decisionali.​
  • Esercitare i tuoi diritti: Se ritieni che una decisione automatizzata sia ingiusta o poco trasparente, puoi esercitare i tuoi diritti previsti dal GDPR, come il diritto di accesso, rettifica o opposizione.
7. L’IA può discriminarmi in base ai miei dati personali?

Sì, l’intelligenza artificiale (IA) può, in determinate circostanze, discriminare gli individui basandosi sui loro dati personali. Questo accade quando i sistemi di IA, durante il loro addestramento, assimilano pregiudizi presenti nei dati storici, perpetuando o amplificando discriminazioni esistenti. Ad esempio, se un algoritmo viene addestrato su dati che contengono bias di genere o razziali, potrebbe riprodurre tali discriminazioni nelle sue decisioni.

Un caso emblematico riguarda l’uso del riconoscimento facciale, dove alcuni sistemi hanno mostrato tassi di errore più elevati nel riconoscere individui appartenenti a determinate etnie, portando a potenziali ingiustizie e discriminazioni.  Inoltre, l’IA può analizzare i dati personali per creare profili dettagliati degli individui, prevedendo comportamenti e preferenze. Sebbene ciò possa avere applicazioni utili, come nel marketing personalizzato, pone anche seri rischi di discriminazione, soprattutto se tali profili vengono utilizzati per decisioni su assunzioni, concessioni di credito o assicurazioni.  Per mitigare questi rischi, è fondamentale che le aziende adottino misure per garantire la trasparenza e l’equità nei loro sistemi di IA, monitorando e correggendo eventuali bias nei dati e negli algoritmi utilizzati.

8. In che modo l’AI Act affronta le distorsioni nell'IA legate al genere o alla razza?

L’intelligenza artificiale, se progettata e utilizzata correttamente, non crea né amplifica distorsioni, ma può invece contribuire a ridurre discriminazioni preesistenti, portando a decisioni più eque, ad esempio nella selezione del personale.

Per questo motivo, i sistemi di IA ad alto rischio devono rispettare requisiti obbligatori che ne garantiscano l’affidabilità. Devono essere progettati in modo da evitare risultati distorti, come falsi positivi o negativi che potrebbero penalizzare in modo sproporzionato gruppi vulnerabili sulla base di caratteristiche come etnia, genere o età.

Per ridurre il rischio di pregiudizi nei modelli, questi sistemi devono essere addestrati con dati rappresentativi e prevedere misure per rilevare e correggere eventuali distorsioni. Inoltre, devono essere tracciabili e verificabili, con documentazione chiara sui dati e i metodi di addestramento, così da consentire verifiche anche dopo l’immissione sul mercato.

Infine, è previsto un sistema di controllo continuo per garantire che i sistemi di IA siano monitorati e che eventuali rischi vengano tempestivamente individuati e mitigati.

9. Come posso proteggere i miei dati quando interagisco con un sistema di IA?

L’uso dell’intelligenza artificiale spesso comporta la raccolta e l’elaborazione di dati personali. Per proteggere la tua privacy ed evitare un uso improprio delle tue informazioni, puoi adottare alcune precauzioni:

  • Leggi le informative sulla privacy
    Prima di utilizzare un servizio basato su IA, verifica quali dati vengono raccolti, come vengono utilizzati e se vengono condivisi con terze parti. Le aziende sono tenute a fornire informazioni chiare e trasparenti in conformità al GDPR.
  • Limita la condivisione dei dati personali
    Nelle impostazioni di app, social network e assistenti virtuali, puoi ridurre il livello di accesso ai tuoi dati (ad es. disattivando la raccolta di dati sensibili, geolocalizzazione o personalizzazione degli annunci).
  • Usa il diritto di accesso e cancellazione dei dati
    Hai il diritto di sapere quali dati un’azienda ha raccolto su di te (art. 15 GDPR) e puoi richiederne la cancellazione (art. 17 GDPR, “diritto all’oblio”). Puoi anche chiedere la rettifica di informazioni inesatte o la limitazione del trattamento dei tuoi dati.
  • Fai attenzione ai consensi e ai cookie
    Quando visiti un sito o usi un’app, verifica quali autorizzazioni concedi. Evita di accettare automaticamente tutti i cookie e rivedi le impostazioni di tracciamento.
  • Utilizza strumenti per la protezione della privacy
    Puoi adottare misure aggiuntive come l’uso di VPN, browser con protezione anti-tracciamento e strumenti che bloccano la raccolta eccessiva di dati.
  • Diffida di richieste sospette
    Se un sistema di IA ti chiede dati personali senza una chiara spiegazione, verifica l’attendibilità del servizio. Evita di fornire informazioni sensibili a chatbot o assistenti virtuali non verificati.
10. Cosa posso fare se sospetto un uso scorretto dell’IA da parte di un’azienda?

Se ritieni che un’azienda stia utilizzando l’intelligenza artificiale in modo non trasparente, discriminatorio o lesivo dei tuoi diritti, puoi intraprendere diverse azioni per tutelarti.

  • Chiedere informazioni sull’uso dell’IA e sui tuoi dati personali
    Hai il diritto di sapere se un’azienda utilizza sistemi di IA nelle sue decisioni che ti riguardano e in che modo tratta i tuoi dati. Puoi:
    • Richiedere chiarimenti su come l’IA influenza un processo decisionale (ad esempio, nell’approvazione di un prestito o nella valutazione di un curriculum).
    • Esercitare i tuoi diritti previsti dal GDPR, tra cui l’accesso ai dati (art. 15), la rettifica (art. 16) o la cancellazione (art. 17).
    • Chiedere spiegazioni nel caso di decisioni automatizzate che abbiano un impatto significativo su di te (art. 22 GDPR).
  • Segnalare l’azienda all’Autorità Garante per la Protezione dei Dati Personali (Garante Privacy)
    Se sospetti che un’azienda stia violando le normative sulla protezione dei dati (ad esempio, raccogliendo dati senza consenso o utilizzando IA in modo opaco), puoi presentare un reclamo al Garante per la Protezione dei Dati Personali.
  • Rivolgerti a organizzazioni per la tutela dei consumatori o all’AGCM (Autorità Garante della Concorrenza e del Mercato) per pratiche scorrette.

Contatti

Telefono

06 77250783  –  06 8902 1451

Fax

06 77591309

WhatsApp

351 9076124

E-mail

regionelazio@udicon.org

PEC

udicon.lazio@pec.it

Scrivici

5 + 7 =