Man mano che l’Intelligenza Artificiale progredisce nella sua capacità di comprendere le emozioni umane, le considerazioni etico-giuridico diventano fondamentali.
Le emozioni sono profondamente complesse e sfumate, si intrecciano con le esperienze personali, le influenze culturali e la condizione umana. Mentre l’IA continua ad evolversi, è necessario trovare un equilibrio tra i benefici della comprensione emotiva e le considerazioni etiche che comporta. E prima di tutto dobbiamo comprendere e definire con certezaa cosa siano le emozioni e quale sia la loro tipicità rispetto al dato personale, e quindi esigere una tutela specifica e non semplicemente estesa per analogia.
Indice
- 1. Il tema
- Le emozioni umane: i dati emotivi generati dall’IA
- 3. Aspetti giuridici fondamentali
- 4. Il caso di MorphCast Emotion AI
- 5. La tutela del “dato emotivo” e di cosa parliamo quando parliamo di emozione
- 6. La tutela giuridica del dato emotivo
- Formazione per professionisti
- Vuoi ricevere aggiornamenti costanti?
1. Il tema
La fusione di emozioni e tecnologia presenta sfide intricate, tra cui quelle relative alle privacy dei dati, all’ambiguità emotiva e al bilanciamento tra personalizzazione e generalizzazione.
Tra le tendenze emergenti l’emotional AI, che cerca di consentire alle macchine di comprendere, interpretare e rispondere alle emozioni umane, è quella che suscita maggiori perplessità, nonostante sia anche quella meno trattata sotto il profilo normativo giuridico.
Riguarda tuttavia il più ampio contesto in cui l’emozione – nella sua caratteristica di “etichetta” qualitativa di un fatto – lo determina, di fatto. Ce ne accorgiamo ad esempio tutte le volte in cui i social network censurano o bloccano un contenuto visovo, come una immagine o un video. E lo bloccano in automatico proprio perchè appare ambiguo o piatto e privo della qualità emotiva secondo cui l’intelligenza umana discrimina.
E ciò avviene proprio perchè nella gestione delle policy sui contenuti le piattaforme utilizzano sempre più forme di IA.
Esempio eclatante fu il caso del Bacio di David, considerato “immagine pornografica”, senza arrivare la caso della foto-denuncia delle uccisioni per strada a Teheran, censurate perchè “contenuto esplicitamente violento”.
La fusione di emozioni e tecnologia presenta inoltre sfide intricate, tra cui quelle relative alle privacy dei dati, all’ambiguità emotiva ed al bilanciamento tra personalizzazione e generalizzazione; sarà, pertanto, fondamentale garantire un’implementazione responsabile dell’IA emotiva nella nostra vita quotidiana.
Le emozioni umane: i dati emotivi generati dall’IA
Nel campo dell’Intelligenza Artificiale (IA) la comprensione delle emozioni umane è tanto centrale quanto lo sono le emozioni stessa della nostra vita quotidiana, in quanto plasmano i nostri pensieri, le nostre decisioni e le nostre interazioni. Il quesito primo è se l’IA può davvero imparare a comprendere e ad interpretare le emozioni umane.
In materia di “Emotion recognition systems” punto di riferimento è il campo scientifico dell’Affective Computing (AC), destinato ad essere implementato o già utilizzato in vari campi, rendendo le emozioni leggibili dalle macchine ed offrendo l’opportunità di elaborare automaticamente un nuovo tipo di dati: i dati emotivi (emotional data).
Il fenomeno del c.d. Affective Computing deve le sue origini agli studi di Rosalind Picard ed al gruppo di ricercatori del MIT Media Lab, che ebbero l’intuizione di poter raccogliere i progressi delle tecniche computazionali ed automatizzate con i progressi ottenuti in campo psicologico sull’analisi delle emozioni umane.
Per quanto ne sappiamo, tutti i grandi player come Amazon, Apple, Facebook (Metaverse), Google, IBM e Microsoft stanno lavorando a strumenti di IA emozionale per sviluppare “prodotti empatici” per diverse applicazioni e contesti.
Nasce così una “datafication” della vita emotiva umana, tant’è che gli approcci tradizionali si sono basati sull’analisi delle espressioni facciali, delle intonazioni vocali e dei segnali fisiologici per dedurre le emozioni. Gli algoritmi di apprendimento automatico sono stati addestrati su ampie serie di dati contenenti risposte emotive classificate per migliorare la precisione ed i progressi nella c.d. computer vision e nell’elaborazione del linguaggio naturale hanno aperto la strada a sistemi di riconoscimento delle emozioni molto sofisticati.
I modelli di apprendimento come le reti neurali convoluzioni (CNN) e le reti neurali ricorrenti (RNN), hanno dimostrato risultati promettenti nei compiti di classificazione delle emozioni. Questi modelli possono elaborare dati visivi e testuali, consentendo alle macchine di dedurre le emozioni da immagini, video e testi scritti.
In particolare, è interessante riportare un aspetto legato all’utilizzo dell’IA nell’analisi del sentimento umano, in generale alle tecnologie che “percepiscono, imparano a conoscere e interagiscono con la vita emotiva umana”. Secondo Andrew McStay i sistemi aziendali abilitati all’Intelligenza Artificiale delle emozioni stanno implementando l’inclusione del monitoraggio automatico delle emozioni dei lavoratori. Mediante metodi computazionali e di analisi statistica, affective computing e apprendimento automatico, le tecniche di Emotional AIpossono essere applicate a vari tipi di dati di input come sensori biologici, microespressioni facciali, segnali fisiologici e vocali e semantica del testo.
Attraverso l’applicazione di algoritmi di apprendimento automatico e analisi statistica, l’IA delle emozioni potrebbe generare inferenze sulle emozioni umane e la sua applicazione nella sorveglianza del posto di lavoro, in particolare, porta con sé sia vantaggi che preoccupazioni. Da un lato, l’utilizzo di queste tecnologie può contribuire a migliorare il benessere e la produttività dei dipendenti. possono identificare sia situazioni di stress o insoddisfazione che utilizzare l’acquisizione di tali informazioni per migliorare la qualità dell’esperienza dei clienti, adattando l’interazione con i dipendenti in base alle loro emozioni. Dall’altro lato, il loro utilizzo solleva importanti questioni etiche e di privacy.
È fondamentale garantire che il monitoraggio delle emozioni venga effettuato in modo trasparente e nel rispetto della privacy dei dipendenti. È necessario garantire che i dati raccolti vengano utilizzati solo per fini legittimi e che vengano prese misure appropriate per proteggere la loro sicurezza. Inoltre, l’uso dell’emotional IA solleva preoccupazioni circa la possibilità di manipolare le emozioni stesse.
Nonostante i progressi compiuti, pertanto, vi sono diverse sfide da affrontare è soprattutto è bene considerare che le emozioni sono altamente soggettive e influenzate da fattori culturali, sociali e personali. Interpretare accuratamente le emozioni richiede la comprensione del contesto in cui esse sorgono. L’emozione è un sentimento non solo privato, ma anche un tipo di informazione (privata) particolarmente sensibile. La decisione di condividere le proprie emozioni interiori dovrebbe essere una scelta individuale. In quanto esseri umani, trasmettiamo emozioni attraverso segnali non verbali, come il linguaggio del corpo, i gesti e il tono della voce. Insegnare alle macchine a riconoscere e interpretare questi segnali in modo accurato è una sfida complessa, in cui un “piccolo errore” ha enormi conseguenze, ad esempio nei casi in cui le emozioni spesso mostrano ambiguità e complessità, rendendo difficile classificarle in etichette distinte. Gli stati emotivi possono evolversi rapidamente e manifestarsi in sottili variazioni che potrebbero essere difficili da identificare con precisione.
In parole semplici, a noi appare chiara – in duecento milioni di anni di evoluzione sociale in un contesto collettivo – la differenza tra un sorriso di gioia, un sorriso di circostanza, un sorriso amaro, un sorriso triste. Già spiegarli e descriverli a parole è estremamente complesso, e quasi mai completo ed esaustivo. Immaginiamo cosa significhi “programmare” una macchina per definire e riconoscere con certezza queste differenze. Dobbiamo quindi innazitutto riconoscere che uil problema in questi casi non è la macchina ma la nostra capacità umana di descrizione e codificazione.
3. Aspetti giuridici fondamentali
Con la proposta di Regolamento del Parlamento Europeo e del Consiglio (Artificial Intelligence Act – AIA), si stabiliscono regole armonizzate sull’Intelligenza Artificiale e si modificano alcuni atti legislativi dell’Unione, Bruxelles, 21 aprile 2021, COM(2021) 206 final 2021/0106 (COD).
È bene dire che il sistema di riconoscimento delle emozioni, nel modo in cui è presentato dall’ IA Act, all’art. 3, n. 34, deve considerarsi “un sistema di IA finalizzato all’identificazione o alla deduzione di emozioni o intenzioni di persone fisiche sulla base dei loro dati biometrici”. Il Titolo IV introduce gli obblighi di trasparenza per una serie di sistemi di IA (l’art. 1 lett. c), stabilendo che “le regole di trasparenza armonizzate per i sistemi di IA destinati a interagire con le persone fisiche, i sistemi di riconoscimento delle emozioni, i sistemi di categorizzazione biometrica e i sistemi di IA utilizzati per generare o manipolare immagini o contenuti audio o video”. L’art. 52, par. 2, invece, impone che “gli utenti di un sistema di riconoscimento delle emozioni o di un sistema di categorizzazione biometrica informano le persone fisiche che vi sono esposte in merito al funzionamento del sistema”.
L’ AIA, dunque, presenta un quadro giuridico, il cui scopo ‒ così come specifica il Considerando 1 della Proposta di Regolamento – è “migliorare il funzionamento del mercato interno istituendo un quadro giuridico uniforme in particolare per quanto riguarda lo sviluppo, la commercializzazione e l’uso dell’intelligenza artificiale (IA) in conformità ai valori dell’Unione”.
Eppure, come si legge nella stessa Proposta, “alcuni sistemi di IA destinati all’interazione con persone fisiche o alla generazione di contenuti possono comportare rischi specifici di impersonificazione o inganno, a prescindere dal fatto che siano considerati ad alto rischio o no”, risultando necessario che “le persone fisiche ricevano una notifica quando sono esposte a un sistema di riconoscimento delle emozioni o a un sistema di categorizzazione biometrica” (rif. Proposta di Regolamento, considerando 70, 37).
La Proposta di Regolamento ‒ nella sua definizione di sistemi di riconoscimento delle emozioni ‒ si focalizza sull’utilizzo di dati biometrici. Tuttavia, questi non sono gli unici elementi utilizzati nell’attività di emotion scanning. Questo aspetto pone il problema qualificatorio delle emozioni, poiché ridurre le emozioni sul piano qualificatorio ai soli dati biometrici escluderebbe, de facto, sistemi simili.
Ai sensi dell’art. 3, n. 33, per dati biometrici si devono intendere “i dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici”. Dunque, si tratta di una categoria particolare di dati personali che consentono o confermano l’identificazione univoca di una persona.
L’AIA, riguardo alla tutela dei dati personali ‒ nelle comunicazioni elettroniche ‒ inquadra le emozioni tra le “informazioni altamente sensibili” (Considerando 2) al pari di altri dati personali particolarmente rilevanti.
Ai sensi del GDPR, inoltre, l’ Emotion AI è soggetta agli stessi requisiti per il trattamento dei dati personali di qualsiasi altra forma di trattamento dei dati. In tal senso, ai sensi dell’art. 6 del GDPR, il trattamento può avvenire, oltre che per finalità predeterminate, solo in presenza di idonee “basi giuridiche”, cioè condizioni alle quali il trattamento è considerato lecito. Inoltre, qualsiasi trattamento di dati personali può essere svolto solo nei limiti di specifiche e predeterminate finalità. È necessario fornire informazioni chiare e trasparenti sul trattamento dei dati personali, comprese le finalità del trattamento e le categorie di dati trattati.
Ciò include l’implementazione di adatte misure di protezione e sicurezza dei dati, come la crittografia e i controlli di accesso, e la garanzia che anche i fornitori terzi coinvolti nel trattamento dei dati personali siano conformi al GDPR.
4. Il caso di MorphCast Emotion AI
Ne è un esempio MorphCast Technology (MorphCast Emotion AI), ossia una tecnologia che consente il riconoscimento e l’analisi delle emozioni facciali attraverso l’intelligenza artificiale. Il Software non effettua alcun trattamento di dati biometrici che consentano l’identificazione univoca di un soggetto, ma solo un trattamento istantaneo (volatile) di dati personali durante l’elaborazione di immagini (frame), lette dal flusso video (ad esempio di una telecamera, utilizzata solo come sensore e non come registratore di immagini e/o video) fornito dal browser dell’Utente finale. La tecnologia in questione si impegna costantemente a fornire tutte le informazioni necessarie per una migliore comprensione e utilizzo dell’ Emotion AI. In particolare, la privacy è una preoccupazione importante quando si utilizza MorphCast Emotion AI, poiché comporta il trattamento di dati personali, compresa la raccolta di dati emotivi, che però non sono trattati dalla normativa “in quanto tali” (ovvero nella loro peculiarità e specificità) ma solo “per analogia ed estensione”.
MorphCast Emotion AI ha implementato misure per garantire la protezione della privacy degli utenti. Funziona rigorosamente sul lato client, il che significa che i dati personali degli utenti (l’inquadratura della fotocamera con il volto dell’utente) rimangono sul loro dispositivo e non vengono inviati a nessun server per l’analisi, ovvero gli utenti hanno il pieno controllo dei propri dati e non rischiano di essere consultati da terzi. L’azienda sottolinea, inoltre, l’importanza di ottenere il consenso esplicito e informato, prima della raccolta e dell’elaborazione di tali dati. MorphCast Emotion AI è pienamente conforme al GDPR, il che significa che aderisce agli standard normativi di protezione dei dati e garantisce (afferma la società) che i dati personali degli utenti siano trattati in modo equo e legale. Ma se così è, resta il “dubbio sul non detto”: cosa ne è dei dati “trattati” ai fini del machine learning della Emotion AI?
Il Regolamento generale sulla protezione dei dati (GDPR) contiene disposizioni per la gestione dei sistemi di IA, in particolare per quanto riguarda la standardizzazione degli obblighi nel trattamento dei dati e la definizione dei diritti dell’interessato nell’utilizzo dei dati personali.
Lo stesso GDPR, all’art. 9, prescrive il divieto di trattamento dei “dati biometrici intesi a identificare in modo univoco una persona fisica”, a meno che l’interessato non abbia prestato il proprio consenso o nelle altre eccezioni previste dalla legge. Pertanto, i principi sanciti dal GDPR hanno rilevanza anche per i sistemi di IA.
I sistemi di riconoscimento delle emozioni generalmente imparano a determinare il legame tra un’emozione e la sua manifestazione esterna a partire da una grande varietà di dati, tra cui alcune fisiologiche, come la modificazione della frequenza cardiaca e la conduttanza della pelle.
L’obiettivo principale del sistema di riconoscimento delle emozioni è quello di estrarre le caratteristiche più rilevanti dai dati e utilizzarle per apprendere il legame tra l’emozione e le sue manifestazioni esterne.
Ciò, può coinvolgere l’uso di algoritmi di apprendimento automatico per identificare pattern (schema/modello) o correlazioni nei dati che indicano una certa emozione. Una volta addestrato, il sistema di riconoscimento delle emozioni può essere utilizzato per analizzare nuovi dati e classificarli in base all’emozione corrispondente. Ad esempio, potrebbe essere utilizzato per analizzare l’emozione espressa da un oratore durante una presentazione, oppure per identificare l’emozione rappresentata da un personaggio in una scena di un film.
Un afflusso così “massiccio” di dati e di così tante persone pone una serie di interrogativi che riguardano le implicazioni sulla diffusione e sul controllo di questi ultimi.
5. La tutela del “dato emotivo” e di cosa parliamo quando parliamo di emozione
Da un punto di vista normativo la tutela del dato viene delegata essenzialmente al rispetto del GDPR trattando sostanzialmente il dato emotivo ed emozionale alla stregua di qualsiasi dato personale.
Si sostiene sostanzialmente che se l’analisi del sentimento richiede la raccolta di dati personali degli utenti, come testi, post sui social media o messaggi di chat è essenziale rispettare le normative sulla privacy, come il Regolamento Generale sulla Protezione dei Dati (GDPR) nell’Unione Europea, che richiede un consenso informato degli utenti per la raccolta, l’elaborazione e l’archiviazione dei loro dati personali.
Si sostiene inoltre che quando vengono raccolti dati per l’analisi delle emozioni è importante rendere anonimi gli utenti per proteggere la loro privacy, come se ciò in sé bastasse, non considerando che il dato emozionale è sempre espresso in una relazione, a differenza del dato personale.
Io sorrido è un dato differente rispetto a “io ti sorrido” e ancora differente rispetto a “sorrido alla vista di un certo panorama” semmai correlato ad un “ricordo personale” semmai collegato “al ricordo di quella giornata significativa con una persona significativa” semmai provando un sentimento. Questa “catena sociale” del correlato emozionale non piò rientrare nel come si regolamenta il trattamento dui un numero di telefono. Men che meno basta – evidentemente – che il “dato” sia “anonimo”.
Si sostiene che i sistemi di valutazione delle emozioni online basati sull’IA devono essere trasparenti riguardo al modo in cui i dati vengono raccolti, utilizzati ed elaborati. Gli utenti devono essere pienamente informati su come i loro dati vengono impiegati per l’analisi del sentimento e per quale scopo specifico.
Anche in questo caso dobbiamo chiarire prima di tutto a noi stessi “di cosa parliamo quando parliamo di una emozione” e se questa “piena informazione” debba essere conosiuta e condivisa da “tutte le parti di una emozione”.
Si sostiene che dal momento che i sistemi di valutazione delle emozioni online si basano sull’IA, è importante garantire l’accuratezza dei risultati ottenuti. L’azienda o l’organizzazione che utilizza tali sistemi potrebbe essere ritenuta responsabile per eventuali conseguenze negative derivanti da analisi del sentimento errate o fuorvianti.
Anche in questo caso ci sfugge che noi stessi – come umani, programmatori e classificatori delle emozioni – dobbiamo prima con certezza e in maniera univoca definirle. Solo dopo possiamo richiedere il rigore nel trattamento dell’accuratezza del risultato ottenuto dall’analisi. Ciò nel contesto piuttosto comune e intuitivo che noi umani per primi non siamo affatto degli interpreti accurati delle nostre emozioni e delle emmozioni altrui. Figuriamoci con quale rigore possiamo programmare una IA a farlo.
Si sostiene che gli utenti devono essere garantiti nella loro libertà di espressione e opinione durante l’utilizzo dei sistemi di valutazione delle emozioni online. Le aziende non dovrebbero utilizzare le informazioni raccolte per limitare o reprimere le opinioni degli utenti che possono essere considerate negative o indesiderate.
Ma se noi per primi non abbiamo un criterio di classificazione e valutazione univoca nei confronti di una emozione, e addirittura noi per primi facciamo discendere la nostra relaizone con l’emozione altrui (il comportamento) dal nostro assolutamente soggettivo grado di empatia, come possiamo pretendere che lo faccia una IA che non ha per definizione empaltia (nè potrebbe averla)? E da questo discende che “l’opinione su un’emozione” da parte di una IA è un non senso apriori.
Si sostiene che l’analisi del sentimento potrebbe essere soggetta a pregiudizi o discriminazioni, ad esempio basate sulla razza, sull’età o sul genere delle persone coinvolte. È importante che i sistemi di valutazione delle emozioni online siano sviluppati e utilizzati in modo da evitare risultati discriminatori o ingiusti.
Ma se le emozioni sono le nostre etichette qualitative ad un’esperienza, la loro “originalità” e autenticità sta proprio anche – e spesso soprattutto – nel rispecchiare pregiudizi e discriminazioni, che non sono di per sè entità negative. Abbiamo pregiudizi verso il gusto degli escrementi, anche senza averli mai “assaggiati” (e quindi abbiamo un pregiudizio) che mostrano sul nostro volto l’espressione emotiva di “disgusto”. È sbagliata perchè pregiudizievole? Discriminiamo una vespa (colore giallo-nero) perchè atavicamente “dal gusto amaro” mentre la fragola (colore rosso) ci appare succulenta a priori, si tratta di una discrimnazione? Nella valutazione del suo comportamento, una persona con evidenti pregiudizi razziali per ragioni culturali esprimerà sul suo volto tale concezione culturale, l’IA non dovrebbe tenerne conto? In base a quel criterio a priori? E chi lo stabisce? Perchè quando parliamo del comportamento umano e della sua risposta emotiva al mondo, il pregiudizio culturale è in sé un elemento di tale risposta. Ad esempio nell’ultimo caso avrete tutti pensato che parlavamo di una persona di pelle bianca verso una persona afroamericana. Anche in qiesto caso non avete voi per primi eserecitato un discrimine e un pregiudizio razziale?
6. La tutela giuridica del dato emotivo
Sulla base di quanto sopradetto come si potrebbe definire il termine “dati emotivi” in modo che esso sia adatto al contesto giuridico, in particolare nel contesto dei “sistemi di riconoscimento delle emozioni”, menzionati dall’AIA?
I dati biometrici diventano “dati emotivi” attraverso l’elaborazione sistemica nel sistema di riconoscimento delle emozioni. In una prima fase, si prenderà quindi in considerazione il trattamento dei dati biometrici ai sensi della legge sulla protezione dei dati. In una seconda fase, ci si chiederà quali spunti si possono trovare per trattare i “dati emotivi”.
Il GDPR all’articolo 4 par. 1 p.4, definisce i dati biometrici: “I dati personali ottenuti da un trattamento tecnico specifico relativi alle caratteristiche fisiche, fisiologiche o comportamentali di una persona fisica che ne consentono o confermano l’identificazione univoca, quali l’immagine facciale o i dati dattiloscopici”.
Formazione per professionisti
Legal prompting: come utilizzare Chat GPT per l’attività giudiziale e stragiudiziale
Il corso si articola in due moduli, acquistabili anche separatamente, in cui vengono spiegati e mostrati i concreti utilizzi di CHAT GPT per il supporto al Professionista nell’attività giudiziale e stragiudiziale.
>>>Per info ed iscrizioni<<<
Vuoi ricevere aggiornamenti costanti?
Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Scrivi un commento
Accedi per poter inserire un commento