L’intelligenza artificiale, nelle sue varie declinazioni, sta rapidamente divenendo uno degli elementi fondamentali della società in cui viviamo. Il suo utilizzo è ubiquitario, finendo per approdare anche, a livello globale, nel settore sanitario. Nel corso di questa disamina si osserveranno benefici e rischi legati agli strumenti di “conversational AI” in ambito sanitario e ci si interrogherà sulla loro applicabilità in Italia, alla luce della nuova normativa europea (AI ACT). Per esplorare il tema delle AI, consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024
1. L’utilizzo di sistemi di AI in sanità nel mondo
Gli strumenti di intelligenza artificiale, definiti dalla norma europea (Regolamento UE 13/06/2024) come “tecnologie in rapida evoluzione conseguenti un’ampia gamma di benefici a livello economico, ambientale e sociale” e “tese all’ottimizzazione delle operazioni”, sono stati mondialmente attenzionati per gli esiti positivi che possono generare se impiegati in ambito sanitario.
In particolare, oggetto di discussione in sede odierna sono le tecnologie di “conversational AI” (i cosiddetti “assistenti vocali”), già oggetto di sperimentazione e attualmente in funzione in Stati come l’Inghilterra, gli Stati Uniti d’America e la Corea del Sud.
Le seguenti tecnologie vanno ad implementare, non a sostituire, l’Electronic Health Record (EHR), rendendo possibile il supporto di funzioni di dettatura dapprima precluse, che semplificano e velocizzano notevolmente gli adempimenti degli operatori sanitari.
In Inghilterra, la sperimentazione succitata è iniziata presso l’Oxford University Hospital e l’Homerton College, utilizzando il software di intelligenza artificiale noto con il nome di “Dragon Medical One”[1].
Circa i vantaggi dello strumento, si riportano le parole dall’autrice C. Poulter:
“A typical occupational health report is likely to be between 700 and 1400 words with an average typing speed of 30 words per minute. One report will take around 30–40 min which excludes thinking and research time, reviewing and corrections. Using voice recognition software, talking time is likely to be from 100 to 150 words per minute so report production time will be cut by two thirds” (C. Poulter, 2020, 75 – 76).
Risultati positivi nell’utilizzo di “Dragon Medical One” sono stati riferiti anche in uno studio del 2023, condotto presso la Marshfield Clinic Health System nello Stato americano del Wisconsin, mettendo in evidenza una riduzione dei tempi legati all’elaborazione della documentazione sanitaria[2].
Anche in Corea del Sud l’utilizzo di forme di intelligenza artificiale asservite all’attività infermieristica, si è rivelato particolarmente proficuo ai fini di un miglioramento della qualità del servizio sanitario offerto. Nello specifico, l’innovazione in oggetto è stata introdotta presso l’Eunpyeong St. Mary’s Hospital attraverso l’adozione di un meccanismo di “Voice Electronic Nursing Record”, funzionante in modo analogo al precedente già esaminato[3].
In tutti i casi fin qui citati, ci si trova in presenza di forme di “AAL” (Ambient Assisted Living)[4], elementi informatici che sintetizzano la voce umana e sono in grado di apprendere nozioni ed interagire con l’ambiente circostante grazie a processi di “deep learning” [5].
Il “deep learning” rappresenta una forma di apprendimento della macchina che sfrutta una sorta di “simulazione di un cervello umano”, attraverso la costruzione e l’addestramento di reti neurali artificiali. La diretta conseguenza di questo meccanismo è rappresentata dalla capacità del sistema informatico di assumere, in maniera più o meno autonoma, scelte consapevoli[6].
Tale tecnologia costituisce un’evoluzione del concetto di “machine learning” il quale, al contrario, non mostra lo stesso grado di indipendenza, bensì risulta maggiormente legato all’operatore umano. Infatti, in questo secondo caso, l’uomo è chiamato ad interpretare i dati restituiti dalla macchina[7].
In sostanza, dunque, gli algoritmi di “machine learning” non sostituiscono il pensiero umano, bensì lo aiutano ad assumere scelte più rapide ed efficaci, mentre nel caso del “deep learning” il funzionamento della macchina dovrebbe essere in grado di emulare il processo decisionale umano[8].
Pertanto, di seguito, si esamineranno i maggiori limiti all’applicabilità di queste innovazioni in Italia, derivanti dall’automaticità del trattamento di dati sanitari da parte di strumenti di “conversational AI”. Per esplorare il tema delle AI, consigliamo il volume Ai Act -Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024
Ai Act
Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).
Michele Iaselli | Maggioli Editore 2024
43.70 €
2. Limiti normativi in Italia
Per poter comprendere a fondo la problematica oggetto d’esame, è necessario dare una lettura combinata di più elementi.
L’art. 22 GDPR rappresenta, attualmente, uno dei maggiori ostacoli all’applicazioni di simili tecnologie a livello europeo. Infatti, la norma prevede che l’interessato, titolare del dato personale, abbia il “diritto di non essere sottoposto ad una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano” (art. 22, co.1 GDPR).
Tale disposizione è da interpretarsi al fine di aggirare il fenomeno del “black box”, cioè una sorta di “opacità” nell’algoritmo di “deep learning” che rende difficile ricostruire i passaggi logici che hanno portato il sistema informatico ad assumere una certa decisione piuttosto che un’altra. L’ algoritmo non consente, dunque, l’accesso alle proprie logiche interne e non rende trasparente il percorso da input ad output[9].
Sullo stesso argomento, interessante è anche l’apporto dato dalla Cassazione civile con la sent. n.28358/2023. Nel suddetto intervento si è precisato che, affinché il consenso al trattamento dei propri dati possa essere considerato libero (e quindi efficacemente reso), sia necessario che il titolare degli stessi possa comprendere a pieno il funzionamento dell’algoritmo.
Sulla questione, dubbi di coerenza sono stati, quindi, sollevati in dottrina[10] alla luce della formulazione del nuovo articolo 110 del d.lgs. 196/2003, soprattutto nella parte in cui recita:
“Il consenso non è inoltre necessario quando, a causa di particolari ragioni, informare gli interessati risulta impossibile o implica uno sforzo sproporzionato, oppure rischia di rendere impossibile o di pregiudicare gravemente il conseguimento delle finalità della ricerca” (art. 110 d.lgs.196/2003).
Tale modifica del corpo dell’articolo, in vigore dal maggio 2023, sembrerebbe porsi in contrasto con il precedente giurisprudenziale già citato.
Il suddetto emendamento risulta, tuttavia, in linea con le disposizioni del recente “AI Act”.
In particolare, l’art.59 del medesimo, rubricato “Ulteriore trattamento dei dati personali per lo sviluppo nello spazio di sperimentazione normativa per l’IA di determinati sistemi di IA nell’interesse pubblico”, contempla – tra le finalità che possono comportare l’addestramento di sistemi di AI – la salvaguardia di un interesse pubblico rilevante, come la sanità pubblica.
Ciò, tuttavia, non deve essere interpretato alla stregua di un “alleggerimento” del rigore circa la disciplina relativa al trattamento dei dati sanitari. Infatti, sempre l’AI Act, suddivide le forme di intelligenza artificiale categorizzandole sulla base del concetto di “rischio”[11].
In particolare, le tecnologie che sfruttano meccanismi di intelligenza artificiale e che trovano applicazione nel settore sanitario, rientrano nei “sistemi al alto rischio”, così come espressamente previsto ex art.6 AI Act.
Tale inquadramento espone questi strumenti ad una serie di gravosi obblighi (a titolo esemplificativo: implementazione di un sistema di gestione del rischio, adozione di rigide pratiche di governance dei dati, etc.) che devono essere soddisfatti dal “deployer”, definito ex art. 3 AI Act come:
“una persona fisica o giuridica, un’autorità pubblica, un’agenzia o un altro organismo che utilizza un sistema di IA sotto la propria autorità, tranne nel caso in cui il sistema di IA sia utilizzato nel corso di un’attività personale non professionale” (art. 3 AI Act).
Pertanto, ci si interroga se, nel settore dell’healthcare, la figura del “deployer” sarà assunta dai singoli operatori sanitari o dalla struttura ospedaliera, e ciò sarà dipeso da chi sceglierà di assumere la responsabilità dell’utilizzo del sistema IA.
Quest’ultimo, peraltro, rappresenta anche un tema scottante anche sotto il profilo dell’autonomia decisionale del medico che, nello svolgimento delle sue funzioni, si avvale di sistemi di intelligenza artificiale[12].
Il professionista del settore sanitario, infatti, dovrà essere autosufficiente rispetto alla macchina e ciò implica, inoltre, la sua capacità di non farsi influenzare dalle decisioni del sistema informatico e di dissentire ove lo ritenga opportuno (L. Edwards, M. Veale, 2017)[13].
Concludendo, dunque, si attende di conoscere il futuro recepimento a livello nazionale dell’AI Act, nonché i futuri eventuali studi in materia di responsabilità sia civile che penale generati dall’applicazione di tali strumenti di intelligenza artificiale nel settore sanitario in Italia.
Potrebbero interessarti anche:
Note
[1] C. Poulter, 2020, “Voice recognition software – Nuance Dragon naturally speaking”, Occupational Medicine 2020;70:75–76, Oxford University Press, Oxford.
[2] A.A. Onitilo, A.R. Shour, D.S. Puthoff, Y. Tanimu, A. Joseph, M.T. Sheehan, 2023, “Evaluating the adoption of voice recognition technology for real-time dictation in a rural healthcare system: A retrospective analysis of dragon medical one”, PLoS ONE 18(3), Abel C.H. Chen, Chunghwa Telecom Co. Ltd., TAIWAN.
[3] H. Park, E. Lee, 2014, “Incorporating Standardized Nursing Languages Into an Electronic Nursing Documentation System in Korea. A plot study”, International Journal of Nursing Knowledge, 26(1).
[4] S. Reddy, 2018, “Use of Artificial Intelligence in Healthcare Delivery”, in T.F. Heston (a cura di), eHealth – Making Health Care Smarter, Intech Open, London.
[5] P. Guarda, L. Petrucci, 2020, “When Artificial Intelligence Speaks: Vocal Assistant and E-Health in the light of the General Data Protection Regulation”, in Biolaw Journal, (2)2020, Università di Trento, Trento.
[6] L. Petrucci, 2020, “Assistente vocale e dati sanitari. Le sfide dell’intelligenza artificiale alla luce del regolamento (UE) N. 2016/679”, in Trento Law and Technology Research Group, Student paper n.56, Università di Trento, Trento.
[7] J. Powles, H. Hodson, 2017, “Google DeepMind and healthcare in an age of algorithm”, in Health Technol., 7, 351 – 367.
[8] C.E. Small, D. Nigrin, K. Churchwell, J. Brownstein, 2018, “What will healthcare look like once smart speakers are everywhere?”, Harvard Business Review, Boston.
[9] F. Pasquale, 2015, “Black Box Society. The Secret Algorithms That Control Money and Information”, Harvard University Press, Cambridge, Massachussets.
[10] E. Chizzola, P. Guarda, V. Maroni, L. Rufo, 2024, “Ricerca in sanità e protezione dei dati personali. Scenari applicativi e prospettive future”, volume 83 di Quaderni della facoltà di giurisprudenza dell’ Università di Trento, Editoriale Scientifica.
[11] J. Schuett, 2024, “Risk Management in the Artificial Intelligence Act”, European Journal of Risk Regulation (2024), 15, 367–385, Cambridge University Press, Cambridge.
[12] P. Guarda, L. Petrucci, 2020, ut supra.
[13] L. Edwards, M. Veale, 2017, “Slave to the Algorithm? Why a ‘Right to an Explanation’ Is Probably Not the Remedy You Are Looking For”, 16 Duke Law & Technology Review 18-84.
Scrivi un commento
Accedi per poter inserire un commento