Grande partecipazione e ampie analisi di tematiche cruciali nel Convegno dell’Omceo di Parma intitolato “Salute e IA Etica, Professione, Diritto e Sicurezza. Bioetica e Biodiritto a confronto”, ospitato nella sede dell’Ordine dei medici e chirurghi odontoiatri della Provincia di Parma, in via Po 134. I partecipanti hanno potuto conoscere da vicino due prestigiosi progetti europei, il primo incentrato su uno studio della sicurezza in ambito di utilizzo di IA e il secondo in ambito clinico oncologico, basato sull’efficacia del controllo dei pazienti sottoposti a trattamento medico chirurgico per patologie del distretto testa-collo attraverso l’utilizzo costante e avanzato in medicina degli IoT (Internet of Things).
L’iniziativa, spalmata nell’arco di due giorni, è nata grazie al lavoro e alla sinergia dell’Omceo e del Dipartimento di Giurisprudenza dell’Università di Parma, in collaborazione con con Multimed Engineers s.r.l.s, la cattedra di Diritto costituzionale e l’UCB dell’Università cittadina. Si è trattato dell’evento di chiusura di un trittico di incontri sull’IA in medicina organizzate nella sede dell’Ordine in questi anni.
Quello dell’Intelligenza Artificiale in ambito sanitario, con tutti i dilemmi etici e giuridici che questo argomento porta con sé, è un tema che richiede costanti riflessioni e aggiornamenti, ecco perché il Convegno ha rappresentato una risorsa decisiva per tutta la cittadinanza. Professionisti di elevato profilo e di diversi settori, hanno stimolato i partecipanti confrontandosi tra loro, presentando progettualità di alto livello, e maneggiando questioni impellenti.
Il Presidente Pierantonio Muzzetto ha aperto il Convegno con queste riflessioni: “Cambierà il medico e la medicina col medico, mutato in Cybermedico in una TECH- medicine? La rivoluzione dell’informatica ha portato all’avvio di nuove professioni, così come è avvenuto nel corso dei secoli. Una globale trasformazione la sta determinando nella quotidianità l’IA. In un nuovo illuminismo tecno-umano, in cui che si è incuneato il verbo «artificiale» che segna l’evoluzione dell’Intelligenza, da decenni fino all’attuale sviluppo, prima in modo larvato e poco conosciuto e, oggi, manifesto. Uno dei problemi è la comunicazione di limiti ed estensioni dell’uso, liceità e sicurezza dei dati come delle risorse o degli effetti. La presenza «pesante» dell’algoritmica in tutti gli aspetti della vita sociale e in medicina costituisce un problema, come pure della sostituzione dell’uomo da parte della macchina pensante. Da qui la soluzione nel governo dell’IA e poiché impera la comunicazione mutata per l’algoritmici cosa come e quando comunicare e, nell’insieme delle sfaccettature della relazione di cura, questa rimarrà duale, estesa o generalizzata? E in ambito di decisione clinica, saremo di fronte ad una scelta olocratica o ancora gerarchica, ma portata, con la dialogia, al consenso dopo una comunicazione compresa e accettata. Solo governando con coscienza e lucidità l’IA, l’essere umano potrà essere sempre in grado di delineare il vero dal falso e di decidere sempre e comunque, da umano quale è, sulla salute dell’altro, umano“.
La giornata di venerdì 23 si è divisa in due sessioni:
- NUOVE TECNOLOGIE DIGITALI E SANITÀ: OPPORTUNITÀ E RISCHI.
- SANITÀ E CYBERSECURITY: TRA FRAMEWORK NORMATIVO E BEST PRACTICES.
Durante il suo intervento, Claudio Buccelli, Professore Emerito di Medicina Legale dell’Università Federico II e presidente onorario di SIMLA, ha sottolineato che esiste un impiego ingannevole dell’intelligenza Artificiale e non è tutto oro ciò che luccica: “Accanto ed oltre alle prospettive spettacolari dell’intelligenza artificiale, che sicuramente già ci aiutano molto nella professione medica come al di fuori di quella, ci sono però delle zone d’ombra in cui si infiltra un fenomeno che è quello della possibilità della frode. L’IA può essere impiegata per raggiungere degli scopi che non sono esattamente quelli di fare il bene degli altri. Dobbiamo interrogarci su questo aspetto, aprire gli occhi ed essere sempre pronti a vigilare perché nel fenomeno se ne nasconde un altro, quello della frode scientifica: l’intelligenza artificiale adoperata con dei fini che sono truffaldini, in ambito medico e scientifico. Assistiamo oggi alla crescita di una IA che fa quasi tutto da sola, e guidata in modo malevolo, costruisce false esperienze di carattere scientifico che sono distruttive nel momento in cui poi vanno sul territorio del concreto. Quando si inventano di sana pianta delle esperienze con farmaci, con metodologie diagnostiche, terapeutiche, allora è in pericolo anche la sicurezza del cittadino e pochi forse riflettono sul fatto che l’articolo 1 della legge sulla responsabilità professionale, dice che il cittadino ha diritto a cure sicure. Si dice spesso, giustamente, che il cittadino ha il diritto di ricevere cure, che la sanità è un diritto del cittadino e un interesse della collettività. Ma le cure non bastano, la cura deve essere anche sicura e quindi un approccio truffaldino, ingannevole, talvolta imbastito per facilitare delle scorciatoie per la propria la carriera pseudo brillante di ricercatore, così da bruciare le tappe, riuscire ad avere finanziamenti, può avere dei riverberi pesanti sulla collettività, sui pazienti e sulla stessa dignità della disciplina medica. Ecco perché, senza falsi allarmismi, dobbiamo aprire gli occhi. L’IA può essere oro ed essere uno strumento importante in molti così, ma al contempo nasconde molteplici trappole, che dobbiamo essere capaci di sventare rimanendo costantemente vigili e lucidi “.
La già Presidente della IV Sezione della Corte di Cassazione, Patrizia Piccialli, ha regalato ai presenti una lettura conclusiva della prima sessione del Convegno, intitolata: “La responsabilità penale al tempo dell’IA”. Queste le parole del Magistrato: “L’intelligenza artificiale può sostituire il medico? L’intelligenza artificiale può sostituire un atto del medico, ma non può sostituire il medico, perché solo il medico ha una valutazione cognitiva che comprende non soltanto la razionalità, ma anche l’umanità. Il punto imprescindibile è che ci sono svariate scelte da intraprendere per un operatore sanitario, in cui non si tratta soltanto di applicare linee guida e buone pratiche clinico-assistenziali, ma serve un’etica responsabile. Ci sono casi in cui occorre capire la situazione concreta del paziente: soltanto la valutazione personale da parte del medico può risolvere il problema. Per esempio: una giovane donna che è affetta da una neoplasia maligna nell’apparato genitale deve scegliere tra un intervento demolitivo e un intervento non demolitivo. Soltanto un consiglio del medico, intriso di umanità e profonda sensibilità, può aiutare a risolvere il dilemma di questa giovane donna. L’intelligenza artificiale resterà sempre frammentaria, a differenza di quella umana, tanto che, come ha sottolineato Papa Francesco in occasione della giornata mondiale della Pace, nel gennaio 2024: si parla di “Intelligenze artificiali, nel senso che possono solo imitare o riprodurre alcune funzioni dell’intelligenza umana, ma non può sostituirla“.
A seguire, nel pomeriggio, Ginevra Cerrina Feroni, Vicepresidente Autority GPDP e Prof. Ordinario di Diritto pubblico comparato all’UNIFI, è intervenuta sulla Tutela della persona attraverso la protezione del dato sanitario: “La tutela della persona alla luce della protezione dei dati sanitari è una dinamica cruciale. Il tema della protezione del dato sanitario è essenziale per tutelare la dignità della persona: quando viene sbagliata una mail con una diagnosi di patologia oncologica, oppure c’è qualcuno non legittimato che accede a una cartella clinica, o ancora quando i dati della sieropositività per un data breach navigano nel dark web, si può soltanto immaginare quali sono gli impatti sulla vita delle persone, sulla loro dignità, sul senso della loro esistenza. La protezione dei dati personali è quindi un passaggio fondamentale, quei dati che un tempo si definivano dati sensibili, oggi denominati particolari, che attengono alla salute. Quindi come possiamo proteggerli? Attraverso un complicato processo di verifica, di controllo, che le autorità di protezione dei dati, tra cui la nostra, Garante Privacy, portano avanti da anni per quanto riguarda il tema della salute, e che va incentivato , com’è soprattutto in questo momento di transizione digitale, di sanità digitale. Come? Accompagnando, com’è stato fatto, il Ministero, il decisore politico in quelli che sono i grandi obiettivi di digitalizzazione della sanità: il fascicolo sanitario elettronico, l’ecosistema dei dati sanitari, la piattaforma telemedicina, l’interoperabilità delle banche dati e l’intelligenza artificiale applicata alla sanità. Tutto questo si può fare applicando correttamente quelli che sono i principi del GDPR e del Codice Privacy, cioè del regolamento generale di protezione dei dati personali, che sono dei principi essenziali nell’ottica appena descritta, perché assicurano un trattamento dei dati sanitari conforme alle norme e quindi conforme al rispetto dei diritti e dell’età di ciascun individuo. Il principio di esattezza del dato, di qualità del dato nell’addestramento agli algoritmi, il principio di trasparenza, il principio di accountability (ovvero chi fa un trattamento dati deve progettare il sistema) e le misure di corretta conservazione del dato sono tasselli imprescindibili all’interno di un trattamento idoneo dei suddetti, e solo rispettando con giudizio questi paletti si potrà dare vita ad un sistema di sanità digitale efficiente e garantista“.
Il Convegno è proseguito nella mattinata di sabato, con la terza sessione:
3. QUALITY LIFE: ESPERIENZE PROSPETTIVE MODELLI DI IA NELL ASSISTENZA CURA E MONITORAGGIO IN AMBITO CLINICO ONCOLOGICO.
Vittoradolfo Tambone, Professore Ordinario di Medicina Legale all’UniCampus di Roma ha evidenziato: “Stiamo assistendo ad un passaggio fondamentale dalla visione della biopolitica di Michel Foucault, quindi il controllo sui corpi e sul bios, a quella che è una teoria interpretativa di quello che sta accadendo adesso, dello studioso di Harvard Zuboff, e del coreano Han, ed è il passaggio alla psicopolitica. La psicopolitica consiste nel passare da un controllo normativo a un controllo delle coscienze a livello preriflessivo, quindi una modulazione comportamentale che entra praticamente nella zona dell’inconscio. Ora, se questa teoria fosse effettivamente vera, sarebbe molto grave, perché va a cambiare la memoria, la coscienza, in un atto di violenza molto forte, che dal punto di vista nostro, quello medico legale, ci interesserebbe da vicino. Dobbiamo perciò chiederci: tutto questo è una fandonia, e in tal caso dobbiamo dire a Han e a Zuboff di stare in silenzio, oppure ci sono evidenze, cioè prove di efficacia, che ci dicono che effettivamente che è vero. Bisogna parlare con la gente in modo tale che possa recuperare e potenziare il pensiero critico riflessivo. Sorge un problema in merito a quest’ultimo passaggio: adesso la dimensione psicopolitica, a nostro modo di vedere, con una velocità enorme, sta lasciando il passo a una fase che stiamo incominciando a chiamare post-politica, che è caratterizzata da una violenza atematizzata, in cui la potenza economica, militare, tecnologica, va molto al di là del desiderio del consenso. Questa fase postpolitica è quello che sta mettendo in crisi la democrazia e le scelte con una conculcazione dei diritti umani eticamente inaccettabile. In sintesi: temiamo di essere in una fase post-politica terribilmente preoccupante“.
Giuseppe Fico, Prof. Associato del Dipartimento di Ingegneria Biomedica Universidad Politécnica de Madrid e Presidente EAMBES, ha delineato lo scenario presente e futuro sulle tecnologie sanitarie in un mondo che è ormai entrato nell’era digitale: “Non si parla più di trasformazione digitale, ma si parla del fatto già che siamo nell’era digitale. Quali sono i nuovi servizi che stiamo offrendo ai pazienti e ai cittadini delle nostre realtà? Ci sono diversi mondi che devono entrare in contatto, in modelli innovativi aperti ed ecosostenibili, dove le industrie e le università, l’amministrazione pubblica, la società possono e devono comunicare tra di loro. Parliamo di ecosystem of trust, un sistema di fiducia tra tutti questi attori, dove ognuno fa la sua parte. Ci sono delle leggi che stanno nascendo in Europa, sull’ intelligenza artificiale, sullo spazio della protezione dei dati sanitari. Si vuole così una società europea con un environment dove è permessa la circolazione di beni materiali e persone: ci piace pensare che si stia creando uno spazio nel quale circolano le informazioni la conoscenza. Lo spazio europeo dei dati sanitari sta definendo quello che si chiama secure and protective environment: come creare un ambiente dove questa informazione può circolare in maniera sicura e protetta? Sta a noi crearlo attraverso le prossime tecnologie innovative: la robotica, l’internet of thing, le nanotecnologie, con cui potremmo entrare nel controllo digitalizzato di tutto quello che c’è dentro di noi. Come ingegneria biomedica abbiamo il ruolo di dover aiutare e contribuire a questo percorso, creando fiducia generale. A Madrid c’è un Assessorato alla digitalizzazione con cui ci stiamo confrontando sull’uso dei Living Lab soggiacente a tutto questo, che può essere importante perché in quanto si tratta di spazi di sperimentazione aperti, viventi, con tutta la società, ovvero i primi beneficiari di tutto ciò. Purtroppo non stiamo ancora riuscendo a coinvolgerli in maniera adeguata: si deve riuscire a coinvolgere il paziente-cittadino dall’inizio, non solo per l’uso di queste tecnologie ma anche per la valutazione e la definizione di priorità“.
Per ricercatrici e ricercatori, professioniste e professionisti sanitari, giuristi e policy‑maker, si è trattato di un appuntamento per creare sinergie e contribuire attivamente all’evoluzione responsabile dell’intelligenza artificiale, e lo sviluppo di consapevolezza e maturità per quanto riguarda l’utilizzo dei devices in medicina, ovvero gli Iot (Internet of Things).
Francesco Giuliani, Responsabile Innovazione e Ricerca della Casa Sollievo della sofferenza, ha illustrato la tematica della robotica cognitiva ed assistiva in sanità: “Il nostro istituto, la Fondazione Casa Sollievo della Sofferenza, un istituto di ricovero e cura a carattere scientifico, è collocato a San Giovanni Rotondo. Siamo stati tra i primi in Italia, e per qualche caso di studio anche in Europa, a sperimentare tecnologie robotiche per cercare di identificare dei benefici di quest’ultime nei pazienti. Abbiamo sviluppato insieme a partner internazionali dei robot che offrono dei servizi al paziente di intrattenimento personalizzato e anche più di natura clinica. Abbiamo realizzato robot che supportano gli psicologi nell’effettuazione di test psicologici che riguardano la sfera cognitiva. I robot sono abbastanza ben accettati dai pazienti e il loro aspetto antropomorfo li rende particolarmente compatibili con una situazione nella quale possono effettivamente fornire dei servizi di supporto. C’è inoltre una novità importante, che è quella dei large language model, cioè dal fatto che i robot potranno avere in futuro un cervello simile a chatgpt che permetterà loro di svolgere compiti delicati che richiedono la comprensione del contesto. Questa tecnologia è promettente ma non esiste ad oggi un modello di business che ne consenta un impiego diffuso. Tuttavia diverse applicazioni si stanno dimostrando essere già abbastanza ben indirizzate. Vero è però che questa tecnologia pone diverse sfide etiche, perché evidentemente il robot non va considerato come reciproco dell’essere umano e ci sono dei limiti oggettivi legati al fatto che la tecnologia non è ancora così pronta da poterci dare un robot adatto alla portata di chiunque. Il costo è ancora molto elevato, quindi c’è moltissima ricerca ancora da compiere, ma la prospettiva potrebbe essere interessante perché l’impiego del robot potrebbe comportare anche notevoli risparmi per il sistema sanitario e magari offrire anche servizi utili che mettano in collegamento le persone. Il robot può essere infatti un facilitatore dei contatti sociali, una sorta di protesi che riesce a far svolgere all’essere umano delle funzioni che per problematiche organiche non riesce più a svolgere. Esistono robot che ad esempio facilitano la comunicazione tra
il paziente e le famiglie. Durante il Covid abbiamo anche sperimentato servizi in cui il robot metteva in contatto i famigliari che non potevano recarsi in ospedale con il loro congiunto, ricoverato per Covid. La robotica è un mondo in fortissima evoluzione, che va monitorato con attenzione perché può portare a risvolti molto interessanti in ambito sanitario“.
Franco Mercalli, Direttore Ricerca – Multimed Engineers s.r.l., ha fatto emergere i dettagli di un progetto coordinato dall’Università di Milano con la partecipazione di prestigiosi partner europei: “Il progetto BD4QoL è finanziato dalla Commissione Europea nell’ambito del programma Quadro Horizon 2020 e terminerà quest’anno dopo sei anni di lavoro. L’obiettivo è stato monitorare e migliorare la qualità della vita dei pazienti che hanno terminato il trattamento oncologico, dopo che sono stati curati e sperabilmente guariti dal cancro. Questo tipo di pazienti ha tuttavia dei problemi anche dopo il trattamento, perché è spesso aggressivo e può creare problemi, le cosiddette sequele tardive, difficoltà legate alla chemioterapia o chirurgia. Trattiamo inoltre i tumori del distretto testa-collo, che è critico perché in questa zona del corpo si concentrano diverse attività importanti, anche socialmente, fisiologicamente: si mangia, si respira, si parla, e c’è anche l’aspetto estetico, con la chirurgia che può sfigurare parzialmente il volto. I pazienti hanno quindi quindi bisogno di essere seguiti e monitorati con lo scopo di migliorare la loro qualità della vita e la gestione dei sintomi che possono permanere successivamente. Il progetto mira a capire, come questo possa essere supportato: esistono delle linee guida per fare tutto ciò, ma stiamo cercando di capire come con le nuove tecnologie, in particolare la possibilità di raccogliere dati attraverso i sensori di un comune smartphone o l’uso di quest’ultimo con i cosiddetti chatbot, si possa dare consigli e raccomandazioni su come gestire eventuali difficoltà di questa tipologia, veicolando informazioni mediche verificate. Stiamo sperimentando queste tecnologie, queste applicazioni per smartphone su un campione di circa 400 pazienti oncologici con trattamento terminato, per verificare e valutarne l’effettivo impatto, tentando di scovare nuovi cruciali spunti“.
Chiara Copelli, Direttore UOC chirurgia maxillo-facciale UNIBA, ha evidenziato i risvolti clinici e applicativi di una serie di ausili tecnologici che si basano sull’uso dell’IA e dei big data, in particolare di quello creato dal progetto BD4QoL : “Ha lo scopo di monitorare in maniera non invasiva quella che è la qualità della vita dei pazienti che vengono trattati per problematiche oncologiche testa collo. Lo scopo è quello di avvicinare il paziente allo specialista e di essere in grado di captare in maniera precoce e tempestiva quelle problematiche che determinano nel corso del follow-up dei pazienti un calo di quella che è la qualità della vita. Si mettono dunque in atto quelle misure che possono correggere e prevenire un peggioramento di quella che è la situazione“.
GLI ALLEGATI:
Articolo uscito sulla Gazzetta di Parma, dedicato alla prima giornata del Convegno