Folta partecipazione e interessanti analisi nel Convegno dell’Omceo di Parma intitolato “Il cinismo di Diogene o la prassi relazionale di Ippocrate? La Spersonalizzazione del Medico o la Riscoperta dell’Atto Medico di fronte alla Digitalizzazione Clinico-Terapeutica”, ospitato nella Sala Convegni della sede dell’Ordine dei medici e chirurghi odontoiatri della Provincia di Parma, in via Po 134. I partecipanti hanno potuto ampliare le loro conoscenze e riflettere su temi impellenti relativi all’Intelligenza Artificiale in medicina.
Un convegno a conclusione di un lungo percorso intrapreso dall’Omceo di Parma già da diversi anni e dedicato all’uso dell’intelligenza artificiale, del suo sviluppo repentino dal 2020-2022, con l’avvento di chat GPT e dell’IA di tipo generativo. Un avvento non più solo teorico, bensì concreto, con una super-intelligenza artificiale che permea sempre di più il mondo odierno. Ci si trova di fronte alla sommatoria dei dati da interpretare, conoscere e correlare. C’è quindi in ambito medico la necessità di capire l’utilizzo proattivo che si può fare di queste sempre più invasive strumentazioni, orientando le scelte in senso etico. Professionisti di elevato profilo hanno dato vita ad una giornata di notevole interesse, caratterizzata da profondi confronti, con un unico e ben chiaro obiettivo finale: riprendere il bandolo della matassa del governo dell’IA sotto il profilo etico, in una rinata relazione medico-paziente, esplicitata da un Atto medico umano e umanizzato.

Partiamo dalla fine di questa lunga giornata, con le parole del Presidente Pierantonio Muzzetto all’interno della sua relazione finale, durante la quale ha evocato tutti gli aspetti e le riflessioni che il convegno è stato capace di evidenziare: “Ci troviamo di fronte alla sommatoria dei dati da interpretare, conoscere, e correlare. C’è quindi in ambito medico la necessità di capire l’utilizzo proattivo che si può fare dell’IA, orientando le scelte in senso etico. L’etica non deve e non vuole essere una sorta di freno a mano della ricerca e della formazione della classe medica e a livello sanitario. Tuttavia siamo dinnanzi all’urgenza di dare un significato cruciale all’utilizzo dell’intelligenza artificiale finalistica, cioè legata ai valori alti, che altro non sono che la risposta adeguata in tema di salvaguardia della salute, fino ad arrivare all’utilizzo personalizzato delle cure. Di fatto si deve quindi trovare bilanciamento tra quella che è la richiesta e la risposta, cioè tra input e output, valutando attentamente il lato tecnico e quello umano della relazione sociale, della relazione di cura. Il significato profondo di questo convegno è stato capire fino a che punto l’intelligenza artificiale sia di vero aiuto, sia funzionale ad ottenere dei risultati necessari nell’ambito della diagnostica (già molto avanzata in molti settori, vedi ad esempio la radiologia e la terapia), soprattutto quando ad essere legati all’IA sono i settori della farmaceutica innovativa, con approcci di tipo tecnologico. Questi sono tutti elementi che ci fanno riflettere su come l’intelligenza artificiale sia risorsa fondamentale ma soprattutto presupponga criteri di utilizzo in linea con gli obiettivi e con i risultati attesi. L’ IA, in quanto esigenza ormai non trascurabile, deve essere sempre più coordinata e gestita dall’uomo. L’essere umano deve prestare enorme attenzione in particolare nei confronti degli equilibri tra domanda e risposta, per partorire risultati che siano consoni alle reali necessità della società, senza che l’intelligenza stessa abbia il sopravvento sul lato umano. Ci sono tanti esempi di come si possa facilmente sfociare in un distorto uso dell’intelligenza artificiale, per esempio partendo dalla terapia digitale e dagli eccipienti digitali. Non dobbiamo cadere nel qualunquismo cibernetico del pensare che trattandosi di operazioni sistematiche legate ad algoritmi, queste ultime possano essere prerogativa di altri fuori dall’ambito sanitario, o di figure diverse dal medico, laddove le competenze siano prettamente mediche. Talvolta possono anche essere messe in discussione le innovazioni, anche di tipo assistenziale. Occorre che l’IA in medicina sia sempre risorsa e non alibi, per ridursi ad un mero task-shifting professionale o ad un raffazzonato fare poco. Il rischio principale è quello di mettere in discussione l’aspetto umano del lato medico verso un atto tecnologico slegato da quelli che sono gli aspetti relazionali del medico verso la persona assistita, senza dimenticare di concentrarsi anche sulle implicazioni della responsabilità, che presuppone un codice che non sia solo etico ma anche giuridico. Ci troviamo poi ad affrontare anche un ulteriore tema, scandagliato oggi durante la nostra seconda sessione, ovvero la cosiddetta certezza del dato. L’uomo oggi è inserito all’interno di grandi dati che vengono processati, fino ad arrivare a quello che è stato definito il doping letterario in sanità (intendendo con questo la letteratura scientifica). Anche in questo caso occorre formulare un ragionamento etico sulla capacità dell’essere umano posto di fronte alla sistematicità degli eventi, eventi legati ad un’algoritmica inserita pesantemente nella vita quotidiana. Vi lascio con una riflessione finale sul vero significato dell’etico nel rapporto umano al tempo delle macchine: oggi potrebbe essere la semplificazione del percorso a servirci e il risultato finale da ottenere. Proprio la semplificazione, in un processo continuo di grande complessità e di continua evoluzione della scienza e della tecnica, ci può portare a dare il vero valore alle persone e alle cose“.
Il convegno si è diviso in due sessioni:
- DALLA FORMAZIONE ALLE PRESTAZIONI DI SALUTE TRA OUTCOME E RISORSE UMANE.
- IL METICCIATO UMANOIDE: IL RITORNO DEI VALORIDALL’ALGORITMO ALL’UOMO.
- Le due sessioni sono state moderate da: Nicola Addis, Vicepresidente dell’Omceo di Sassari e Componente della Consulta Nazionale Deontologica Fnomceo e Claudio Lucia, Presidente dell’Omceo di Asti e Componente della Consulta Nazionale Deontologica Fnomceo.

Vittoradolfo Tambone, Professore Ordinario di Medicina Legale all’UniCampus di Roma ha evidenziato: “Medicina e Democrazia. Partiamo da una preoccupazione condivisa, quella della democrazia a livello mondiale. La medicina ha un ruolo in tutto ciò? A noi sembra che il ruolo di garanzia del medico, rivolto sempre alla public health, deve anche diventare un ruolo di garanzia della democrazia, perché la dimensione democratica è strettamente collegata alla salute e alla scienza. In che modo? Innanzitutto la libertà della scienza va salvaguardata di fronte sia alle ideologie, sia all’economia e sia a davanti a qualunque altro tipo di interesse che può forzare o strumentalizzare la scienza. La scienza deve partire da un concetto: la ricerca e l’amore della verità. Quando io medico faccio una diagnosi, devo farla vera, devo capire veramente cos’ha il paziente. Quando imposto una terapia, poi il follow-up, gli indicatori di miglioramento devono essere veri e il paziente deve concretamente migliorare. Ma questo amore per la verità è il primo punto dell’assiologia democratica, che anticamente era denominata la parresia, cioè l’amore alla verità, non soltanto la conoscenza della verità. Questo aspetto distingue molto quella che è la dimensione tecnologica del sapere e dell’utilizzo del sapere da quello che invece è l’amore al sapere. Il sapere va ricercato e condiviso“.
La già Presidente della IV Sezione della Corte di Cassazione, Patrizia Piccialli, ha precisato: “È stata pubblicata recentemente in Italia la legge 132 del 23 settembre 2025 sull’intelligenza artificiale, che è quindi ora norma dello Stato. Prima della legge 132 avevamo il regolamento della Comunità europea, il numero 1689 del 2024. Che cosa cambia? Abbiamo sempre il tema della centralità del contributo umano e dell’esigenza di trasparenza degli algoritmi. L’avevamo sottolineato al Convegno di maggio come linea ispiratrice di quello che avrebbe dovuto essere la linea di condotta delle aziende sanitarie e dei medici, ma adesso possiamo dire che i principi sono stati normativamente affermati dal Legislatore. Si è trattato di importanti passi avanti, in quanto abbiamo finalmente la certezza che il contributo dell’uomo deve essere centrale: non è la macchina che deve dominare, ma è l’essere umano che deve governare la macchina. Si è promossa l’esigenza della trasparenza degli algoritmi in campo sanitario e giudiziario, un tassello fondamentale. Ora non resta che imparare a governare e disciplinare concretamente l’IA“.
L’avvocato Gianfranco Iadecola, già Sostituto Procuratore Generale della Corte di Cassazione, ha fatto emergere i dettagli relativi al codice di utilizzo dell’IA: “È necessario un intervento con nuove disposizioni del legislatore per favorire le scelte comportamentali del medico. L’applicazione dei sistemi di intelligenza artificiale propone infatti dei problemi rispetto a quelli che sono i principi che tradizionalmente regolano la responsabilità medica da un punto di vista penale. Il Diritto Penale, il Codice Penale si avvale di istituti e dei principi che stentano a poter essere applicati agevolmente alle problematiche che insorgono per effetto del ricorso ai sistemi di IA. Questo perché per esempio il baluardo della responsabilità professionale del medico in diritto penale è l’accertamento di una sua colpa. La caratteristica della colpa del nostro sistema penale consiste nel rimprovero che viene mosso al soggetto che agisce, in questo caso al medico, di non avere previsto determinati eventi che viceversa era possibile prevedere. Lo chiama quindi a rispondere di quegli eventi, appunto perché potevano essere evitati qualora li avesse previsti come avrebbe dovuto fare. Nell’ambito della più importante applicazione, quella più performante dell’intelligenza artificiale, di quella cosiddetta generativa o autogenerativa, la caratteristica di fondo è viceversa l’imprevedibilità del ragionamento che la macchina fa per pervenire a determinate conclusioni, che sarebbero poi le conclusioni di cui il medico dovrebbe tenere conto nello svolgimento della sua attività. Pensiamo alla formulazione di un diagnosi in cui non si capisce bene di quale patologia soffra il paziente e allora interrogo l’intelligenza artificiale, la quale mi propone una soluzione. Questa soluzione potrebbe essere il frutto di una elaborazione autonoma propria della macchina, perché questa macchina ha la capacità di impiegare non solo i dati che le vengono forniti in sede di programmazione, ma di arricchire la propria conoscenza acquisendoli in via autonoma e propria dall’esperienza circostante. Ecco il punto sul quale occorre intervenire normativamente: non è possibile che esista un affidamento totale del medico alla macchina, quindi occorrerà una revisione dei principi che governano l’attività del medico“.

Nella sua lettura, Claudio Buccelli, Professore Emerito di Medicina Legale dell’Università Federico II e presidente onorario di SIMLA, ha sottolineato: “È necessario riflettere su un argomento su cui incide molto l’impiego dell’intelligenza artificiale: la relazione tra medico e paziente. Nel momento in cui l’intelligenza artificiale intrude in questo rapporto, c’è forse una domanda fondamentale. Sarà in grado, in qualche maniera, di modificarlo, questo rapporto? E sarà in grado – devo anticipare la peggiore delle ipotesi -, di emarginare il medico avendo delle capacità intrinseche, tecniche, per farlo? Sappiamo però che la relazione medico-paziente è anche una relazione effettivamente tecnica, perché alla fine il medico fa una diagnosi e delle prescrizioni servendosi della scienza. La relazione medico-paziente è fatta proprio in maniera percettibile, percettiva, di valori: la fiducia, la reciproca comprensione, addirittura c’è un transfert tra il paziente e il medico e viceversa. Tutto questo la macchina, al momento, non lo dà. Quindi, nel momento in cui la figura del medico viene sostituita dalla macchina, che addirittura fa ragionamenti, dà le risposte, sollecita le domande, mettendo talvolta il paziente e i suoi familiari nell’inganno psicologico di stare parlando con un’entità che è più preparata dello stesso medico. Dove andremo a finire? Saremo in grado di dominare questo fenomeno? Come? Quando? In quale misura? Ce lo dobbiamo dire adesso, perché adesso stiamo gettando le basi. È come se io decidessi di andare in una determinata città, ma il destino di arrivo sta nella partenza. Devo sapere io stesso come mi devo muovere, perché sennò sarà troppo tardi e non avrò più vantaggi, bensì solo gli aspetti negativi di questa intrusione, di questa macchina, che ragiona al posto del medico…ammesso che ragioni“.
Enzo Molina, Presidente Lilt Parma e Farmacologo , ha stimolato i presenti entrando nelle pieghe di un eterno dualismo: “Da una parte c’è uno strumento, una macchina, che è il supercomputer, il quale cerca di imitare quelle che sono le attività di un cervello umano. Dall’altra abbiamo il cervello umano, siamo quindi dinnanzi a due entità appartenenti a due mondi completamente diversi. Uno è quello che abbiamo costruito noi, il computer, è una macchina ed è definita dal punto di vista matematico, è un sistema complicato, fatto da tante mille piccole parti di cui però si ha lo schema. Il sistema complicato ha il vantaggio che lo puoi scindere nelle piccole pliche. Dall’altra parte abbiamo il cervello, che fa parte della natura più complessa, anche se questo matematicamente è un errore, perché non si può definire una cosa più complessa, sarebbe come dire “più infinita”. Il problema è proprio mettere insieme questi due universi. La macchina che abbiamo costruito ha un linguaggio e glielo abbiamo dato noi, mentre la natura ha un linguaggio che ci ha dato l’evoluzione. Riusciranno a parlarsi queste due sfere?“.
A seguire, nel pomeriggio, Marco Ioppi, Presidente CAM dell’Omceo di Trento ha illustrato il gioco dell’IA nella relazione etica della cura: “Bisogna capire come l’intelligenza artificiale può interferire sulla relazione medico-paziente. Il timore è che il medico possa venire sostituito dall’intelligenza artificiale. C’è però anche un’opportunità da cui possiamo addirittura dedurre che l’intelligenza artificiale possa esserci d’aiuto, per andare a recuperare quel ruolo centrale che il medico dovrebbe avere. Intendo in questo caso esempi in cui è possibile utilizzare tutte le potenzialità dell’intelligenza artificiale per far sì che il medico vada a dedicare più tempo alla relazione medico-paziente, lasciando che l’intelligenza artificiale – oltre ad aiutare il medico a fare diagnosi più corrette e personalizzate e ad evitare errori – vada anche a soddisfare quei compiti di tipo amministrativo e organizzativo che solitamente distolgono il medico dalla sua attività principale. Essa può rappresentare un’eccezionale opportunità per aiutare il medico a recuperare il ruolo centrale nella relazione di cura, all’interno della quale deve avere ed essere responsabile di ogni processo decisionale. L’IA può essere utilizzata per permettere ai medici diagnosi più veloci e precise, terapie personalizzate e meno errori. Inoltre l’IA utilizzata per compiti amministrativi , burocratici e organizzativi può fare si che il medico possa dedicare più tempo al all’ascolto del paziente. Occorre soprattutto capire come attraverso l’IA si possa affinare quella modalità di relazione, per aumentare quella empatia, umanità, gentilezza che il medico deve avere nei confronti del paziente. La sfida è recuperare un umanesimo digitale“.

Gian Paolo Ceda, Professore Ordinario di Medicina Interna e Responsabile Commissione Formazione e Aggiornamento OmceO Parma ha inoltre affermato: “Esiste un problema di certezza e credibilità della ricerca scientifica, nel momento in cui questa viene attuata dall’intelligenza artificiale e dalle sue applicazioni. È necessario ricordare quelli che sono i principi etici che sono alla base della ricerca scientifica, i quali interessano soprattutto l’uomo ma anche la macchina. Chat GPT è capace, è credibile come autore della ricerca scientifica? Dai dati che stanno emergendo si è visto che potrebbe assumere un ruolo autoriale, manca tuttavia di alcuni requisiti fondamentali per avere sostanzialmente questo ruolo, come ad esempio la responsabilità di quello che produce, una caratteristica tipica del soggetto umano che la macchina non possiede. La macchina è inoltre caratterizzata da una certa opacità dei dati, cioè dati che vengono utilizzati per addestrare questi strumenti. Non sappiamo effettivamente su cosa vengono addestrate queste strumentazioni: sul web in generale, su specifici argomenti? Non conosciamo nemmeno il loro esatto funzionamento, non lo sanno con precisione nemmeno gli esperti del settore. Ecco che quindi il funzionamento dell’algoritmo, il percorso profondo che porta al risultato di una domanda o di una ricerca resta ancora oscuro“.
Questa invece è la situazione descritta da Francesco Giuliani, Responsabile UOC Innovazione e Ricerca, Direzione Generale/Scientifica IRCSS Casa Sollievo della Sofferenza a San Giovanni Rotondo (Foggia): “C’è un tema da non sottovalutare, quello della contestabile caratteristica di senzienza dell’intelligenza artificiale. In tanti costruiscono un parallelo tra quello che fa l’uomo e quello che fa la macchina e questo parallelo spesso si spinge un po’ troppo oltre. Questo tipo di visione ha dei limiti: si riescono comunque a costruire delle alleanze tra macchina e uomo che sono molto profittevoli per l’essere umano. Ci sono ad esempio una serie di applicazioni che stiamo sviluppando all’interno della nostra realtà ospedaliera e che consentono, grazie all’intelligenza artificiale, di aumentare le potenzialità del medico nei confronti del paziente, soprattutto in merito alle idee che si possono generare grazie all’IA, per spiegare meglio le patologie o per personalizzare alcuni approcci con il paziente, anche di carattere psicologico. Si parte da un conflitto, ma talvolta fortunatamente si ottiene un’alleanza che ha comunque un valore positivo e virtuoso per l’essere umano“.

Salvatore Lorenzoni, Presidente dell’OmceO di Sassari, ha illustrato gli aspetti meno noti e positivi dell’utilizzo dell’IA: “Il rapporto tra il medico e il paziente rispetto all’intelligenza artificiale è un tassello cruciale, non solo nei confronti dell’IA ma verso tutte le tecnologie che fanno parte della medicina, dell’assistenza sanitaria. Occorre riflettere profondamente su tematiche come il consenso, l’informazione e sul rischio della spersonalizzazione dell’assistenza sanitaria. C’è poi un’ulteriore problematica degna d’attenzione: l’erogazione di prestazioni standard che danno garanzie sino a un certo livello a tutti ma che inevitabilmente escludono una quota di persone, ovvero quel fenomeno che qualcuno chiama McDonaldizzazione della Sanità“.
La relazione di Stefano Bettati, Professore Ordinario e Direttore del Dipartimento di Medicina e Chirurgia Unipr, si è invece incentrata sul così chiamato doping letterario: “Ormai da decenni è emersa una consapevolezza sul fatto che nella ricerca scientifica, soprattutto nella pubblicazione e divulgazione dei risultati, ci sia una condotta fraudolenta: si inventano, falsificano dati o usano dati altrui senza l’adeguato riconoscimento. Esiste anche una pletora di comportamenti scorretti, meno facilmente definibili, ma che vanno a detrimento, nel caso della ricerca in ambito medico, anche della salute delle persone. La consapevolezza è emersa da decenni, ma è molto difficile venire a capo di questo problema che anzi si sta progressivamente inasprendo. L’inasprimento è causato da un sistema di valutazione e conferimento del merito (nel senso proprio di progressione di carriera o di attrazione di finanziamenti) che ha ridotto tutto a una mera misurazione quantitativa di parametri misurabili, i quali incentivano a loro volta delle condotte scorrette. Se io vengo misurato sulla base di quanti articoli produco ovviamente sarò incentivato a produrne più che posso. Ed ecco che non tutti rimangono dentro gli argini di quelle che sono le condotte corrette, scovando mille sistemi per cercare di aumentare la propria produttività. Nonostante i progressi delle tecniche di intelligenza artificiale che permettono di andare a caccia di questi fenomeni, diventa difficile combatterli perché è il sistema stesso che – con un meccanismo diabolico – li incentiva. Per risolvere il problema bisognerebbe investire sulla formazione delle persone fin dall’inizio nelle tecniche in cui si cerca di riscontrare questi fenomeni e soprattutto si dovrebbe cercare di rimettere mano a questi meccanismi di valutazione della qualità nella ricerca, divenuta ormai una valutazione non più della qualità ma della quantità. Dietro questi processi c’è purtroppo abche un business duraturo, difficile da smontare perché è un meccanismo a livello mondiale ormai rodato che coinvolge interessi di una parte di editoria particolarmente aggressiva e riviste pirata“.

Sul portale della Fnomceo è uscito il seguente comunicato dedicato all’incontro: https://portale.fnomceo.it/omceo-parma-il-cinismo-di-diogene-o-la-prassi-relazionale-di-ippocrate-la-spersonalizzazione-del-medico-o-la-riscoperta-dellatto-medico-di-fronte-alla-digitalizzazione-clinico-tera/
Sevizio del Tg Parma dedicato al nostro Convegno: https://www.12tvparma.it/puntata/tg-parma-edizione-del-16-11-2025-ore-1245/intelligenza-artificiale-e-cura-i-medici-di-parma-tracciano-la-rotta/
Articolo uscito sulla Gazzetta di Parma dedicato all’iniziativa: articolo Gazzetta di Parma


