Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
Medicina 5.0: algoritmi di apprendimento automatico nel settore sanitario di Medica Magazine
{{{sourceTextContent.subTitle}}}
Intervista con la Prof. Alena Buyx, direttrice dell'Istituto di storia ed etica della medicina, cattedra di etica in medicina e tecnologie sanitarie, Università Tecnica di Monaco (TUM) e membro del Consiglio di etica tedesco
{{{sourceTextContent.description}}}
L'intelligenza artificiale mantiene la promessa di salvezza quando si tratta di medicina: ha lo scopo di liberare il personale medico, risparmiare tempo e denaro e svolgere i compiti in modo affidabile e instancabile. Ma prima che gli algoritmi di IA siano autorizzati a diagnosticare le malattie, molte domande tecniche ed etiche hanno ancora bisogno di risposte. Scoprite come l'IA e "Medicine 5.0" possono trasformare l'assistenza sanitaria alla fiera MEDICA 2019 nel FORUM MEDICA ECON di TK.
In questa intervista con MEDICA-tradefair.com, la Prof. Alena Buyx parla di algoritmi di machine learning black box e descrive le sfide che pongono alla medicina e alla politica.
Prof. Buyx, cos'è "Medicina 5.0"?
Prof. Alena Buyx: "Medicina 5.0" si riferisce ad algoritmi di apprendimento automatico che possono anche prendere decisioni autonome. "Autonomo" in questa impostazione significa che possono imparare da soli le regole di elaborazione di grandi dati, cioè grandi insiemi di dati, e usarli per eseguire successivamente una diagnosi e raccomandare un trattamento. Tuttavia, non sempre capiamo cosa c'è dietro ogni singolo passo che hanno utilizzato per formulare queste raccomandazioni.
Questi algoritmi funzionano come scatole nere di cui non conosciamo i processi?
Buyx: la medicina cerca di evitare l'uso dei classici algoritmi delle scatole nere. Si tratta di un requisito etico, che è anche tra le opinioni che affermo: Dobbiamo ancora essere in grado di capire cosa succede all'interno della scatola nera. Questo non riguarda necessariamente ogni singolo passo, ma dovremmo identificare i parametri decisionali che un algoritmo utilizza. Questi dovrebbero essere criteri medici e non criteri in qualche modo statisticamente significativi ma non clinicamente rilevanti.
Un esempio ben noto è un algoritmo che aveva il compito di diagnosticare la tubercolosi attraverso i raggi X. Tra le altre cose, l'algoritmo ha guardato i bordi delle immagini a raggi X e dopo l'insegnamento stesso, ha determinato che le immagini a raggi X mobili spesso mostrano anomalie coerenti con la tubercolosi. Tuttavia, ciò è dovuto al fatto che i sistemi mobili sono più comunemente utilizzati nei paesi ad alto carico di tubercolosi. Inutile dire che si tratta di un fattore del tutto non medico che non promuove l'accuratezza clinica. Questo modello di scatola nera non deve essere ammesso. Ha bisogno di un'annotazione per descrivere i criteri di massima. Dobbiamo anche essere in grado di modificare l'algoritmo in modi in cui non utilizza più un certo criterio.
In che modo questi algoritmi avrebbero un impatto sul sistema sanitario?
Buyx: Finora, gli algoritmi autonomi non hanno visto un'implementazione pratica estesa perché non sono ancora abbastanza validi e comportano molte sfide. Se riusciamo a progettare algoritmi etici, può innescare una trasformazione positiva in medicina. Ma solo se sono in grado di effettuare una diagnosi più accurata di un medico o di formulare raccomandazioni terapeutiche autorevoli e se queste conclusioni si basano su basi mediche ragionevoli. In questo modo i pazienti hanno potuto liberare tempo per i pazienti, evitare errori e ridurre i costi.
Ne ha accennato brevemente prima: Quali preoccupazioni o problemi etici sollevano questi algoritmi?
Buyx: in primo luogo, gli algoritmi devono presentare prove complete ed eseguire in modo affidabile e preciso per evitare rischi e danni. Non dobbiamo semplicemente cadere in preda alla nostra ossessione per la tecnologia. In secondo luogo, ciò non deve portare ad ampie idee sbagliate sul fatto che gli algoritmi e l'IA sostituiranno i medici o altri professionisti del settore sanitario. Gli algoritmi svolgono un compito specifico e ben definito e non sono in grado di cercare altre caratteristiche che un medico vede quando visita un paziente, il che significa che non possono fare una diagnosi differenziale completa.
In terzo luogo, non ci deve essere alcun pregiudizio algoritmico che derivi da set di dati o programmazione. Tutti abbiamo sentito parlare di algoritmi di riconoscimento facciale in cui i rispettivi set di dati non sono così diversi come il mondo reale. Ecco perché questi tipi di algoritmi sono grandi nell'identificare i volti degli uomini bianchi ma faticano a riconoscere i volti delle donne o delle persone di colore. Dovremo correggerlo attraverso i dati dell'addestramento.
Dobbiamo anche considerare come e in che misura educare i pazienti sul ruolo degli algoritmi e come garantire l'autonomia del paziente quando gli algoritmi raggiungono lo stato di un vero e proprio consulto medico come sistemi di assistenza.
Che cosa devono fare i responsabili politici per creare il giusto contesto?
Buyx: I responsabili politici devono sicuramente fornire un quadro di riferimento se questi tipi di algoritmi devono essere approvati come dispositivi medici. Inutile dire che il processo di approvazione è diverso da quello di una macchina ad ultrasuoni. Uno dei compiti principali in questo contesto è quello di rendere questi processi sostenibili, etici e socialmente responsabili. La sfida più grande è rappresentata dalle applicazioni commerciali e sanitarie. I requisiti imposti in questo settore non sono neanche lontanamente rigorosi come quelli richiesti per i dispositivi medici.
Un certo numero di applicazioni per la salute mentale utilizzano algoritmi artificialmente intelligenti. Dobbiamo decidere come gestire la situazione se queste applicazioni coinvolgono direttamente i consumatori o i pazienti senza la supervisione e il coinvolgimento del medico. Se le applicazioni sono destinate a fornire un supporto clinico efficace che prima rientrava nell'ambito di responsabilità di un medico (e giustamente), dobbiamo assicurarci che queste applicazioni siano classificate e trattate come potenziali dispositivi medici.