Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
La rete di apprendimento profonda individua, localizza le fratture sui raggi x del polso
{{{sourceTextContent.subTitle}}}
Un gruppo da Singapore ha dimostrato che una rete neurale dell'avvolgimento di rilevazione dell'oggetto (CNN) potrebbe individuare e localizzare esattamente le fratture sui raggi x del polso, secondo uno studio del 30 gennaio pubblicato in radiologia: Intelligenza artificiale. Il metodo può essere più verificabile di CNNs tradizionale.
{{{sourceTextContent.description}}}
Gli studi priori hanno dimostrato che CNNs può individuare le fratture sulle radiografie, hanno scritto primo l'autore Yee Liang Thian, MD, dell'università nazionale di Singapore e di colleghi, ma questi metodi mettono a fuoco sulla classificazione delle immagini come le fratture o non fratture senza la componente della localizzazione. Questa vasta classificazione lo rende duro affinchè i clinici verifichi i risultati.
«Il compito di rilevazione dell'oggetto comprende due domande fondamentali circa un'immagine: che oggetto è in e dove è all'interno dell'immagine,» Thian et al. ha aggiunto. «Questo è contrariamente agli studi priori che comprendono l'apprendimento profondo che si è avvicinato alla rilevazione di frattura come problema di classificazione di immagine, che descrive che cosa è nell'immagine, ma non dove è.»
Gli autori hanno estratto più di 7.300 radiografie del polso da un ospedale PACS ed i radiologi hanno annotato tutte le fratture dell'ulna e del raggio. Novanta per cento dei dati sono stati usati per preparare il modello, 10 per cento delle immagini sono stati conservati per la convalida.
In generale, il modello individuato e localizzato correttamente 91 per cento (310/340 di immagini) e 96 per cento (236/245 di immagini) di tutte le fratture dell'ulna e del raggio sulle viste frontali e laterali, rispettivamente. Su una base di per-immagine il CNN ha raggiunto una sensibilità, una specificità e un AUC di 96 per cento, 83 per cento e 0,92, rispettivamente per la vista frontale. Per le viste laterali quei numeri erano 97 per cento, 86 per cento e 0,93, rispettivamente. La sensibilità, la specificità e i AUC di per-studio erano 98 per cento, 73 per cento e 0,89, rispettivamente.
«La rete di rilevazione dell'oggetto utilizzata nel nostro studio fornisce la classificazione come pure le informazioni spaziali della localizzazione, che sono più informative di singola etichetta di classificazione e facilmente verificabile dal clinico,» gli autori hanno scritto. «Tali informazioni di posizione sarebbero utili nello sviluppare gli algoritmi clinici d'apprendimento profondi per aiutare i radiologi nella segnalazione.»
Thian ed i colleghi hanno riferito che la loro rete ha fatto le etichette erroneamente positive sulle vecchie fratture o deformità, che hanno creduto ha indicato per sovrapporrsi nelle caratteristiche istruite delle fratture acute. Malgrado questo, il gruppo li ha scritti ha dimostrato la fattibilità della loro rete di rilevazione dell'oggetto che può fornire una pietra facente un passo importante per lo sviluppo futuro di AI.
«La capacità di predire le informazioni di posizione dell'anomalia con le reti neurali profonde è un punto importante verso sviluppare clinicamente gli strumenti utili di intelligenza artificiale per aumentare il radiologo che riferisce,» gli autori hanno concluso.