Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
L'AI migliora la comprensione del discorso degli utenti di apparecchi acustici
{{{sourceTextContent.subTitle}}}
In ambienti rumorosi, è difficile per gli utenti di apparecchi acustici o di impianti acustici capire il loro partner di conversazione perché gli attuali processori audio hanno ancora difficoltà a concentrarsi su fonti sonore specifiche. In uno studio di fattibilità, i ricercatori del Hearing Research Laboratory dell'Università di Berna e dell'Inselspital suggeriscono ora che l'intelligenza artificiale potrebbe risolvere questo problema.
{{{sourceTextContent.description}}}
Gli apparecchi acustici o gli impianti acustici non sono attualmente molto bravi a filtrare selettivamente il discorso specifico da molte fonti sonore per chi li indossa - una capacità naturale del cervello umano e del senso dell'udito conosciuta in audiologia come "effetto cocktail party". Di conseguenza, è difficile per gli utenti di apparecchi acustici seguire una conversazione in un ambiente rumoroso.
I ricercatori del laboratorio di ricerca sull'udito del centro ARTORG dell'Università di Berna e dell'Inselspital hanno ora ideato un approccio insolito per migliorare gli apparecchi acustici in questo senso: microfoni ausiliari virtuali i cui segnali sono calcolati dall'intelligenza artificiale.
Più microfoni sono disponibili e più sono distribuiti, meglio un apparecchio acustico può concentrarsi sul suono proveniente da una particolare direzione. La maggior parte degli apparecchi acustici hanno due microfoni vicini a causa della mancanza di spazio. Nella prima parte dello studio, l'Hearing Research Laboratory (HRL) ha determinato che la posizione ottimale del microfono (per una migliore focalizzazione) è al centro della fronte - anche se questa è una posizione molto poco pratica. "Abbiamo voluto aggirare questo problema aggiungendo un microfono virtuale al processore audio utilizzando l'intelligenza artificiale", ha detto Tim Fischer, un ricercatore post-dottorato presso HRL, spiegando questo approccio non convenzionale.
Per l'impostazione dello studio, gli ingegneri del centro ARTORG hanno utilizzato il "Bern Cocktail Party Dataset", una raccolta di una varietà di scenari di rumore con fonti sonore multiple da registrazioni multi-microfono di utenti di apparecchi acustici o impianti cocleari. Utilizzando 65 ore di registrazioni audio (più di 78.000 file audio), hanno addestrato una rete neurale per perfezionare un algoritmo di direzionalità comunemente usato (beamformer). Per migliorare la comprensione del discorso, l'approccio di apprendimento profondo ha calcolato ulteriori segnali microfonici virtuali dalla miscela di dati audio. 20 soggetti hanno testato l'udito potenziato dall'AI in un test uditivo soggettivo accompagnato da misurazioni oggettive. In particolare in ambienti da cocktail party, i segnali microfonici campionati virtualmente hanno migliorato significativamente la qualità del discorso. Gli utenti di apparecchi acustici e di impianti cocleari potrebbero quindi beneficiare dell'approccio presentato, soprattutto in ambienti rumorosi.
"Penso che l'intelligenza artificiale rappresenti un contributo importante per la prossima generazione di protesi acustiche, in quanto ha un grande potenziale per migliorare la comprensione del parlato, soprattutto in situazioni di ascolto difficili", afferma Marco Caversaccio, medico capo e responsabile del reparto di otorinolaringoiatria.
Anche se in questo studio i microfoni aggiunti virtualmente hanno migliorato significativamente la qualità della comprensione del parlato con gli apparecchi acustici, ulteriori studi devono ancora superare alcuni ostacoli tecnici prima che la metodologia possa essere utilizzata negli apparecchi acustici o nei processori audio per impianti cocleari. Questo include, per esempio, un funzionamento stabile della comprensione direzionale anche in ambienti riverberanti.