Vedi traduzione automatica
Questa è una traduzione automatica. Per vedere il testo originale in inglese cliccare qui
#News
{{{sourceTextContent.title}}}
AI, integrità dei dati e scienze della vita: Non aspettiamo che qualcuno muoia
{{{sourceTextContent.subTitle}}}
L'idea di macchine che possono pensare è diventata l'argomento della fantascienza nei primi anni del XX secolo e ha reso interessanti letture. La scienza è stata raggiunta e il termine "intelligenza artificiale" (AI) è stato coniato da John McCarthy al Dartmouth Summer Research Project on Artificial Intelligence (DSRPAI) nel 1956, dove il primo programma di IA, il Logic Theorist, è stato presentato da Allen Newell, Cliff Shaw, e Herbert Simon.
{{{sourceTextContent.description}}}
La ricerca sull'intelligenza artificiale fiorì nei primi anni fino a quando non fu rallentata dai limiti della potenza di calcolo, ma fu rinvigorita negli anni '80 sia dagli strumenti di calcolo che dagli investimenti quando John Hopfield e David Rumelhart diffusero tecniche di apprendimento profondo che permettevano ai computer di imparare usando l'esperienza.1 La limitazione successiva all'avanzamento dell'intelligenza artificiale era nell'archiviazione informatica, che alla fine degli anni '90 non era più un problema, poiché i progressi dell'archiviazione producevano soluzioni economiche e ubiquitarie. Nel nostro mondo moderno, portiamo nella nostra vita quotidiana dispositivi che riducono la capacità di memorizzazione dei supercomputer di pochi decenni fa. L'intelligenza artificiale è ormai diventata tradizionale, lasciando i laboratori ed entrando nei nostri salotti con assistenti intelligenti (Alexa e Siri) e smart TV. L'IA è al telegiornale e nelle nostre lingue, visto che passa appena una settimana senza che uno spot televisivo o qualcuno nei nostri ambienti sociali menzioni l'IA. Ma cos'è l'IA e come potrebbe avere un impatto sulle nostre vite se applicata alle scienze della vita?
Spazzatura In, Spazzatura Out
Ai fini di questa discussione, possiamo convenire che l'IA può risultare in previsioni, classificazioni e decisioni di analisi computazionale di grandi insiemi di dati basati sull'apprendimento automatico (ML) da fonti di dati rappresentativi e ulteriormente informati da tali dati e relativi risultati. In questo contesto, l'influenza aviaria può, ad esempio, presentare un potenziale significativo per migliorare l'efficienza delle attività di ricerca e sviluppo, come la definizione di obiettivi validi per ulteriori indagini. Oppure, l'IA può offrire una maggiore capacità di produzione riducendo il potenziale di difetti e accelerando la revisione, il rilascio e lo smaltimento dei prodotti per la spedizione attraverso la catena di fornitura. Tuttavia, permane il rischio che questo potenziale di grande ricompensa, in quanto errori o perdite causate da scarsi risultati dell'influenza aviaria potrebbero avere un impatto negativo sulla salute pubblica
Una sfida dell'IA oggi è lo sviluppo e la gestione di ML e AI per gestire il grande volume di dati disparati e non standardizzati che sono disponibili. L'intelligenza artificiale viene rapidamente adottata nella nostra vita, come dimostrano gli esempi di elettronica di consumo. Karan Bedi, COO di Blaupunkt Televisions India, riferisce che "le aziende di beni di consumo non lasciano nulla di intentato per potenziare i loro prodotti con tecnologie digitali e IA" e "molti produttori di elettrodomestici integrano l'internet degli oggetti e l'IA nei prodotti per la casa "2. Un esempio comune è la smart TV, la cui quota unitaria globale è salita a oltre il 70% dei televisori venduti nel 2018, dal 55% nel 2015.3
Considerare come i dati sbagliati potrebbero influenzare l'esperienza di IA. L'integrità e la qualità dei dati giocano un ruolo chiave nei risultati dell'intelligenza artificiale. Un ingresso di scarsa qualità può produrre un'uscita AI inaspettata o errata. Prendiamo ad esempio l'uso di una smart TV in cui i dati Netflix sono stati inseriti con noncuranza (ad es. programmi di interesse selezionati a caso) o il login di un account Hulu è stato inserito da un ospite di casa. Quando un algoritmo utilizzato per la pubblicità mirata o la programmazione suggerita in uno di questi servizi viene applicato all'insieme di dati, i risultati potrebbero non avere alcuna rilevanza per l'attuale spettatore. Anche se questo può essere irritante o inutile, non è in pericolo di vita.
Tuttavia, l'inserimento di dati disattento o set di dati errati relativi alle applicazioni delle scienze della vita potrebbe avere conseguenze che includono la mortalità. "Gli algoritmi di apprendimento automatico dipendono in larga misura da dati di formazione accurati, puliti e ben etichettati da cui imparare per poter produrre risultati accurati", dice Ron Schmelzer.4 Durante il ML, input parziali o erronei possono causare output imprecisi o anomali che non hanno rilevanza per il paziente in questione. Mentre gli errori sono improbabili, l'accettabilità dell'errore diminuisce drasticamente se si considera qualsiasi impatto negativo sulla salute del paziente e sulla sicurezza pubblica. Visualizzare annunci pubblicitari di programmazione Netflix che non sono di nessun interesse è una cosa - essere dosati con la medicina sbagliata è un'altra cosa del tutto diversa.
Iniziare con la fine nella mente
È emerso un mercato di soluzioni per la preparazione dei dati (tra cui ClearStory Data, Datameer, Datawatch, Melissa Data, Oracle, Paxata, SAP, SAS, TIBCO Software, Trifacta e Unifi Software) che eseguono il data wrangling, la pulizia dei dati e la preparazione dei dati per abilitare ML e AI. In realtà, "la stragrande maggioranza del tempo del progetto di apprendimento automatico" è assorbito da queste attività.4 Tuttavia, al ritmo di creazione dei dati, è probabile che la capacità di preparare i dati sarà superata dall'arretrato di dati da preparare.
La preparazione dei dati continua a richiedere un certo livello di interazione umana. Come minimo, un essere umano deve configurare le specifiche per la trasformazione dei dati durante l'ETL (estrazione, trasformazione e caricamento) durante la raccolta di dati da fonti multiple o la migrazione dei dati verso un archivio dati centrale. Tuttavia, il wrangling dei dati rappresenta un coinvolgimento umano potenzialmente maggiore, in quanto il contesto può essere necessario per eseguire elaborazioni avanzate per la trasformazione di dati solidi
Indipendentemente dal fatto che le soluzioni di preparazione dei dati possano o meno tenere il passo, rimane l'argomento a favore del miglioramento dell'integrità e della qualità dei dati man mano che vengono creati, piuttosto che tentare di ripulirli in un secondo momento, mentre sono in fase di preparazione per ML e AI. Ciò avviene in gran parte attraverso la gestione dei dati e la governance delle informazioni, dove l'integrità e la qualità dei dati sono principi centrali. Spetta a coloro che creano soluzioni di IA per le scienze della vita applicare la massima attenzione all'integrità e alla qualità dei dati per mitigare il rischio di impatto negativo sulla salute dei pazienti e sulla sicurezza pubblica. Le soluzioni di IA per le scienze della vita sono ritenute di livello superiore rispetto ad altri settori industriali.
L'integrità dei dati è un fattore critico di successo
L'integrità e la qualità dei dati sono fattori critici di successo per le soluzioni di IA nelle scienze della vita. Gli standard e la verifica dell'integrità e della qualità dei dati devono essere elevati per i set di dati per i quali si intende applicare il metodo ML/AI. La semplice esecuzione della convalida del sistema informatico (CSV) o la gestione dei sistemi informatici in condizioni CGMP non è sufficiente a garantire l'integrità e la qualità dei dati.
L'integrità dei dati e la qualità dei dati devono essere temi comuni in un sistema di gestione della qualità maturo e proattivamente integrato nella gestione dei dati e nella governance dell'informazione come attività principale dell'azienda. Troviamo che quando le aziende comprendono che l'integrità e la qualità dei dati sono fattori critici di successo, il risultato è un vantaggio competitivo. Si possono verificare meno errori umani e le indagini possono essere completate più rapidamente e con successo quando lo fanno. Le attività di M&A sono rese più efficaci ed efficienti in quanto la due diligence è più facilmente facilitata e la valutazione è più chiara con dati difendibili e con risorse umane che lo capiscono e possono spiegarlo. Questi fattori di successo portano a migliori risultati dell'IA con una migliore capacità di fornire prodotti ai pazienti e un valore aggiunto ai proprietari e agli azionisti.
Ora che l'IA è diventata più comune, ci vengono presentate in modo molto diretto domande pratiche ed etiche mentre "permettiamo all'IA di migliorare costantemente e gestire l'amok nella società "1. Quando un'IA basata su dati negativi finirà in una conseguenza di lesioni umane o addirittura di morte? A che punto sarà coinvolto l'intento maligno di influenzare gli esiti dell'influenza aviaria per provocare lesioni o morte? Ricordate gli "Omicidi di Tylenol del 1981" e come le conseguenti azioni normative e industriali hanno cambiato per sempre il modo in cui confezioniamo i farmaci.5 Ci comporteremo in modo reattivo, in attesa di un "evento a livello di Tylenol" per costringerci a governare noi stessi e i dati negativi che stiamo pompando attraverso l'IA? Oppure ci comporteremo in modo proattivo per gestire con fervore i nostri dati al fine di prevenire impatti negativi sulla salute dei pazienti e sulla vita umana?