Un importante studio mette in luce il pregiudizio dell'intelligenza artificiale nell'assistenza sanitaria / Major study shines spotlight on AI healthcare bias
Un importante studio mette in luce il pregiudizio dell'intelligenza artificiale nell'assistenza sanitaria / Major study shines spotlight on AI healthcare bias
Nuove ed importanti ricerche sui pregiudizi insiti nell'uso dell'intelligenza artificiale in ambito sanitario hanno portato alla formulazione di raccomandazioni per aumentare la trasparenza sulla questione.
Le nuove raccomandazioni mirano a garantire che i set di dati utilizzati per addestrare e testare i sistemi di intelligenza artificiale medica rappresentino l'intera diversità delle persone per cui la tecnologia verrà utilizzata. Questo perché i sistemi di intelligenza artificiale spesso funzionano meno bene per le persone che non sono adeguatamente rappresentate nei set di dati. Le persone che appartengono a gruppi minoritari hanno maggiori probabilità di essere sottorappresentate nei set di dati, quindi potrebbero essere colpite in modo sproporzionato dal pregiudizio dell'intelligenza artificiale.
"I dati sono come uno specchio, che riflette la realtà", ha affermato il ricercatore capo Dr. Xiao Liu, professore associato di intelligenza artificiale e tecnologie sanitarie digitali presso l'Università di Birmingham. "Quando distorti, i dati possono amplificare i pregiudizi sociali. Ma cercare di correggere i dati per risolvere il problema è come pulire lo specchio per rimuovere una macchia dalla maglietta.
“Per creare un cambiamento duraturo nell’equità sanitaria, dobbiamo concentrarci sulla correzione della fonte, non solo del riflesso”.
Le raccomandazioni stabilite nel rapporto includono:
- Incoraggiare lo sviluppo dell'intelligenza artificiale medica utilizzando set di dati sanitari appropriati che rappresentino adeguatamente tutti nella società, compresi i gruppi minoritari e svantaggiati
- Aiutare chiunque pubblichi set di dati sanitari ad identificare eventuali distorsioni o limitazioni nei dati
- Consentire a coloro che sviluppano tecnologie di intelligenza artificiale medica di valutare se un set di dati è adatto ai propri scopi
- Definire come le tecnologie di intelligenza artificiale dovrebbero essere testate per identificare se sono distorte e quindi funzionano meno bene in determinate persone
"È fondamentale disporre di set di dati trasparenti e rappresentativi per supportare lo sviluppo e l'uso responsabile ed equo dell'intelligenza artificiale", ha affermato Dominic Cushnan, vicedirettore per l'intelligenza artificiale presso l'NHS England.
"Le raccomandazioni di STANDING Together giungono al momento opportuno, poiché sfruttiamo l'entusiasmante potenziale degli strumenti di intelligenza artificiale e l'NHS AI Lab supporta pienamente l'adozione della loro pratica per attenuare i pregiudizi dell'intelligenza artificiale".
Published in The Lancet Digital Health and NEJM AI, the ‘STANDING Together (STANdards for data Diversity, INclusivity and Generalisability)’ study involved more than 350 experts from 58 countries. STANDING Together is led by researchers at University Hospitals Birmingham NHS Foundation Trust and the University of Birmingham.
The new recommendations aim to ensure that datasets used to train and test medical AI systems represent the full diversity of the people that the technology will be used for. This is because AI systems often work less well for people who aren’t properly represented in datasets. People who are in minority groups are particularly likely to be under-represented in datasets, so may be disproportionately affected by AI bias.
“Data is like a mirror, providing a reflection of reality,” said chief investigator Dr Xiao Liu, Associate Professor of AI and Digital Health Technologies at the University of Birmingham. “When distorted, data can magnify societal biases. But trying to fix the data to fix the problem is like wiping the mirror to remove a stain on your shirt.
“To create lasting change in health equity, we must focus on fixing the source, not just the reflection.”
Recommendations set out in the report include:
- Encouraging medical AI to be developed using appropriate healthcare datasets that properly represent everyone in society, including minoritised and underserved groups
- Helping anyone who publishes healthcare datasets to identify any biases or limitations in the data
- Enabling those developing medical AI technologies to assess whether a dataset is suitable for their purposes
- Defining how AI technologies should be tested to identify if they are biased, and so work less well in certain people
“It is crucial that we have transparent and representative datasets to support the responsible and fair development and use of AI,” said Dominic Cushnan, deputy director for AI at NHS England.
“The STANDING Together recommendations are highly timely as we leverage the exciting potential of AI tools and NHS AI Lab fully supports the adoption of their practice to mitigate AI bias.’’
Commenti
Posta un commento