How artificial intelligence is revolutionising medical diagnostics. / In che modo l'intelligenza artificiale sta rivoluzionando la diagnostica medica.


How artificial intelligence is revolutionising medical diagnostics. The procedure of the ENEA patent RM2012A000637 is very useful in this application. / In che modo l'intelligenza artificiale sta rivoluzionando la diagnostica medica. Il procedimento del brevetto ENEA RM2012A000637 è molto utile in questa applicazione.



Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa



artificial intelligence
Medical imaging is one of the first major frontiers for AI in healthcare / L'analisi delle immagini in medicina è una delle prime frontiere principali per l'IA nell'assistenza sanitaria(Photo: GE Healthcare)
From diagnosis and pathology to drug discovery and epidemiology, healthcare’s reliance on large amounts of data makes it one of the most exciting frontiers of artificial intelligence

Slowly but surely, artificial intelligence is infiltrating almost every aspect of our lives. It is already busy in the background of many routine tasks, powering virtual assistants like Siri and Alexa, recommendations from Amazon and Netflix, and underpinning billions of Google searches each day. But as the technology matures, AI’s impact will become more profound, and nowhere is that more apparent than in healthcare.
Healthcare’s data-heavy nature makes it an ideal candidate for the application of AI across multiple disciplines, from diagnosis and pathology to drug discovery and epidemiology. At the same time, the sensitivity of medical data raises fundamental questions around privacy and security. This juxtaposition makes healthcare one of AI’s most exciting frontiers and also potentially one of its most dangerous.
“You could look at almost any area of healthcare and see that advanced data science – if I could put it that way – has an enormous amount to offer,” Sir Mark Walport, chief executive of UK Research and Innovation (UKRI), told The Engineer. “This technology has huge potential right across the world of healthcare.”
As the former chief scientific adviser to the government and now the head of the UK’s new umbrella R&D body, Professor Walport is uniquely placed to comment on the UK’s AI healthcare policy. As part of the government’s Industrial Strategy, five new AI research centres were announced in November last year, to be located in Leeds, Oxford, Coventry, Glasgow and London. Backed by a £50m investment and due to open in 2019, these centres will focus on the rapidly advancing area of image analysis.   
“This is part of the Industrial Strategy Challenge Fund and it’s about making sure we create the best opportunities, both in terms of improving healthcare and also ensuring that we grow a really important industry,” said Walport. “And through our other programmes we’re funding a great deal of research more broadly. But this (imaging) was a deliberately focused call in an area where there’s obvious potential for transformation.”
Roughly 90 per cent of all healthcare data comes from imaging technology, yet the vast majority of it goes unanalysed. The main areas of focus for the UK centres will be radiology – the science of medical imaging – and histopathology, which deals with changes in tissue caused by disease. Applying AI across these two disciplines could reshape medical diagnostics. According to Walport, the ultimate goal is to train AIs across multiple diseases so that they can suggest potential diagnoses from an X-ray, for example.
“A chest X-ray is a chest X-ray, as it were, and there are a whole range of diagnoses that can be made from any X-ray, which vary from infectious disease right through to cancer,” he explained.
Walport stresses, however, that AIs will be assistive and won’t replace medical professionals any time soon. “The potential here is to have a computer algorithm assisting humans in what are quite difficult diagnoses,” he said.   
“We’ve seen some quite prominent recent examples in the media, for example the work between Google DeepMind and London’s Moorfields Hospital in the early diagnosis of macular degeneration using routinely collected images.”
Founded in 2010 and acquired by Google in 2014, DeepMind is one of the world’s leading AI companies, best known for its AlphaGo programme that toppled the world’s best players at the strategy board game Go. Since 2016, its medical arm DeepMind Health has been working with Moorfields Eye Hospital, training software to diagnose a range of ocular conditions from digitised retinal scans. That work resulted in anAI system able to recommend the correct referral decision for over 50 eye diseases with 94 per cent accuracy, matching the performance of top medical experts.
The media reaction that followed was overwhelmingly positive, but in another NHS collaboration, DeepMind Health generated less favourable headlines. Working with the Royal Free Hospital, the company developed an app called Streams that brings patient information together in one place to provide better visibility on life-threatening conditions such as sepsis and kidney failure. The app has been hailed as a success, but the Royal Free was criticised by the Information Commissioner’s Office (ICO) for the way in which the data of 1.6 million patients was shared with DeepMind.
In the wake of this, DeepMind made numerous changes, including the creation of an independent review board. However, in November 2018 it was announced that DeepMind Health would be fully incorporated into Google in California to allow Streams to be rolled out globally. This not only resulted in the scrapping of the review board, it reneged on a promise made by DeepMind that NHS data would never be connected to Google accounts or services.
DeepMind’s pioneering work highlights what’s possible for AI in healthcare, both good and bad. Its technology is already delivering impressive results, but its data policy and ever-closer union with Google give cause for concern. People may generally be happy for their data to be used constructively, but companies have a duty to be transparent on the extent of that use, as well as protect data from nefarious parties.
“When you ask people who are ill whether they want their data used for their benefit, there’s not much doubt about the response,” said Walport. “But equally, there is a responsibility to hold their data in a fashion that is confidential, that on the one hand allows the benefits to be delivered, but on the other hand protects against any potential risks.”
GE Healthcare is one of several prominent industry partners looking to harness data as part of the UK’s new imaging project. It forms part of the Oxford-based group NCIMI (National Consortium of Intelligent Medical Imaging), which is aiming to employ AI for more personalised care, earlier diagnosis and targeted treatment.
“The initial tranche of project areas for us are in a couple of different modality areas,” John Kalafut, imaging outcomes and solutions leader at GE Healthcare, told The Engineer. “One is molecular imaging – improving the quantitative reconstruction using deep learning methodology.”
The other is radiography, or plain X-rays. With all the bells and whistles of modern technology, the humble X-ray still plays a fundamental role in medicine, used to detect everything from fractures to cancer. It is estimated that at any given time in the UK there are over 300,000 X-rays which have been waiting more than 30 days for analysis. NCIMI will see GE Healthcare and its partners looking to reduce that significantly.
“Obviously one of the challenges the NHS has is not enough radiologists or radiographers to read studies,” Kalafut explained. “So we have some algorithms we’re developing with other partners and we’re going to adapt that and clinically validate that across this consortium.”
In the fast-moving world of startups, different radiology techniques are also getting the AI treatment. London-based Lancor Scientific is behind a new type of diagnostic device that, combined with AI, could change the way that cancers are detected. Its underlying technology, known as Opto-magnetic Imaging Spectroscopy (OMIS), is based on Maxwell’s equations in mathematics, which deal with electromagnetism. When light is shone onto human tissue, the magnetic component of the reflected light can determine how malignant it is.
“Our method of detecting cancer is based on an aspect of cancerous tissue, or cancerous proteins, that has been known for several decades in science, which is that the electromagnetic profile changes as new molecules begin to form,” explained Aamir Butt, Lancor Scientific’s founder and CEO.
Until now, the equipment required for this type of testing – magnetic and atomic force microscopes (MFMs and AFMs) – has been both huge and expensive, limiting its penetration. Lancor’s Tumour Trace technology uses the same principle as these enormous machines, but employs light rather than radiation to detect electromagnetic changes. The device weighs about 5kg and a single test should cost no more than £10, making the technology much more widely accessible. During trials at Southend Hospital in 2018, Tumour Trace detected cervical cancer with more than 90 per cent accuracy. Using AI to remove biological noise from the signals, Butt believes this can be improved to 97 per cent, and that the device could eventually be used to screen for all cancers. “Those trials are to do with cervical cancer, and we’re also just in the final stages of setting up a cancer research laboratory on the invitation of the Austrian government in Graz,” he said. “Because of that facility, by the end of 2019, we will have four more cancers enabled on the device.”
Ordinarily, vast data sets are required to train neural networks, with brute force repetition refining the machine intelligence. Tumour Trace, however, relies on fundamental physical constants for its detection method, and requires much smaller pools of data than other diagnostic AIs as a result.
“When you train artificial intelligence algorithms you need to have tens, if not hundreds of thousands of samples,” Butt explained. “But because our technology is based on an underlying signal based on fundamental physics, the number of samples we need is actually much lower.”
The device is due to hit the market in 2019 and Lancor expects to produce more than 10,000 units over the next five years. Theoretically, that could provide in the region of 500,000 cancer screenings per day, a powerful weapon in the frontline battle against a disease that impacts so many. Where early diagnosis of cancer can dramatically improve survival rates, for some diseases – such as Alzheimer’s – early detection is less about survival and more about understanding and management. Given the planet’s ageing population and the fact that Alzheimer’s has no known cure, the number of people with dementia is set to triple to 150 million by 2050. It has been described as a ticking time bomb for global health.
“This is, according to the WHO, the biggest healthcare challenge of the 21st century,” Sina Habibi, founder and CEO of Cognetivity, told The Engineer. “One in two in wealthy countries and nine in 10 in developing countries never receive diagnosis.”
According to Habibi, existing dementia testing is primitive, with doctors conducting simple Q&As about patient memory. MRIs and CT scans can help, but these are expensive and referrals often come back negative for dementia. Using AI, Cognetivity has developed a simple screen-based test that it believes could transform diagnosis of the disease.
“Since 1901 when Dr Alzheimer examined and characterised his first patients, the diagnosis process has not changed much,” Habibi explained. “We believe that from the time the physio-chemistry of the disease starts, it takes 20-25 years until you have symptoms of memory loss to the level that triggers the full-on process of examination.”
Cognetivity’s test involves subjects being shown around 100 images in five minutes. These are flashed by for just 150 milliseconds, with subjects required to respond as quickly as possible whether they’ve seen an animal or not. Images vary in their complexity, some featuring more information than others, making it more difficult to detect animals with certainty.
“We’ve looked at something called visual cognition – how you perceive images,” said Habibi. “When you look around your eyes capture information like a camera and your brain analyses the information inside those images. Your ability to understand what’s inside the image and respond to it is affected by the disease.”
The 100 responses provided over the course of a test are then compared with historical data, and this is where the AI component kicks in.
“We have trained our AI based on collecting data from healthy people and people with the condition, and we know if subjects have responded similarly to people with the condition or to healthier people,” Habibi said. “Another aspect of the AI is we can link the test results with the physical status of the patient, link it with all the (personal) historical data of the patient: whether they’ve had a history of traumatic brain injuries or strokes etc.”
The technology is currently being trialled at South London & Maudsley Hospital, with the study due to finish later this year. So far, the company’s attention has focused on dementia almost exclusively, but Habibi believes visual cognition could also underpin AI testing for other neurological conditions.   
“Our test, the way we look at it, is a platform technology,” he said. “It’s a new approach to assessing the brain, and by training the AI we will be able to be more specific to different conditions resulting in cognitive impairment. We will have studies lined up for concussion and other neurodegenerative diseases. There’s huge potential, but we need to get clinical data, a trained AI and validate it.”
Alzheimer’s, eye disease, X-rays, cancer – it seems no area of medicine will go untouched by the power of AI. And as healthcare systems around the world creak under ever greater strains, machine intelligence may well hold the key to better human treatment.
ITALIANO
Dalla diagnosi e dalla patologia alla scoperta di farmaci e all'epidemiologia, l'affidarsi della sanità a grandi quantità di dati lo rende una delle più avvincenti frontiere dell'intelligenza artificiale
Lentamente ma inesorabilmente, l'intelligenza artificiale si sta infiltrando in quasi ogni aspetto della nostra vita. È già impegnato nello sfondo di molte attività di routine, alimentando assistenti virtuali come Siri e Alexa, consigli di Amazon e Netflix e supportando miliardi di ricerche Google ogni giorno. Ma con la maturazione della tecnologia, l'impatto dell'IA diventerà più profondo, e in nessun luogo è più evidente che nell'assistenza sanitaria.
La natura pesante dei dati di Healthcare lo rende un candidato ideale per l'applicazione dell'IA in più discipline, dalla diagnosi e patologia alla scoperta di farmaci e all'epidemiologia. Allo stesso tempo, la sensibilità dei dati medici solleva questioni fondamentali in materia di privacy e sicurezza. Questa giustapposizione rende la sanità una delle frontiere più avvincenti dell'IA e potenzialmente anche una delle più pericolose.
"Potresti esaminare quasi ogni area dell'assistenza sanitaria e vedere che la scienza avanzata dei dati - se potessi esprimerla in questo modo - ha un'enorme quantità da offrire", ha dichiarato a Sir Mark Walport, amministratore delegato di UK Research and Innovation (UKRI) Ingegnere. "Questa tecnologia ha un enorme potenziale in tutto il mondo dell'assistenza sanitaria".
Come ex capo consulente scientifico del governo e ora a capo del nuovo ente di ricerca e sviluppo del Regno Unito, il professor Walport ha la posizione di commentare la politica sanitaria del Regno Unito in materia di AI. Come parte della strategia industriale del governo, cinque nuovi centri di ricerca AI sono stati annunciati a novembre dello scorso anno, con sede a Leeds, Oxford, Coventry, Glasgow e Londra. Sostenuto da un investimento di 50 milioni di sterline e che dovrebbe essere inaugurato nel 2019, questi centri si concentreranno sull'area in rapida evoluzione dell'analisi delle immagini.
"Questo fa parte del Fondo Sfida Strategia Industriale e si tratta di fare in modo di creare le migliori opportunità, sia in termini di miglioramento dell'assistenza sanitaria, sia di garantire la crescita di un settore davvero importante", ha affermato Walport. "E attraverso i nostri stiamo finanziando altri programmi con una grande quantità di ricerche in generale. Ma questo (imaging) è stato un invito deliberatamente focalizzato in un'area in cui esiste un evidente potenziale di trasformazione ".
Circa il 90% di tutti i dati sanitari proviene dalla tecnologia di imaging, ma la maggior parte di essi non viene analizzata. Le principali aree di interesse per i centri del Regno Unito saranno la radiologia - la scienza dell'imaging medico - e l'istopatologia, che si occupa dei cambiamenti nel tessuto causati dalla malattia. Applicare l'intelligenza artificiale attraverso queste due discipline potrebbe rimodellare la diagnostica medica. Secondo Walport, l'obiettivo finale è addestrare le IA attraverso più malattie in modo che possano suggerire potenziali diagnosi da una radiografia, per esempio.
"Una radiografia del torace è una radiografia del torace, per così dire, e ci sono tutta una serie di diagnosi che possono essere fatte da qualsiasi radiografia, che variano dalla malattia infettiva fino al cancro", ha spiegato.
Walport sottolinea, tuttavia, che le IA saranno di aiuto e non sostituiranno presto i professionisti del settore medico. "Il potenziale qui è di avere un algoritmo informatico che assista gli esseri umani in quelle che sono diagnosi abbastanza difficili", ha detto.
"Abbiamo visto alcuni esempi recenti di rilievo nei media, ad esempio il lavoro tra Google DeepMind e il Moorfields Hospital di Londra nella diagnosi precoce della degenerazione maculare utilizzando immagini raccolte di routine."
Fondata nel 2010 e acquisita da Google nel 2014, DeepMind è una delle aziende leader mondiali di IA, meglio conosciuta per il suo programma AlphaGo che ha rovesciato i migliori giocatori del mondo nel gioco di strategia board Go. Dal 2016, il suo braccio medico DeepMind Health ha lavorato con Moorfields Eye Hospital, un software di formazione per diagnosticare una serie di condizioni oculari da scansioni della retina digitalizzate. Quel lavoro ha portato ad un sistema IA in grado di raccomandare la corretta decisione di riferimento per oltre 50 malattie dell'occhio con una precisione del 94%, facendo corrispondere le prestazioni dei migliori esperti medici.
La reazione dei media che ne è seguita è stata estremamente positiva, ma in un'altra collaborazione NHS, DeepMind Health ha generato titoli meno favorevoli. Lavorando con il Royal Free Hospital, la società ha sviluppato un'app chiamata Streams che riunisce le informazioni sui pazienti in un unico posto per fornire una migliore visibilità su condizioni potenzialmente letali quali sepsi e insufficienza renale. L'app è stata salutata come un successo, ma il Royal Free è stato criticato dall'ufficio del Commissario per l'informazione (ICO) per il modo in cui i dati di 1,6 milioni di pazienti sono stati condivisi con DeepMind.
In seguito a ciò, DeepMind ha apportato numerose modifiche, inclusa la creazione di un comitato di revisione indipendente. Tuttavia, nel novembre 2018 è stato annunciato che DeepMind Health sarebbe stato completamente incorporato in Google in California per consentire lo sviluppo degli stream a livello globale. Ciò non solo ha comportato la demolizione del comitato di revisione, ma ha rinnegato la promessa fatta da DeepMind che i dati del NHS non sarebbero mai stati collegati agli account o ai servizi di Google.

Il lavoro pionieristico di DeepMind evidenzia ciò che è possibile per l'IA nell'assistenza sanitaria, sia nel bene che nel male. La sua tecnologia sta già fornendo risultati impressionanti, ma la sua politica sui dati e l'unione sempre più stretta con Google danno motivo di preoccupazione. Le persone possono generalmente essere contente di utilizzare i propri dati in modo costruttivo, ma le aziende hanno il dovere di essere trasparenti sulla portata di tale uso, nonché di proteggere i dati dalle parti malvage.

"Quando chiedi alle persone malate se vogliono che i loro dati vengano utilizzati a loro vantaggio, non ci sono molti dubbi sulla risposta", ha detto Walport. "Ma allo stesso modo, c'è una responsabilità nel mantenere i propri dati in un modo che è riservato, che da un lato consente di ottenere i benefici, ma dall'altro protegge da eventuali rischi potenziali".

GE Healthcare è uno dei più importanti partner del settore che cerca di sfruttare i dati come parte del nuovo progetto di imaging del Regno Unito. Fa parte del gruppo NCIMI di Oxford (National Consortium of Intelligent Medical Imaging), che mira a impiegare l'intelligenza artificiale per un'assistenza più personalizzata, una diagnosi precoce e un trattamento mirato.

"La prima tranche di aree di progetto per noi si trova in un paio di aree di modalità diverse", ha dichiarato John Kalafut, responsabile dei risultati di imaging e delle soluzioni presso GE Healthcare. "Uno è l'imaging molecolare - migliorare la ricostruzione quantitativa usando una metodologia di apprendimento profondo".

L'altro è la radiografia, o semplici raggi X. Con tutte le campane e i fischi della tecnologia moderna, l'umile radiografia gioca ancora un ruolo fondamentale in medicina, utilizzato per rilevare tutto, dalle fratture al cancro. Si stima che in qualsiasi momento nel Regno Unito ci siano oltre 300.000 raggi X che hanno atteso più di 30 giorni per l'analisi. NCIMI vedrà GE Healthcare e i suoi partner che cercano di ridurlo in modo significativo.

"Ovviamente una delle sfide che il NHS ha non è sufficiente per i radiologi o gli studi di radiologia per leggere gli studi", ha spiegato Kalafut. "Quindi abbiamo alcuni algoritmi che stiamo sviluppando con altri partner e lo adatteremo e lo convaliderà clinicamente attraverso questo consorzio."

Nel mondo in rapida evoluzione delle startup, anche le diverse tecniche di radiologia stanno ricevendo il trattamento per l'IA. Lancor Scientific, con sede a Londra, è alla base di un nuovo tipo di dispositivo diagnostico che, combinato con l'intelligenza artificiale, potrebbe cambiare il modo in cui vengono rilevati i tumori. La sua tecnologia di base, nota come spettroscopia di imaging opto-magnetica (OMIS), si basa sulle equazioni di Maxwell in matematica, che trattano dell'elettromagnetismo. Quando la luce viene riflessa sul tessuto umano, la componente magnetica della luce riflessa può determinare quanto sia maligna.

"Il nostro metodo di rilevazione del cancro si basa su un aspetto del tessuto canceroso, o proteine ​​cancerose, che è noto da diversi decenni nella scienza, ovvero che il profilo elettromagnetico cambia quando nuove molecole iniziano a formarsi", ha spiegato Aamir Butt, Lancor Scientific's Fondatore e Amministratore Delegato.

Fino ad ora, l'attrezzatura richiesta per questo tipo di test - i microscopi a forza magnetica e atomica (MFM e AFM) - è stata sia enorme che costosa, limitando la sua penetrazione. La tecnologia Tumor Trace di Lancor utilizza lo stesso principio di queste enormi macchine, ma impiega la luce piuttosto che la radiazione per rilevare i cambiamenti elettromagnetici. Il dispositivo pesa circa 5 kg e un singolo test non dovrebbe costare più di £ 10, rendendo la tecnologia molto più accessibile. Durante gli studi presso il Southend Hospital nel 2018, Tumor Trace ha rilevato un cancro cervicale con una precisione superiore al 90%. Usando l'intelligenza artificiale per rimuovere il rumore biologico dai segnali, Butt ritiene che questo possa essere migliorato fino al 97% e che il dispositivo possa eventualmente essere utilizzato per lo screening di tutti i tumori. "Questi studi hanno a che fare con il cancro del collo dell'utero, e siamo anche solo nella fase finale della creazione di un laboratorio di ricerca sul cancro su invito del governo austriaco a Graz", ha detto. "Grazie a questa struttura, entro la fine del 2019, avremo altri quattro cancri abilitati sul dispositivo."

Di solito, sono necessari vasti set di dati per addestrare le reti neurali, con la ripetizione della forza bruta che raffina l'intelligenza della macchina. Tumor Trace, tuttavia, si basa su costanti fisiche fondamentali per il suo metodo di rilevamento e, di conseguenza, richiede un numero di pool di dati molto più piccolo rispetto ad altri AI diagnostici.

"Quando si addestrano algoritmi di intelligenza artificiale è necessario avere decine, se non centinaia di migliaia di campioni", ha spiegato Butt. "Ma poiché la nostra tecnologia si basa su un segnale di base basato sulla fisica fondamentale, il numero di campioni di cui abbiamo bisogno è in realtà molto più basso."

Il dispositivo dovrebbe raggiungere il mercato nel 2019 e Lancor si aspetta di produrre più di 10.000 unità nei prossimi cinque anni. Teoricamente, ciò potrebbe fornire nella regione di 500.000 screening del cancro al giorno, un'arma potente nella battaglia in prima linea contro una malattia che colpisce così tanti. Dove la diagnosi precoce del cancro può migliorare drasticamente i tassi di sopravvivenza, per alcune malattie - come il morbo di Alzheimer - la diagnosi precoce è meno sulla sopravvivenza e più sulla comprensione e la gestione. Data la popolazione anziana del pianeta e il fatto che il morbo di Alzheimer non ha una cura conosciuta, il numero di persone con demenza è destinato a triplicare a 150 milioni entro il 2050. È stato descritto come una bomba a orologeria per la salute globale.

"Questa è, secondo l'OMS, la più grande sfida sanitaria del XXI secolo", ha dichiarato a The Engineer Sina Habibi, fondatrice e CEO di Cognetivity. "Uno su due nei paesi ricchi e nove su dieci nei paesi in via di sviluppo non riceve mai diagnosi".

Secondo Habibi, i test di demenza esistenti sono primitivi, con medici che conducono semplici domande e risposte sulla memoria del paziente. Le risonanze magnetiche e le scansioni TC possono essere d'aiuto, ma sono costose e le referenze sono spesso negative per la demenza. Utilizzando l'intelligenza artificiale, Cognetivity ha sviluppato un semplice test basato sullo schermo che ritiene possa trasformare la diagnosi della malattia.

"Dal 1901, quando il dott. Alzheimer ha esaminato e caratterizzato i suoi primi pazienti, il processo di diagnosi non è cambiato molto", ha spiegato Habibi. "Crediamo che dal momento in cui inizia la fisiochimica della malattia, ci vogliono 20-25 anni fino a quando non si hanno sintomi di perdita di memoria al livello che innesca il processo di esame completo".

Il test di cognetività prevede che ai soggetti vengano mostrati intorno a 100 immagini in cinque minuti. Questi vengono visualizzati in flash per appena 150 millisecondi, con soggetti tenuti a rispondere il più rapidamente possibile se hanno visto un animale o meno. Le immagini variano nella loro complessità, alcune presentano più informazioni di altre, rendendo più difficile il rilevamento di animali con certezza.

"Abbiamo esaminato qualcosa chiamato cognizione visiva - come percepisci le immagini", ha detto Habibi. "Quando guardi intorno ai tuoi occhi catturi informazioni come una macchina fotografica e il tuo cervello analizza le informazioni all'interno di quelle immagini. La tua capacità di capire cosa c'è dentro l'immagine e rispondervi è influenzata dalla malattia. "

Le 100 risposte fornite nel corso di un test vengono quindi confrontate con dati storici, ed è qui che entra in gioco la componente AI.

"Abbiamo addestrato la nostra intelligenza artificiale in base alla raccolta di dati da persone sane e persone con la condizione, e sappiamo se i soggetti hanno risposto in modo simile alle persone con la condizione o alle persone più sane", ha detto Habibi. "Un altro aspetto dell'IA è che possiamo collegare i risultati del test con lo stato fisico del paziente, collegarlo a tutti i dati storici (personali) del paziente: se hanno avuto una storia di lesioni cerebrali traumatiche o ictus, ecc. ”

La tecnologia è attualmente in fase di sperimentazione presso South London & Maudsley Hospital, con lo studio che dovrebbe concludersi entro la fine dell'anno. Finora, l'attenzione dell'azienda si è concentrata quasi esclusivamente sulla demenza, ma Habibi crede che la cognizione visiva potrebbe anche sostenere il test dell'IA per altre condizioni neurologiche.

"Il nostro test, il modo in cui lo guardiamo, è una tecnologia di piattaforma", ha detto. "Si tratta di un nuovo approccio per valutare il cervello, e allenando l'intelligenza artificiale saremo in grado di essere più specifici per le diverse condizioni con conseguente deterioramento cognitivo. Avremo studi in linea per commozione cerebrale e altre malattie neurodegenerative. C'è un enorme potenziale, ma abbiamo bisogno di ottenere dati clinici, un'IA addestrata e validarla ".

Alzheimer, malattie agli occhi, raggi X, cancro - sembra che nessuna area della medicina possa rimanere intatta dal potere dell'IA. E poiché i sistemi sanitari di tutto il mondo scricchiolano sotto tensioni sempre maggiori, l'intelligenza della macchina potrebbe benissimo essere la chiave per un migliore trattamento umano.
Da:
https://www.theengineer.co.uk/ai-medical-diagnostics/?cmpid=tenews_7529885&utm_medium=email&utm_source=newsletter&utm_campaign=tenews&adg=B69ABBDE-DA23-4BA2-B8C3-86E1E1A9FA79

Commenti

Post popolari in questo blog

Paracetamolo, ibuprofene o novalgina: quali le differenze? / acetaminophen, ibuprofen, metamizole : what are the differences?

Diminuire l'ossigeno per aumentare la longevità? / Decrease Oxygen to Boost Longevity?

Sci-Fi Eye: il nostro futuro urbano / Sci-Fi Eye: Our Urban Future