Quali misure di sicurezza sono necessarie man mano che l'intelligenza artificiale di base diventa sempre più integrata nella ricerca e sviluppo? / What Safeguards Are Needed as GenAI Becomes More Embedded in R&D?

Quali misure di sicurezza sono necessarie man mano che l'intelligenza artificiale di base diventa sempre più integrata nella ricerca e sviluppo? /  What Safeguards Are Needed as GenAI Becomes More Embedded in R&D?


Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa



Con la crescente adozione dell'intelligenza artificiale nella ricerca e sviluppo, abbiamo chiesto agli esperti cosa è necessario fare per garantire risultati affidabili.

L'intelligenza artificiale è sempre più adottata nelle scienze della vita, poiché gli scienziati cercano supporto ed approcci alternativi ai metodi di ricerca tradizionali, che richiedono molto tempo. Gli strumenti di intelligenza artificiale generativa (GenAI) vengono ormai implementati sistematicamente nei flussi di lavoro di ricerca e sviluppo per accelerare la generazione di ipotesi, migliorare l'analisi dei dati e facilitare il processo decisionale.


Sebbene GenAI abbia un potenziale significativo per migliorare la ricerca e sviluppo nel campo delle scienze della vita, molti sono ugualmente preoccupati per come l'adozione di tali strumenti potrebbe influire sulla privacy dei dati, sulla conformità normativa ed altro ancora.


Per approfondire questo tema, Technology Networks ha posto una semplice domanda ad esperti del settore e del mondo accademico: "Dato che l'intelligenza artificiale generativa sta diventando sempre più parte integrante della ricerca e sviluppo, quali misure di sicurezza o pratiche saranno più importanti per garantire fiducia, riproducibilità e accettazione delle scoperte basate sull'intelligenza artificiale?"

 Jo Varshney, dottore di ricerca. CEO e fondatore di VeriSIM Life.

"Man mano che l'intelligenza artificiale generativa diventa sempre più parte integrante della ricerca e dello sviluppo, la priorità deve essere quella di costruire fiducia, riproducibilità ed accettazione fin dall'inizio. La trasparenza è essenziale. Ogni insight generato dall'intelligenza artificiale dovrebbe essere tracciabile, con una documentazione chiara delle fonti dei dati, delle ipotesi di modellazione e della logica decisionale, in modo che altri possano comprenderlo e verificarlo."


Altrettanto importante è la validazione rigorosa. Le previsioni devono essere testate su risultati sperimentali e clinici e verificate su set di dati indipendenti per confermare che siano valide in condizioni reali. L'istituzione di quadri normativi e procedure di reporting standardizzate garantisce la riproducibilità dei risultati, sia all'interno che all'esterno dell'organizzazione.


Infine, la collaborazione è fondamentale. I risultati migliori si ottengono quando scienziati dell'IA, farmacologi ed esperti normativi collaborano strettamente per integrare la tecnologia con il rigore scientifico e garantire la sicurezza dei pazienti. Solo integrando queste garanzie, le scoperte dell'IA possono diventare affidabili, riproducibili e ampiamente accettate nelle scienze della vita.

Adrien Rennesson. Co-fondatore e CEO di Syntopia.

"Con la crescente integrazione dell'intelligenza artificiale generativa nella ricerca e sviluppo, trasparenza ed apertura saranno essenziali per creare fiducia e garantire la riproducibilità. La condivisione non solo dei risultati, ma anche dei dati, dei metodi e delle ipotesi di base consentirà ai team di ricerca di confrontare i risultati, convalidare i modelli e mettere in discussione i risultati in modo costruttivo. Questo controllo collettivo è fondamentale per trasformare le scoperte guidate dall'intelligenza artificiale in progressi scientifici riconosciuti."


"In Syntopia, crediamo che generare set di dati di alta qualità e ben caratterizzati e promuovere metodologie trasparenti e comparabili tra le piattaforme siano passaggi fondamentali. Tali pratiche accelereranno l'adozione dell'intelligenza artificiale nella scoperta di farmaci e contribuiranno a liberarne il pieno potenziale."

Anna-Maria Makri-Pistikou. COO, amministratore delegato e co-fondatrice di Nanoworx.

“Per garantire fiducia, riproducibilità e accettazione delle scoperte basate sull’intelligenza artificiale nella ricerca e sviluppo, le misure di salvaguardia fondamentali includono:


1. Validazione rigorosa dei risultati dell'IA: la validazione è fondamentale per costruire la fiducia nei risultati dell'IA. I modelli di IA, compresi quelli generativi, possono proporre soluzioni innovative, ma questi risultati devono essere testati empiricamente per confermarne l'efficacia, la sicurezza e le prestazioni.


2. Gestione trasparente dei dati : la ricerca e sviluppo basata sull'intelligenza artificiale deve essere supportata da pratiche di gestione dei dati meticolose, tra cui una documentazione dettagliata dei set di dati, dei parametri del modello e dei processi decisionali.


3. Rigoroso rispetto degli standard normativi: le scoperte basate sull'intelligenza artificiale devono essere conformi agli standard normativi e di settore consolidati per ottenere l'accettazione, soprattutto nei settori biotecnologico e farmaceutico. Ciò include la conformità alle linee guida di enti regolatori come l'Agenzia europea per i medicinali o la Food and Drug Administration degli Stati Uniti.


4. Supervisione umana: sebbene l'intelligenza artificiale possa accelerare la scoperta, la competenza umana rimane essenziale per interpretare i risultati, valutare la rilevanza biologica e prendere decisioni consapevoli del contesto. Un approccio pragmatico all'utilizzo dell'intelligenza artificiale generativa in ambito di ricerca e sviluppo dovrebbe includere la supervisione umana.


5. Mitigazione dei bias: i sistemi di intelligenza artificiale possono inavvertitamente introdurre bias o produrre previsioni inaffidabili se addestrati su set di dati incompleti o distorti. Per contrastare questo fenomeno, i team di ricerca e sviluppo devono utilizzare set di dati diversificati e di alta qualità.


6. Collaborazione aperta e revisione paritaria: l'accettazione delle scoperte basate sull'intelligenza artificiale aumenta quando i risultati vengono condivisi e analizzati dalla comunità scientifica più ampia, proprio come avviene nella ricerca tradizionale, nella sperimentazione e nei processi di brevetto.

7. Proteggere la riservatezza dei dati utilizzati per addestrare l'IA: i dati nei settori biotecnologico e farmaceutico sono spesso riservati, proprietari o sensibili (ad esempio, specifici per paziente). Tuttavia, questi stessi dati contengono spesso tendenze estremamente preziose e costituiscono un input primario per l'addestramento dei modelli di IA. Pertanto, dobbiamo puntare a un attento equilibrio tra il miglior utilizzo dei dati disponibili per l'addestramento dei modelli di IA e l'esigenza di una protezione adeguata della riservatezza di tali dati sottostanti.


Faraz A. Choudhury. CEO e co-fondatore di Immuto Scientific.

"Trasparenza e convalida sono fondamentali. I modelli devono essere addestrati su dati di alta qualità e ben annotati, e abbinati a una chiara documentazione delle ipotesi e dei percorsi decisionali. La revisione con il coinvolgimento umano, il rigoroso benchmarking rispetto ai dati sperimentali e gli standard di riproducibilità aperti saranno essenziali per rafforzare la fiducia nelle informazioni generate dall'intelligenza artificiale."

Peter Walters. Ricercatore in terapie avanzate, CRB.

"Credo che la chiave dell'IA, dato il punto in cui si trova attualmente la tecnologia, sia la sua capacità di avvicinarsi rapidamente all'obiettivo. Ci vorranno comunque professionisti competenti per prendere quel prodotto di IA ed eseguire le ultime modifiche, confermare e controllare la qualità per renderlo definitivo. Vedo applicazioni di ricerca e sviluppo in cui l'IA aiuta il personale chiave a svolgere il proprio lavoro in modo più rapido e mirato, ma il prodotto finale è ancora interamente nelle loro mani.

Mathias Uhlén, PhD. Professore di microbiologia presso il Royal Institute of Technology (KTH), Svezia.

“È essenziale sviluppare nuovi quadri giuridici per gestire i dati medici sensibili nella nuova era dell’analisi basata sull’intelligenza artificiale”.

Sunitha Venkat. Vicepresidente dei servizi dati e degli approfondimenti, Conexus Solutions.

"La fiducia nelle scoperte basate sull'IA si basa su trasparenza, riproducibilità e convalida continua. Le organizzazioni devono documentare l'intero ciclo di vita dell'IA – fonti di dati, fasi di pre-elaborazione, architetture dei modelli, parametri di addestramento e ipotesi – per garantire che i risultati possano essere verificati in modo indipendente. L'integrazione di framework di governance dell'IA e l'istituzione di un Consiglio per la Governance dell'IA sono essenziali per definire e applicare standard per lo sviluppo dei modelli, il controllo delle versioni, la spiegabilità e l'uso etico."


"La supervisione interfunzionale è altrettanto fondamentale. La collaborazione tra scienziati, data scientist, clinici ed esperti normativi garantisce che i risultati basati sull'intelligenza artificiale siano scientificamente validi, interpretabili e conformi alle mutevoli aspettative normative."


ENGLISH


With the increased adoption of AI in R&D, we asked experts what needs to be done to ensure trusted results.

Artificial intelligence is increasingly being adopted in the life sciences, as scientists seek out support and alternative approaches to the time-consuming methods of traditional research. Generative AI (GenAI) tools are now routinely being implemented into R&D workflows in order to accelerate hypothesis generation, enhance data analysis and facilitate decision making.


While GenAI does have significant potential for enhancing life sciences R&D, equally, many are concerned about how the adoption of such tools might affect data privacy, regulatory compliance and more.


To learn more about this issue, Technology Networks asked experts across industry and academia one simple question: “As generative AI becomes more deeply embedded in R&D, what safeguards or practices will be most critical to ensure trust, reproducibility and acceptance of AI-driven discoveries?”

 Jo Varshney, PhD. CEO and founder, VeriSIM Life.

“As generative AI becomes a deeper part of research and development, the priority must be building trust, reproducibility and acceptance from the start. Transparency is essential. Every AI-generated insight should be traceable, with clear documentation of data sources, modeling assumptions and decision logic so that others can understand and verify it.”

“Equally important is rigorous validation. Predictions must be tested against experimental and clinical results, and verified across independent datasets to confirm that they hold up under real conditions. Establishing standardized frameworks and reporting practices ensures that findings are reproducible, both within and outside the organization.”


“Finally, collaboration is key. The best outcomes occur when AI scientists, pharmacologists and regulatory experts collaborate closely to integrate technology with scientific rigor and ensure patient safety. Only by embedding these safeguards can AI discoveries become trusted, reproducible and widely accepted in the life sciences.”

Adrien Rennesson. Co-founder & CEO, Syntopia.

“As generative AI becomes more deeply integrated into R&D, transparency and openness will be essential to build trust and ensure reproducibility. Sharing not only results but also the underlying data, methods and assumptions will allow research teams to compare outcomes, validate models and challenge findings constructively. This collective scrutiny is key to turning AI-driven discoveries into accepted scientific advances.”


“At Syntopia, we believe that generating high-quality, well-characterized datasets and promoting transparent, comparable methodologies across platforms are critical steps. Such practices will accelerate the adoption of AI in drug discovery and help unlock its full potential.”

Anna-Maria Makri-Pistikou. COO, managing director & co-founder at Nanoworx.

“To ensure trust, reproducibility and acceptance of AI-driven discoveries in R&D, critical safeguards include:


1. Rigorous validation of AI outputs: Validation is a cornerstone for building trust in AI-driven outcomes. AI models, including generative ones, can propose novel solutions, but these outputs must be empirically tested to confirm their efficacy, safety and performance.


2. Transparent data management: AI-driven R&D must be supported by meticulous data management practices, including detailed documentation of datasets, model parameters and decision-making processes.


3. Strict adherence to regulatory standards: AI-driven discoveries must align with established regulatory and industry standards to gain acceptance, especially in biotech and pharmaceuticals. This includes compliance with guidelines from regulatory bodies such as the European Medicines Agency or the United States Food and Drug Administration.


4. Human-in-the-loop oversight: While AI can accelerate discovery, human expertise remains essential to interpret results, assess biological relevance and make context-aware decisions. A pragmatic approach to engaging with generative AI in R&D should include human supervision.


5. Bias mitigation: AI systems can inadvertently introduce biases or produce unreliable predictions if trained on incomplete or skewed datasets. To counter this, R&D teams must use diverse and high-quality datasets.


6. Open collaboration and peer-review: Acceptance of AI-driven discoveries grows when findings are shared and scrutinized by the broader scientific community; just as in traditional research, experimentation and throughout patent processes.

7. Protecting the confidentiality of data used to train AI: Data in the biotech and pharmaceutical industries is often confidential, proprietary or sensitive (e.g., patient-specific). However, this same data often holds extremely valuable trends and is prime input for training AI models. Therefore, we must aim for a careful balance between making best use of available data for training AI models, while insisting on sufficient protections to the confidentiality of such underlying data.”


Faraz A. Choudhury. CEO & co-founder, Immuto Scientific.

“Transparency and validation are key. Models must be trained on high-quality, well-annotated data and paired with clear documentation of assumptions and decision pathways. Human-in-the-loop review, rigorous benchmarking against experimental data and open reproducibility standards will be essential to build confidence in AI-generated insights.”

Peter Walters. Fellow of advanced therapies, CRB.

“I think the key with AI, given where we currently are with the technology, is that it is good at rapidly coming close to the target. It will still require knowledgeable professionals to take that AI product and perform final adjustments, confirm and quality check to make it final. I see in R&D applications where AI helps those key personnel do their jobs faster and more focused, but the final product still rests squarely in their hands.

Mathias Uhlén, PhD. Professor of microbiology at the Royal Institute of Technology (KTH), Sweden.

“It is essential to develop new legal frameworks to handle sensitive medical data within the new era of AI-based analysis.”

Sunitha Venkat. Vice-president of data services and Insights, Conexus Solutions.

“Trust in AI-driven discoveries hinges on transparency, reproducibility and continuous validation. Organizations must document the entire AI lifecycle – data sources, preprocessing steps, model architectures, training parameters and assumptions – to ensure results can be independently verified. Embedding AI governance frameworks and establishing an AI Governance Council are essential to define and enforce standards for model development, version control, explainability and ethical use.”


“Cross-functional oversight is equally critical. Collaboration among scientists, data scientists, clinicians and regulatory experts ensures that AI-driven findings are scientifically sound, interpretable and compliant with evolving regulatory expectations.”


Da:

https://www.technologynetworks.com/tn/articles/what-safeguards-are-needed-as-genai-becomes-more-embedded-in-rd-408190

Commenti

Post popolari in questo blog

Paracetamolo, ibuprofene o novalgina: quali le differenze? / acetaminophen, ibuprofen, metamizole : what are the differences?

Patologie gastro-intestinali: una panoramica chiara / Gastrointestinal diseases: a clear overview

Tata Steel nomina ABB per la fornitura della tecnologia per la trasformazione dell'acciaio verde a Port Talbot / Tata Steel appoints ABB to deliver technology for Port Talbot green steel transformation