Il modello del cervello delle api offre spunti sull'intelligenza artificiale di prossima generazione / Bee brain model offers insights into next-gen AI
Il modello del cervello delle api offre spunti sull'intelligenza artificiale di prossima generazione / Bee brain model offers insights into next-gen AI
Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa
I robot del futuro potranno essere più intelligenti ed efficienti utilizzando il movimento per raccogliere informazioni / Future robots can be smarter and more efficient by using movement to gather information
Secondo uno studio dell'Università di Sheffield, una maggiore comprensione del comportamento visivo delle api potrebbe segnare un "cambiamento radicale" nel modo in cui viene sviluppata l'intelligenza artificiale di prossima generazione.
Costruendo un modello computazionale (una versione digitale del cervello di un'ape), i ricercatori hanno scoperto come il modo in cui le api muovono il loro corpo durante il volo contribuisca a modellare l'input visivo e generi messaggi elettrici unici nel loro cervello. Questi movimenti generano segnali neurali che permettono alle api di identificare caratteristiche prevedibili del mondo che le circonda. Secondo il gruppo, questa capacità consente alle api di dimostrare una notevole precisione nell'apprendimento e nel riconoscimento di schemi visivi complessi durante il volo.
Il modello approfondisce la comprensione di come le api apprendono e riconoscono schemi complessi attraverso i loro movimenti ed apre la strada all'intelligenza artificiale di prossima generazione. Dimostra che i robot del futuro possono essere più intelligenti ed efficienti utilizzando il movimento per raccogliere informazioni, anziché affidarsi ad una notevole potenza di calcolo.
In una dichiarazione, il professor James Marshall, direttore del Centre of Machine Intelligence dell'Università di Sheffield ed autore principale dello studio, ha affermato: "In questo studio abbiamo dimostrato con successo che anche il più piccolo dei cervelli può sfruttare il movimento per percepire e comprendere il mondo che lo circonda. Questo ci dimostra che un sistema piccolo ed efficiente, sebbene frutto di milioni di anni di evoluzione, può eseguire calcoli molto più complessi di quanto pensassimo in precedenza.
“Sfruttare le migliori potenzialità della natura per l'intelligenza apre le porte alla prossima generazione di intelligenza artificiale, stimolando progressi nella robotica, nei veicoli a guida autonoma e nell'apprendimento nel mondo reale.”
Meccanismi cerebrali
Lo studio, realizzato in collaborazione con la Queen Mary University di Londra, è pubblicato su eLife . Si basa su precedenti ricerche del gruppo su come le api utilizzano la visione attiva, ovvero il processo attraverso il quale i loro movimenti le aiutano a raccogliere ed elaborare le informazioni visive.
I loro lavori precedenti hanno osservato il modo in cui le api volano ed ispezionano schemi specifici, ma questo nuovo studio fornisce una comprensione più approfondita dei meccanismi cerebrali sottostanti che determinano tale comportamento.
Le capacità delle api di apprendere schemi visivi sono note da tempo, ma i risultati dello studio gettano nuova luce sul modo in cui riescono a orientarsi nel mondo con un'efficienza apparentemente semplice.
Il Dott. HaDi MaBouDi, autore principale e ricercatore presso l'Università di Sheffield, ha dichiarato: "Nel nostro lavoro precedente, siamo rimasti affascinati nello scoprire che le api utilizzano un'ingegnosa scorciatoia di scansione per risolvere enigmi visivi. Ma questo ci ha solo rivelato cosa fanno; per questo studio, volevamo capire come.
"Il nostro modello del cervello di un'ape dimostra che i suoi circuiti neurali sono ottimizzati per elaborare le informazioni visive non in isolamento, ma attraverso l'interazione attiva con i suoi movimenti di volo nell'ambiente naturale, supportando la teoria secondo cui l'intelligenza deriva dal modo in cui cervello, corpo ed ambiente lavorano insieme.
Abbiamo imparato che le api, pur avendo un cervello non più grande di un seme di sesamo, non si limitano a vedere il mondo, ma plasmano attivamente ciò che vedono attraverso i loro movimenti. È un bellissimo esempio di come azione e percezione siano profondamente interconnesse per risolvere problemi complessi con risorse minime. Questo ha importanti implicazioni per la biologia e l'intelligenza artificiale.
Adattamento ambientale
Il modello mostra che i neuroni delle api si sintonizzano finemente su direzioni e movimenti specifici man mano che le loro reti cerebrali si adattano gradualmente attraverso l'esposizione ripetuta a vari stimoli, affinando le loro risposte senza fare affidamento su associazioni o rinforzi. Questo permette al cervello dell'ape di adattarsi all'ambiente osservando durante il volo, senza richiedere ricompense immediate. Ciò significa che il cervello è molto efficiente, utilizzando pochi neuroni attivi per riconoscere gli oggetti, risparmiando così energia e capacità di elaborazione.
Per convalidare il loro modello computazionale, i ricercatori lo hanno sottoposto alle stesse sfide visive incontrate dalle api vere. In un esperimento, al modello è stato chiesto di distinguere tra un segno "più" e un segno "moltiplicazione". Il modello ha mostrato prestazioni "significativamente migliori" quando ha imitato la strategia delle api vere di scansionare solo la metà inferiore dei modelli.
Utilizzando una piccola rete di neuroni artificiali, il modello ha mostrato come le api possano riconoscere i volti umani, sottolineando la potenza e la flessibilità della loro elaborazione visiva.
Il professor Lars Chittka, professore di ecologia sensoriale e comportamentale presso la Queen Mary University di Londra, ha aggiunto: "Gli scienziati sono sempre stati affascinati dalla questione se le dimensioni del cervello prevedano l'intelligenza negli animali. Ma tali speculazioni non hanno senso se non si conoscono i calcoli neurali alla base di un determinato compito".
"Qui determiniamo il numero minimo di neuroni necessari per compiti di discriminazione visiva complessi e scopriamo che i numeri sono incredibilmente piccoli, anche per compiti complessi come il riconoscimento facciale umano. Pertanto, i microcervelli degli insetti sono capaci di calcoli avanzati."
ENGLISH
A greater understanding of bee's visual behavior could mark a ‘major change’ in how next-generation AI is developed, according to a Sheffield University study.
By building a computational model (a digital version of a bee's brain), researchers have discovered how the way bees move their bodies during flight helps shape visual input and generates unique electrical messages in their brains. These movements generate neural signals that allow bees to identify predictable features of the world around them. According to the team, this ability means bees demonstrate remarkable accuracy in learning and recognising complex visual patterns during flight.
The model deepens the understanding of how bees learn and recognise complex patterns through their movements, and paves the way for next-generation AI. It demonstrates that future robots can be smarter and more efficient by using movement to gather information, rather than relying on substantial computing power.
In a statement, Professor James Marshall, director of the Centre of Machine Intelligence at Sheffield University and senior author on the study, said: “In this study we’ve successfully demonstrated that even the tiniest of brains can leverage movement to perceive and understand the world around them. This shows us that a small, efficient system - albeit the result of millions of years of evolution - can perform computations vastly more complex than we previously thought possible.
“Harnessing nature's best designs for intelligence opens the door for the next generation of AI, driving advancements in robotics, self-driving vehicles and real-world learning.”
Brain Mechanisms
The study, a collaboration with Queen Mary University of London, is published in the eLife. It builds on the team's previous research into how bees use active vision, which is the process where their movements help them collect and process visual information.
Their earlier work observed how bees fly around and inspect specific patterns, but this new study provides a deeper understanding of the underlying brain mechanisms driving that behaviour.
The visual pattern learning abilities of bees have long been understood, but the study’s findings shed new light on how they navigate the world with seemingly simple efficiency.
Dr HaDi MaBouDi, lead author and researcher at Sheffield University, said: "In our previous work, we were fascinated to discover that bees employ a clever scanning shortcut to solve visual puzzles. But that just told us what they do; for this study, we wanted to understand how.
“Our model of a bee’s brain demonstrates that its neural circuits are optimised to process visual information not in isolation, but through active interaction with its flight movements in the natural environment, supporting the theory that intelligence comes from how the brain, bodies and the environment work together.
“We’ve learnt that bees, despite having brains no larger than a sesame seed, don’t just see the world - they actively shape what they see through their movements. It’s a beautiful example of how action and perception are deeply intertwined to solve complex problems with minimal resources. This is something that has major implications for biology and AI.”
Environmental Adaptation
The model shows that bee neurons become finely tuned to specific directions and movements as their brain networks gradually adapt through repeated exposure to various stimuli, refining their responses without relying on associations or reinforcement. This lets the bee's brain adapt to its environment by observing while flying, without requiring instant rewards. This means the brain is very efficient, using a few active neurons to recognise things, thereby conserving energy and processing power.
To validate their computational model, the researchers subjected it to the same visual challenges encountered by real bees. In one experiment, the model was tasked with differentiating between a ‘plus’ sign and a ‘multiplication’ sign. The model exhibited ‘significantly improved’ performance when it mimicked the real bees' strategy of scanning only the lower half of the patterns.
With a small network of artificial neurons, the model showed how bees can recognise human faces, underscoring the strength and flexibility of their visual processing.
Professor Lars Chittka, Professor of Sensory and Behavioural Ecology at Queen Mary University of London, added: ‘Scientists have been fascinated by the question of whether brain size predicts intelligence in animals. But such speculations make no sense unless one knows the neural computations that underpin a given task.
“Here we determine the minimum number of neurons required for difficult visual discrimination tasks and find that the numbers are staggeringly small, even for complex tasks such as human face recognition. Thus insect microbrains are capable of advanced computations.”
Da:
https://www.theengineer.co.uk/content/news/bee-brain-study-offers-insights-into-next-gen-ai
Commenti
Posta un commento