L'occhio umano ispira il sistema di visione per la robotica / Human eye inspires vision system for robotics

 L'occhio umano ispira il sistema di visione per la roboticaHuman eye inspires vision system for robotics


Segnalato dal Dott. Giuseppe Cotellessa / Reported by Dr. Giuseppe Cotellessa



L'occhio umano ha ispirato lo sviluppo di un meccanismo di ripresa che migliora il modo in cui i robot vedono e reagiscono al mondo che li circonda.

Sviluppato da un gruppo guidato dagli informatici dell'Università del Maryland (UMD), il sistema di telecamere imita i movimenti involontari utilizzati dall'occhio umano per mantenere una visione nitida e stabile.

La prototipazione ed i test della telecamera, denominata Artificial Microsaccade-Enhanced Event Camera (AMI-EV), da parte del gruppo, sono descritti in dettaglio in Science Robotics.

"Le telecamere per eventi sono una tecnologia relativamente nuova, più efficace nel tracciare oggetti in movimento rispetto alle telecamere tradizionali, ma le telecamere per eventi odierne hanno difficoltà a catturare immagini nitide e senza sfocature quando c'è molto movimento coinvolto", ha affermato l'autore principale del documento Botao He, uno studente di dottorato in informatica presso l'UMD. "È un grosso problema perché i robot e molte altre tecnologie, come le auto a guida autonoma, si basano su immagini accurate e tempestive per reagire correttamente ad un ambiente in cambiamento. Quindi, ci siamo chiesti: come fanno gli esseri umani e gli animali ad assicurarsi che la loro vista resti focalizzata su un oggetto in movimento?"

La risposta è stata microsaccadi, ovvero piccoli e rapidi movimenti oculari che si verificano involontariamente quando una persona cerca di mettere a fuoco la propria vista. Attraverso questi movimenti minuti ma continui, l'occhio umano può mantenere la messa a fuoco su un oggetto e sulle sue texture visive, come colore, profondità e ombreggiatura, in modo accurato nel tempo.

Secondo UMD, il gruppo ha replicato le microsaccadi inserendo un prisma rotante all'interno dell'AMI-EV per reindirizzare i fasci di luce catturati dall'obiettivo. Il movimento rotatorio continuo del prisma ha simulato i movimenti che si verificano naturalmente all'interno di un occhio umano, consentendo alla telecamera di stabilizzare le texture di un oggetto registrato proprio come farebbe un essere umano. Il gruppo ha quindi sviluppato un software per compensare il movimento del prisma all'interno dell'AMI-EV per consolidare immagini stabili dalle luci mutevoli. 

"I nostri occhi scattano foto del mondo che ci circonda e queste foto vengono inviate al nostro cervello, dove vengono analizzate. La percezione avviene attraverso questo processo ed è così che comprendiamo il mondo", ha affermato il coautore dello studio, il professor Yiannis Aloimonos, direttore del Computer Vision Laboratory presso l'  University of Maryland Institute for Advanced Computer Studies  (UMIACS). "Quando lavori con i robot, sostituisci gli occhi con una telecamera ed il cervello con un computer. Telecamere migliori significano una migliore percezione e reazioni per i robot".

Nei primi test, AMI-EV è stato in grado di catturare e visualizzare con precisione il movimento in diversi contesti, tra cui il rilevamento del polso umano e l'identificazione di forme in rapido movimento.

I ricercatori hanno anche scoperto che AMI-EV è in grado di catturare il movimento a decine di migliaia di fotogrammi al secondo, superando le prestazioni della maggior parte delle telecamere commerciali solitamente disponibili, che catturano in media da 30 a 1000 fotogrammi al secondo.

Il gruppo ritiene che questa rappresentazione più fluida e realistica del movimento potrebbe rivelarsi fondamentale in applicazioni che spaziano dalla creazione di esperienze di realtà aumentata più coinvolgenti ad un migliore monitoraggio della sicurezza, fino al miglioramento del modo in cui gli astronomi catturano le immagini nello spazio.

ENGLISH

The human eye has inspired the development of a camera mechanism that improves how robots see and react to the world around them.

Developed by a team led by University of Maryland (UMD) computer scientists, the camera system mimics the involuntary movements used by the human eye to maintain clear and stable vision.

The team’s prototyping and testing of the camera - called the Artificial Microsaccade-Enhanced Event Camera (AMI-EV) – is detailed in Science Robotics.

“Event cameras are a relatively new technology better at tracking moving objects than traditional cameras, but today’s event cameras struggle to capture sharp, blur-free images when there’s a lot of motion involved,” said the paper’s lead author Botao He, a computer science Ph.D. student at UMD. “It’s a big problem because robots and many other technologies - such as self-driving cars - rely on accurate and timely images to react correctly to a changing environment. So, we asked ourselves: how do humans and animals make sure their vision stays focused on a moving object?”

The answer was microsaccades, which are small and quick eye movements that involuntarily occur when a person tries to focus their view. Through these minute yet continuous movements, the human eye can keep focus on an object and its visual textures - such as colour, depth and shadowing - accurately over time.

According to UMD, the team replicated microsaccades by inserting a rotating prism inside the AMI-EV to redirect light beams captured by the lens. The continuous rotational movement of the prism simulated the movements naturally occurring within a human eye, allowing the camera to stabilise the textures of a recorded object just as a human would. The team then developed software to compensate for the prism’s movement within the AMI-EV to consolidate stable images from the shifting lights. 

“Our eyes take pictures of the world around us, and those pictures are sent to our brain, where the images are analysed. Perception happens through that process and that’s how we understand the world,” said study co-author Professor Yiannis Aloimonos, director of the Computer Vision Laboratory at the University of Maryland Institute for Advanced Computer Studies (UMIACS). “When you’re working with robots, replace the eyes with a camera and the brain with a computer. Better cameras mean better perception and reactions for robots.”

In early testing, AMI-EV was able to capture and display movement accurately in a variety of contexts, including human pulse detection and rapidly moving shape identification.

The researchers also found that AMI-EV could capture motion in tens of thousands of frames per second, outperforming most typically available commercial cameras, which capture 30 to 1000 frames per second on average.

The team believes this smoother and more realistic depiction of motion could be pivotal in applications ranging from creating more immersive augmented reality experiences and better security monitoring to improving how astronomers capture images in space.

Da:

https://www.theengineer.co.uk/content/news/human-eye-inspires-vision-system-for-robotics

Commenti

Post popolari in questo blog

Paracetamolo, ibuprofene o novalgina: quali le differenze? / acetaminophen, ibuprofen, metamizole : what are the differences?

Gli inibitori SGLT-2 potrebbero aiutare a prevenire la demenza / SGLT-2 Inhibitors Could Help Prevent Dementia

Dosi elevate di alcuni stimolanti possono aumentare il rischio di psicosi / High Doses of Some Stimulants Can Increase Psychosis Risk