How AI is paving the way for fully autonomous cars. Come AI sta aprendo la strada per auto completamente autonome.
Artificial intelligence is set to be the stepping stone between driver assistance systems and truly autonomous vehicles. Chris Pickering reports
You’d be forgiven for thinking that fully autonomous cars were just around the corner. In some respects, of course, they are. Partial automation – along with the lines of Tesla’s much-publicised Autopilot – is set to become commonplace on premium cars over the next few years. Even when it comes to higher levels of autonomy, much of the required hardware is already available.
It’s all so tantalisingly close. And yet there is a huge amount of work – not to mention a good deal of legal and administrative wrangling – to be done before we can safely switch our cars over to autonomous mode and go to sleep.
To cross that threshold, autonomous cars have to truly comprehend their environment. They need to be able to identify potential hazards, anticipate the actions of others and make decisions of their own. The key to this ability is artificial intelligence, with systems such as neural networks promising to take us into a brave new world of machines that think for themselves.
Most of the sensor technology is here already. For long range use, radar is the default choice. It’s already widely used in adaptive cruise control and developers are aiming for up to 400 metres’ range. The same technology can be used to provide mid-range detection, along with lidar and stereo video cameras. For close proximity work, ultrasonic sensors and short-range cameras are the preferred solutions.
“All these sensors have strengths and weaknesses,” explained Charles Degutis, director of product management for highly automated driving at Bosch. “Radar is very powerful, but it can bounce off tunnels and bridges, and it can struggle to differentiate small closely-spaced objects. Video provides lots of detail, but it can be blinded by things like glare. And lidar gives you a 3D picture, but being light-based it can degrade in high moisture situations.”
Bosch believes the best way forward is to combine all three sensor types, giving a more comprehensive picture, plus a degree of redundancy. Some, however, claim that video on its own could be sufficient, and potentially cheaper, given the right processing. Either way, the sensor technology is unlikely to be an obstacle.
The final piece of the jigsaw is high-resolution mapping. In urban environments, autonomous cars will be able to pinpoint their location down to an inch or so by referencing sensor data to highly accurate 3D maps. These will be generated by radar surveys and kept up to date using data from fleets of vehicles connected to the cloud.
AI inside
Increasingly, the challenge facing autonomous vehicles is not so much capturing the world around them, but making sense of it.
The process of identifying and classifying objects from sensor data is known as semantic segmentation. For human adults – trained to recognise patterns from birth – this is a slightly abstract concept; we see an image of a car and instinctively know what it is, even if it’s not a specific type we’ve encountered before. For computers, however, this poses a significant challenge. The system has to recognise that, say, a small two-seater convertible is fundamentally the same type of object as a seven-seat SUV. Likewise, pedestrians and roadside objects all come in a bewildering array of sizes and forms.
In order to decipher these complex situations, autonomous vehicle developers are turning to artificial neural networks. As the name implies, these computer systems are inspired by the vast clusters of neurons found in the brain, and they learn in a very similar way.
In place of traditional programming, the network is given a set of inputs and a target output (in this case, the inputs being image data and the output is a particular class of object). Essentially, what it does is feed the data into the mass of interconnected neurons – each of which can have tens of thousands of connections to the others – and then compare the observed output to the target. Over successive iterations the network refines itself, changing the strength of certain connections until the input exactly matches the desired output.
In the right conditions, neural networks can already exceed the capacity of humans in discerning specific patterns
Eventually, the network can learn to spot the tell-tale features that identify a particular class of object. It doesn’t follow any preset rules for identifying them, though. For want of a better description it simply ‘knows’. It’s this ability to think outside the box that makes neural networks such a powerful tool for semantic segmentation.
“In the right conditions, neural networks can already exceed the capacity of humans in discerning specific patterns,” said Christoph Peylo, global head of the Bosch Centre for Artificial Intelligence (BCAI). “What sets them apart is that they are capable of digesting highly-dimensional data. Other processes, such as decision trees, can work well for some applications, but they can’t cope with too many attributes. If you think about the range of inputs on an autonomous car, you might have data from the camera, radar, lidar, the road conditions, the humidity…perhaps 10 highly-dimensional sources. With so many attributes a neural network would make sense.”
The process of training a neural network for semantic segmentation involves feeding it numerous sets of training data with labels to identify key elements, such as cars or pedestrians. This data can be generated from simulations (providing they’re accurate enough) or captured from the real-world footage.
The engineers at BCAI use a combination of the two, explained Peylo: “The system learns through specific examples, so you have to ensure that everything that’s potentially relevant can be trained. You can drive for perhaps millions of miles and not encounter a specific hazard, so you have to add those cases [artificially].”
Accurately identifying objects is a major step towards predicting their behaviour. A car, for example, generally follows a different set of rules to a pedestrian. But in order to make decisions, the car also needs to be able to cope with situations and behaviours that are outside of the normal rules. What should it do if there is a broken down vehicle blocking the carriageway, for instance, or how would it merge into another stream if there were no clear road markings?
A neural network could be taught to recognise that a ball bouncing into the road could be followed by a child.
In theory, this is another prime candidate for the use of neural networks. They could be used to predict behaviour based on a sequence of events. It’s not inconceivable, for instance, that a neural network could be taught to recognise that a ball bouncing into the road could be followed by a child.
“The expertise that you need to drive a car cannot be fully described in an algorithm, but you can learn by experience. Machine learning allows computers to carry out the same process,” said Peylo.
Unfortunately, at the moment there’s a snag. “Neural networks are very powerful, but they are not yet fully understood,” he explained. “We see the results, but we cannot say exactly how the machine came up with the solution. Making it understandable and explainable is a very important challenge, particularly for applications that have to be verified and certified. Understanding how the neural network functions is a prerequisite for that, and it’s one of our major research topics at BCAI.”
For the time being, Bosch prefers to use probability-based models for high-level decision making. These look at the chances of a vehicle diverging from its anticipated behaviour (i.e. failing to stop for a red light) and evaluate the potential risk. This technique is not as powerful or as flexible as a neural network, but it does have the key advantage that every decision can be tracked and understood.
Machine learning is already employed for semantic segmentation in driver assistance systems, such as autonomous emergency braking, though. It allows partially-automated cars to carry out tasks that would be virtually impossible with traditional computing techniques, helping them to comprehend the abstract and unpredictable world of driving. And in the future it could hold the key to cars that truly think for themselves.
Smart trucks
Passenger cars may grab the headlines, but it’s arguably commercial vehicles that lead the way in the adoption of driver assistance systems. Since 2015 all new trucks (over 8 tonnes) sold in the EU have had to be fitted with autonomous emergency braking (AEB). Lane keeping functions and adaptive cruise control (ACC) are also widespread, which means that commercial vehicles are already ahead of many passenger cars.
“We see a lot of potential for driver assistance systems in trucks,” said Bosch’s Emanuel Willman. “The commercial vehicle business is driven by the total cost of ownership and reducing the number of accidents is a major part of that. With a highly automated truck, we think you could eliminate 90 per cent of the accidents that occur today.”
The next big thing is likely to turn assist systems, which could dramatically reduce the number of accidents that occur between lorries and cyclists, he explains.
Looking ahead, several companies are already testing autonomous trucks and the technology required for partial autonomy on motorways is more or less production-ready. It’s closely related to that found on passenger cars, although the sensors have to be more robust (to cope with a potential million-mile lifespan). The software also has to be retrained to recognise objects from a very different angle, perched several metres further up.
Another function Bosch expects to see in the future is platooning. Here, a driver can alert others via the cloud that they are willing to lead a convoy. The other trucks can then ‘dock’ autonomously with the lead vehicle as they drive along. Willman says he foresees a system where the vehicles behind would pay a contribution to the lead driver’s costs in return for this service. It could reduce the aerodynamic drag of the convoy as a whole, as well as provide time for the other drivers to rest or carry out admin.
ITALIANO
L'intelligenza artificiale è impostata per essere la pietra miliare tra sistemi di assistenza guidatori e i veicoli veramente autonomi. Racconta Chris Pickering
Sarai perdonato per aver pensato che automobili completamente autonome erano proprio dietro l'angolo. Certo, naturalmente, lo sono sotto certi aspetti. L'automazione parziale, insieme alle linee dell'autopilota molto pubblicizzata di Tesla, è destinata a diventare comune su vetture premium nei prossimi anni. Anche quando si tratta di livelli più elevati di autonomia, gran parte degli hardware richiesti è già disponibile.
È tutto così allettantamente vicino. Eppure c'è un'enorme quantità di lavoro - per non parlare di una gran quantità di sconnessioni legali e amministrative - da fare prima di poter tranquillamente passare le nostre auto in modalità autonoma e andare a dormire.
Per attraversare questa soglia, le auto autonome devono comprendere veramente l'ambiente. Devono essere in grado di identificare potenziali pericoli, anticipare le azioni degli altri e prendere decisioni proprie. La chiave di questa abilità è l'intelligenza artificiale, con sistemi come le reti neurali che promettono di portarci in un nuovo mondo coraggioso di macchine che pensano per se stesse.
La maggior parte della tecnologia del sensore è già presente. Per uso a lungo raggio, il radar è la scelta predefinita. È già ampiamente utilizzato nel controllo adattabile di crociera e gli sviluppatori stanno puntando fino a 400 metri di distanza. La stessa tecnologia può essere utilizzata per fornire rilevamenti a media frequenza, con le videocamere lidar e stereo. Per i lavori di prossimità, i sensori ad ultrasuoni e le fotocamere a corto raggio sono le soluzioni privilegiate.
"Tutti questi sensori hanno punti di forza e debolezze", ha spiegato Charles Degutis, direttore della gestione dei prodotti per la guida altamente automatizzata a Bosch. "Il radar è molto potente, ma può non funzionare in tunnel e ponti e può aver difficoltà a distinguere piccoli oggetti strettamente distanziati. Il video offre tantissimi dettagli, ma può essere accecato da cose come il bagliore. E lidar ti dà un'immagine 3D, ma basandosi sulla luce può degradarsi in situazioni di umidità elevata ".
Bosch ritiene che il modo migliore è quello di combinare tutti e tre i tipi di sensori, dando un'immagine più completa e più ridondanza. Alcuni, tuttavia, affermano che il video in sé potrebbe essere sufficiente e potenzialmente più economico, data la giusta elaborazione. Ad ogni modo, la tecnologia del sensore è improbabile che sia un ostacolo.
Il pezzo finale del puzzle è una mappatura ad alta risoluzione. Negli ambienti urbani, le vetture autonome saranno in grado di individuare la loro posizione fino a un pollice, facendo riferimento ai dati dei sensori a mappe 3D altamente accurate. Questi saranno generati dalle indagini radar e aggiornate usando i dati delle flotte di veicoli collegati alla rete.
Dentro AI
Sempre più, la sfida con i veicoli autonomi non è tanto di catturare il mondo intorno a loro, ma di comprenderlo.
Il processo di identificazione e classificazione di oggetti dai dati dei sensori è noto come segmentazione semantica. Per gli adulti umani - addestrati a riconoscere i modelli dalla nascita - questo è un concetto leggermente astratto; vediamo un'immagine di un'auto e sappiamo istintivamente ciò che è, anche se non è un tipo specifico che abbiamo incontrato prima. Per i computer, però, questo rappresenta una sfida significativa. Il sistema deve riconoscere che, per esempio, una piccola cabriolet a due posti è fondamentalmente lo stesso tipo di oggetto come un SUV a sette sedili. Allo stesso modo, i pedoni e gli oggetti stradali sono tutti in una serie sorprendente di dimensioni e forme.
Per decifrare queste situazioni complesse, gli sviluppatori di veicoli autonomi si rivolgono a reti neurali artificiali. Come il nome implica, questi sistemi informatici sono ispirati dai vasti cluster di neuroni presenti nel cervello e imparano in modo molto simile.
Al posto della programmazione tradizionale, alla rete viene fornita una serie di ingressi e un'uscita di destinazione (in questo caso gli ingressi sono dati di immagine e l'output è una particolare classe di oggetto). In sostanza, ciò che fa è alimentare i dati nella massa di neuroni interconnessi - ognuno dei quali può avere decine di migliaia di connessioni agli altri - e quindi confrontare l'output osservato con l'obiettivo. Sulle successive iterazioni la rete si affina, cambiando la forza di determinate connessioni finché l'input non corrisponde esattamente all'uscita desiderata.
Nelle giuste condizioni, le reti neurali possono già superare la capacità degli esseri umani nel distinguere modelli specifici
Alla fine, la rete può imparare a individuare le caratteristiche che identificano una particolare classe di oggetti. Non segue alcuna regola prestabilita per identificarli, però. Per la mancanza di una descrizione migliore, semplicemente "sa". È questa capacità di pensare al di fuori della scatola che rende le reti neurali uno strumento potente per la segmentazione semantica.
"Nella giusta condizione, le reti neurali possono già superare la capacità degli esseri umani nello specificare modelli specifici", ha dichiarato Christoph Peylo, responsabile globale del Centro Bosch per l'intelligenza artificiale (BCAI). "Ciò che li distingue è che sono in grado di digerire dati altamente dimensionali. Altri processi, come gli alberi decisionali, possono funzionare bene per alcune applicazioni, ma non possono far fronte a troppi attributi. Se si pensa alla gamma di input su un'auto autonoma, potresti avere dati dalla fotocamera, dal radar, dal lidar, dalle condizioni stradali, dall'umidità ... forse da 10 sorgenti altamente dimensionali. Con tanti attributi una rete neurale avrebbe senso ".
Il processo di formazione di una rete neurale per la segmentazione semantica implica l'alimentazione di numerosi set di dati formativi con etichette per identificare elementi chiave come automobili o pedoni. Questi dati possono essere generati da simulazioni (a condizione che siano abbastanza accurate) o catturate dai filmati reali.
Le reti neurali potrebbero aiutare le vetture senza conducente ad affrontare l'imprevedibilità del mondo reale
Gli ingegneri di BCAI utilizzano una combinazione dei due, ha spiegato Peylo: "Il sistema impara attraverso esempi specifici, quindi devi assicurare che tutto ciò che sia potenzialmente rilevante possa essere addestrato. Puoi guidare per forse milioni di miglia e non incontrare un pericolo specifico, quindi dovrai aggiungere questi casi [artificialmente] ".
L'identificazione precisa degli oggetti è un passo importante per la previsione del loro comportamento. Ad esempio, un'automobile segue un insieme diverso di regole per un pedone. Ma per prendere decisioni, l'auto deve anche essere in grado di affrontare situazioni e comportamenti che sono al di fuori delle normali regole. Cosa dovrebbe fare se c'è un veicolo spezzato che blocca la carreggiata, ad esempio, o come si fonderebbe in un altro flusso se non ci fossero segnaletica stradale chiara?
Una rete neurale potrebbe essere addrestata a riconoscere che una palla che salta in strada potrebbe essere seguita da un bambino.
In teoria, questo è un altro candidato primario per l'uso di reti neurali. Potrebbero essere utilizzati per predire il comportamento basato su una sequenza di eventi. Non è però inconcepibile, ad esempio, che una rete neurale potrebbe essere addrestataa riconoscere che una palla che rimbalza nella strada potrebbe essere seguita da un bambino.
"Le competenze necessarie per guidare un'automobile non possono essere descritte in modo completo in un algoritmo, ma è possibile imparare dall'esperienza. L'apprendimento automatico consente ai computer di eseguire lo stesso processo ", ha dichiarato Peylo.
Purtroppo, al momento c'è un ostacolo. "Le reti neurali sono molto potenti, ma non sono ancora pienamente comprese", ha spiegato. "Vediamo i risultati, ma non possiamo dire esattamente come la macchina abbia trovato la soluzione. Rendenderla comprensibile e spiegabile è una sfida molto importante, in particolare per applicazioni che devono essere verificate e certificate. Comprendere come funziona la rete neurale è una condizione preliminare per questo, ed è uno dei nostri principali argomenti di ricerca a BCAI ".
Per il momento, Bosch preferisce utilizzare modelli basati sulla probabilità per decisioni di alto livello. Questi guardano le possibilità di un veicolo che diverge dal suo comportamento anticipato (cioè non riesce a fermarsi per una luce rossa) e valuta il rischio potenziale. Questa tecnica non è così potente o flessibile come una rete neurale, ma ha il vantaggio fondamentale che ogni decisione può essere tracciata e capita.
L'apprendimento automatico è già impiegato per la segmentazione semantica nei sistemi di assistenza dei conducenti, come ad esempio la frenatura d'emergenza autonoma. Permette alle vetture parzialmente automatizzate di svolgere compiti che sarebbero praticamente impossibili con le tecniche tradizionali di calcolo, aiutandole a comprendere il mondo astratto e imprevedibile della guida. E in futuro potrebbe mantenere la chiave per le auto che veramente pensano per se stesse.
Camion intelligenti
Le automobili passeggeri possono suscitare interesse, ma sono i veicoli commerciali che guidano la strada nell'adozione di sistemi di assistenza guidatori. Dal 2015 tutti i nuovi camion (oltre 8 tonnellate) venduti nell'UE hanno dovuto essere dotati di frenata d'emergenza autonoma (AEB). Sono inoltre diffuse funzioni di mantenimento della corsia e controllo di velocità adattivo (ACC), il che significa che i veicoli commerciali sono già davanti a molte auto passeggeri.
"Vediamo un sacco di potenzialità per i sistemi di assistenza dei conducenti nei camion", ha dichiarato Emanuel Willman di Bosch. "L'attività del veicolo commerciale è guidata dal costo totale della proprietà e la riduzione del numero di incidenti è una parte importante per la decisione. Con un autocarro altamente automatizzato, pensiamo che tu possa eliminare il 90% degli incidenti che si verificano oggi ".
La prossima grande cosa è probabile che si trasformi in sistemi di assistenza, che potrebbero ridurre drasticamente il numero di incidenti che si verificano tra camion e ciclisti, spiega.
Guardando avanti, molte aziende stanno già testando autocarri e la tecnologia richiesta per l'autonomia parziale sulle autostrade è più o meno produttiva. È strettamente legato a quello trovato sulle vetture passeggeri, anche se i sensori devono essere più robusti (per affrontare una vita utile di milioni di chilometri). Il software deve anche essere riqualificato per riconoscere oggetti da un angolo molto diverso, a partire da diversi metri in su.
Un'altra funzione che Bosch si aspetta di vedere in futuro è la plottatura. Qui, un conducente può avvisare gli altri attraverso la nuvola che sono disposti a condurre un convoglio. Gli altri camion possono poi "mettere" in autonomia con il veicolo di guida mentre guidano. Willman dice che prevede un sistema in cui i veicoli dietro pagherebbero un contributo ai costi del conducente in cambio di questo servizio. Potrebbe ridurre il trascinamento aerodinamico del convoglio nel suo complesso, oltre a fornire tempo per gli altri piloti di riposare o eseguire altri compiti amministrativi.
Da:
https://www.theengineer.co.uk/ai-autonomous-cars/?cmpid=tenews_3842985&adg=B69ABBDE-DA23-4BA2-B8C3-86E1E1A9FA79
Commenti
Posta un commento