Pressemeddelelse fra Aarhus Universitet Technical Sciences
En af de helt store gordiske knuder inden for autonom styring af transportmidler er at få kunstig intelligens til at opfatte og forstå verden omkring den, således at den kan reagere og manøvrere tidsvarende – uanset om det er en bil, et skib, et fly en luft-taxa eller endda en drone, den styrer.
Og et af de helt store håb i forhold til at løse denne knude er droneræs. Drone racing, som sporten hedder på engelsk, er en sportsgren i voldsom vækst over hele verden, hvor man udstyret med et VR-headset leder en drone gennem porte i en forhindringsbane hurtigst muligt.
Den form for droneræs, som AI-forskere er interesseret i, er imidlertid autonomt droneræs, hvor det alene er en kunstig intelligens, der guider dronen gennem portene på banen.
Men hvis man skal vinde i droneræs, gælder det om at flyve hurtigt og sikkert, mens man undviger forhindringer. Og det kræver en drone, som er let og lille og adræt.
Her kommer computer vision ind i spillet. For når dronen skal være let, lille og adræt, er der ikke plads til en masse sensorer, der kan opfange landskabet, når dronen passerer, og der er slet ikke energi i dronens små batterier til at holde trit med udregningstunge neurale netværk, som kræver store mængder energi for at få den kunstige intelligens til at kunne reagere på inputs.
Så hvis man kan udvikle nogle effektive AI algoritmer, der kan manøvrere en drone gennem porte på en forhindringsbane på samme måde, som mennesker kan, vil det få vidtrækkende konsekvenser for en meget lang række applikationer. Eksempelvis inden for robotteknologi.
“Vi er sådan set ude på at få en kunstig intelligens til at reagere på ukendt terræn, samtidig med at den skal bruge mindst mulig strøm og færrest muligt sensorer på det. Og der er autonomt droneræs bare den bedste måde at skubbe grænserne for, hvad der er muligt,” siger lektor Erdal Kayacan, Institut for Ingeniørvidenskab, Aarhus Universitet.
Drømmen er at designe en fuldstændig autonom drone, der ved hjælp af avancerede AI-teknikker kan slå selv den bedste menneskelige pilot i et ræs. Målet er både langsigtet og udfordrende, da forskere støder på nye problemer med allerede eksisterende problemer inden for robotik, f.eks. motion blur effekt fra kameraer, ikke-lineær opførsel af dronen ved høje hastigheder og dronens begrænsede beregningskraft.
Erdal Kayacan leder
på universitetet, og her er man netop i gang med at skubbe til grænserne for den kunstige intelligens’ kunnen.Teamet har netop udviklet en ny datagenererings-metode, der danner grundlag for hurtigere og mere effektiv træning af den kunstige intelligens.
“Generering af datasæt med info om de faktiske omgivelser, såkaldt ground truth, er lige så vigtigt i dag som at foreslå helt nye metoder til maskinlæring,” siger lektoren.
Han forklarer, at der i hovedtræk i dag er tre måder at generere disse data på. Man kan indsamle data fra den virkelige verden eller udelukkende fra simuleringer eller ved en kombination af de to.
Den første metode (indsamling af data fra den virkelige verden) genererer rigtige billeder af rigtige porte i rigtige miljøer. Men denne metode kræver manuel mærkning af porte på hvert træningsbillede, og det er tidskrævende. En automatisk mærkningsmetode er altid at foretrække, og der kræver metoden en meget nøjagtig placering af porten i forhold til dronen, og det er ikke altid muligt.
På den anden side, er alting meget præcist defineret i det simulerede miljø i den anden metode (indsamling af data ved simulering). Men her er den store ulempe, at det er vanskeligt at skabe et fotorealistisk miljø.
Og så er der den tredje metode, der kombinerer fordelene ved de første to. Den metode har forskningsteamet selv udviklet, og holdet har netop publiceret en artikel om den ved WCCI 2020, World Congress of Computational Intelligence, der foregik i slutningen af juli.
“Vi kalder metoden ’semi-syntetisk’, da vi kombinerer virkelige baggrundsbilleder med randomiserede 3D-renderinger af portene, dronen skal passere. På den måde kan vi meget hurtigt beregne ground truth for praktisk talt enhver måling, og det gør det hurtigt at træne den kunstige intelligens i en ubegrænset mængde af øvelser,” siger Erdal Kayacan.
Forskningsgruppen AiR på Aarhus Universitet er langt fra den eneste forskningsgruppe, der beskæftiger sig med droneræs. Og selvom det måske lyder som ren leg, håber lektoren, at de teknikker til computer vision, der udvikles i forbindelse med autonomt droneræs, kan finde bred anvendelse inden for kunstig intelligens.
Ud over lektor Erdal Kayacan har gæste-ph.d.-studerende Andriy Sarabakha fra Nanyang Technological University og kandidatstuderende Théo Morales bidraget til den nyudviklede metode. Artiklen, ‘Image Generation for Efficient Neural Network Training in Autonomous Drone Racing’, blev offentliggjort ved WCCI 2020.
Kontakt:
Lektor Erdal Kayacan
Institut for Ingeniørvidenskab, Aarhus Universitet
Mail: erdal@eng.au.dk
Tel.: +45 93521062
Læs hele pressemeddelelsen på Via Ritzau her: https://via.ritzau.dk/pressemeddelelse/autonomt-droneraes-haever-barren-for-kunstig-intelligens?releaseId=13597582
** Ovenstående pressemeddelelse er videreformidlet af Ritzau på vegne af tredjepart. Ritzau er derfor ikke ansvarlig for indholdet **