mesterséges intelligencia
A Recogni befektetői között nagy autóipari beszállítók és társulások sorakoznak. A cég, amely irodái a kaliforniai Szilícium-völgyben és a németországi Münchenben találhatók, AI platformon nyugvó képfeldolgozással foglalkozik. A technológia a Lidar, a kamera és a radar szenzor adatainak valós idejű és minimális energiát igénylő képfeldolgozására képes. A 25 millió dolláros befektetés mögött egyébként a Fluxunit, a Point Ventures, a Toyota AI Ventures, a BMW iVentures, a Faurecia és a DNS Capital is szerepel.
“Piackutatásunk szerint ezek a feldolgozást gyorsító technológiák vagy a teljesítményre vagy az energiafelhasználásra vannak optimalizálva. De egyik sincs mindkettőre. A Recogni platformja túlteljesíti a jelenleg elérhető főbb vetélytársakéit”.
A 2018-as alapítású Recogni a vizuális és a Lidar/radar adat kombinációjával alapján úttörő, egyedülálló környezetfelismerő megoldást fejleszt, illetve bővíti mérnökcsapatát a 25 milliós forrásból.
Korábbi írásunkból: hatalmas adatmennyiséget kell feldolgozni az önvezetés során
A gigantikus mennyiségű generált adat feldolgozása jelenti a legtöbb gondot a mérnökök számára. Közérthetőbben, a releváns információk - mint például a gyalogosok, a biciklisek, az autók, a buszok vagy jelzőlámpák státuszainak - feldolgozása körülbelül 3,5 percet vesz igénybe egy kép esetén a jelenlegi technológiával. Egy tipikus tréning szett, amely “betanítaná” az autót, 100 ezer képből áll, és ennek a feldolgozása több mint két évig tartana a maga 737 napjával. De ez egy eltúlzott becslés, mert a valóságban azért nem kell minden egyes képet feldolgozni.
Ha a képek generálása mesterségesen zajlik egy szimulációs szoftver segítségével, sok idő takarítható meg. Ebben a vonatkozásban érdekes megjegyezni, hogy a szimuláción nyugvó adat minősége nem teljesen megfelelő, de a valós vezetésből származó információkkal ez jelentősen javítható: az 5%-ban valós és 95%-ban mesterséges adathalmaz már nagyon jó eredménnyel kecsegtet.
A generált és a valós adat kombinálása
A szakértők nem értettek egyet abban, hogy pontosan hány tesztkilométerre van szüksége a rendszereknek ahhoz, hogy megbízhatóan funkcionáljanak. A találgatások 240 milliótól egészen több milliárdig terjednek.
A hatalmas mennyiségű adat miatt a valós információgyűjtés 100 járművel, 240 millió kilométeren 25 évig tartana. Pillanatnyilag ennek a szimulációja 100 számítógéppel öt évet venne igénybe. Azonban felhőalapú megoldásokkal ez a 240 millió kilométer mindössze kettő hét alatt lemodellezhető lenne – s ez nagyon jelentős felgyorsítása a fejlesztési folyamatoknak, viszont komoly összegekbe kerül. Ráadásul, a hatalmas adatmennyiséget, amely a 1015-es peta nagyságrendbe tartozik, először is fel kellene tölteni a felhőbe, amely sok idő még a leggyorsabb megoldásokkal is.