Helm.ai, vodeći dobavljač naprednog AI softvera za visokokvalitetne ADAS sisteme, autonomnu vožnju nivoa 4 i robotsku automatizaciju, najavio je lansiranje VidGen-1, generativnog AI modela koji proizvodi visoko realistične video sekvence scena vožnje za razvoj i validaciju autonomne vožnje. Ova inovativna AI tehnologija prati najavu Helm.ai-ovog GenSim-1 za AI-generisane označene slike i značajna je za zadatke predikcije i generativne simulacije.
Treniran na hiljadama sati raznovrsnih snimaka vožnje, generativni AI video model Helm.ai koristi inovativne arhitekture dubokih neuronskih mreža (DNN) kombinovane sa Deep Teaching — visoko efikasnom tehnologijom nezavisnog učenja — za kreiranje realističnih video sekvenci scena vožnje. Video snimci, proizvedeni u razmeri od 384 x 640, sa promenljivim brzinama kadrova do 30 kadrova u sekundi i u dužini do nekoliko minuta, mogu biti generisani nasumično bez početnog unosa ili uz pomoć jedne slike ili ulaznog video zapisa.
VidGen-1 je sposoban da generiše video snimke scena vožnje u različitim geografijama i za nekoliko tipova kamera i perspektiva vozila. Model ne samo da proizvodi visoko realističan izgled i vremenski konzistentno kretanje objekata, već uči i reprodukuje vozačko ponašanje slično ljudskom, generišući kretanja vozila i okolnih agenata koji se ponašaju u skladu sa saobraćajnim pravilima. Model simulira realistične video snimke različitih scenarija u više gradova, obuhvatajući urbana i prigradska okruženja, različite vrste vozila, pešake, bicikliste, raskrsnice, skretanja, vremenske uslove (npr. kiša i magla), efekti osvetljenja (odsjaj, noćna vožnja), pa čak i tačne refleksije na mokrim površinama puteva, reflektujućim zidovima zgrada i haubi vozila.
Video podaci su najsadržajniji senzorni modalitet u autonomnoj vožnji i dolaze od najisplativijeg senzora – kamere. Međutim, visoka dimenzionalnost video podataka čini AI generisanje video sadržaja izazovnim zadatkom. Postizanje visokog nivoa kvaliteta slike uz precizno modelovanje dinamike pokretne scene, a samim tim i video realizma, poznata je teškoća u aplikacijama za generisanje video sadržaja.
Generativni AI za video razvoj VidGen-1, postavlja novi standard u domenu autonomne vožnje. Kombinovanje Deep Teaching tehnologije sa dodatnim internim inovacijama u generativnim DNN arhitekturama rezultira izuzetno efikasnom i skalabilnom metodom za proizvodnju realističnih AI generisanih video snimaka. Tehnologija se može jednako efikasno primeniti na autonomnu vožnju, robotiku i bilo koju drugu oblast generisanja video sadržaja bez promene.
VidGen-1 nudi proizvođačima automobila značajne prednosti u skalabilnosti u poređenju sa tradicionalnim ne-AI simulacijama. Pristup Helm.ai ne samo da smanjuje vreme razvoja i troškove, već i efikasno zatvara „sim-to-real“ jaz, pružajući visoko realističan i efikasan način koji uveliko proširuje primenljivost obuke i validacije zasnovane na simulaciji.
Predviđanje sledećeg kadra u video snimku je slično predviđanju sledeće reči u rečenici. Generisanje realističnih video sekvenci scene vožnje predstavlja najnapredniji oblik predikcije za autonomnu vožnju, jer podrazumeva precizno modeliranje izgleda stvarnog sveta i uključuje i predikciju namere i planiranje puta kao implicitne pod-zadatke na najvišem nivou sloja. Ova sposobnost je ključna za autonomnu vožnju jer, u osnovi, vožnja se svodi na predviđanje šta će se dogoditi sledeće.