Microsoft helpt zelfrijdende auto's de beperkingen ervan kennen

Pictogram voor leestijd 2 minuut. lezen


Lezers helpen MSpoweruser ondersteunen. We kunnen een commissie krijgen als u via onze links koopt. Tooltip-pictogram

Lees onze openbaarmakingspagina om erachter te komen hoe u MSPoweruser kunt helpen het redactieteam te ondersteunen Lees meer

Onwetendheid is gelukzaligheid, en het zijn vaak de meest onwetenden die de zekerste beslissingen nemen, niet gehinderd door de wetenschap dat ze het bij het verkeerde eind kunnen hebben.

In veel situaties is dit allemaal goed en wel, maar op het huidige niveau van de ontwikkeling van zelfrijdende auto's kan het behoorlijk gevaarlijk zijn om een ​​Tesla vol vertrouwen tegen een brandweerwagen of witte bestelwagen te laten botsen (wat beide is gebeurd).

Het probleem is dat zelfrijdende auto's net slim genoeg zijn om auto's te besturen, maar niet om te weten wanneer ze in een situatie terechtkomen die buiten hun niveau van vertrouwen en bekwaamheid ligt.

Microsoft Research heeft met MIT samengewerkt om auto's te helpen precies te weten wanneer situaties dubbelzinnig zijn.

Zoals MIT News opmerkt, kan een enkele situatie veel verschillende signalen ontvangen, omdat het systeem veel situaties als identiek waarneemt. Een autonome auto kan bijvoorbeeld vele malen naast een grote auto zijn gereden zonder te vertragen en aan de kant te gaan. Maar in slechts één geval komt er een ambulance voorbij, die er precies hetzelfde uitziet voor het systeem. De zelfrijdende auto stopt niet en krijgt een signaal dat het systeem een ​​onacceptabele actie heeft ondernomen. Omdat de ongebruikelijke omstandigheid zeldzaam is, kunnen auto's leren ze te negeren, terwijl ze nog steeds belangrijk zijn ondanks dat ze zeldzaam zijn.

Het nieuwe systeem, waaraan Microsoft heeft bijgedragen, zal deze zeldzame systemen herkennen met tegenstrijdige training en kan leren in een situatie waarin het bijvoorbeeld 90 procent van de tijd acceptabel heeft gepresteerd, de situatie is nog steeds dubbelzinnig genoeg om een ​​"blind plek."

“Wanneer het systeem in de echte wereld wordt ingezet, kan het dit aangeleerde model gebruiken om voorzichtiger en intelligenter te handelen. Als het geleerde model voorspelt dat een toestand met grote waarschijnlijkheid een blinde vlek is, kan het systeem een ​​mens vragen naar de acceptabele actie, wat een veiligere uitvoering mogelijk maakt', zegt Ramya Ramakrishnan, een afgestudeerde student in het Computer Science and Artificial Intelligence Laboratory.

Lees veel meer details bij MIT News hier.

Meer over de onderwerpen: autonome auto's, Microsoft onderzoek

Laat een reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd *