A Microsoft segít az önvezető autóknak megismerni korlátait

Olvasási idő ikonra 2 perc olvas


Az olvasók segítenek az MSpoweruser támogatásában. Kaphatunk jutalékot, ha a linkjeinken keresztül vásárol. Eszköztipp ikon

Olvassa el közzétételi oldalunkat, hogy megtudja, hogyan segítheti az MSPowerusert a szerkesztői csapat fenntartásában Tovább

A tudatlanság boldogság, és gyakran a legtudatlanabbak hozzák meg a legbiztosabb döntéseket, nem terheli őket a tudat, hogy tévedhetnek.

Sok helyzetben ez mind jó és jó, de az önvezető autók fejlesztésének jelenlegi szintjén, ha egy Tesla magabiztosan nekiütközik egy tűzoltóautónak vagy fehér furgonnak (mindkettő megtörtént), az meglehetősen veszélyes lehet.

A probléma az, hogy az önvezető autók éppen elég okosak ahhoz, hogy autókat vezessenek, de nem tudják, mikor lépnek olyan helyzetbe, amely meghaladja a magabiztosságuk és képességeik szintjét.

A Microsoft Research együttműködött az MIT-vel, hogy segítsen az autóknak pontosan tudni, ha a helyzetek nem egyértelműek.

Amint az MIT hírei megjegyzik, egyetlen helyzet sokféle jelet kaphat, mivel a rendszer sok helyzetet azonosnak érzékel. Például előfordulhat, hogy egy autonóm autó sokszor elgurult egy nagy autó mellett anélkül, hogy lassított volna és leállt volna. De csak egy esetben száguld el mellette egy mentőautó, amely a rendszer számára pontosan ugyanolyannak tűnik. Az autonóm autó nem áll le, és visszajelzést kap arról, hogy a rendszer elfogadhatatlan lépést tett. Mivel az a szokatlan körülmény, hogy ritka, az autók megtanulhatják figyelmen kívül hagyni őket, amikor ritkaságuk ellenére még mindig fontosak.

Az új rendszer, amelyhez a Microsoft hozzájárult, felismeri ezeket a ritka, ellentmondásos képzésű rendszereket, és képes tanulni olyan helyzetekben, ahol például az esetek 90 százalékában elfogadhatóan teljesített, de a helyzet még mindig elég kétértelmű ahhoz, hogy „vakot” érdemeljen. folt."

„Amikor a rendszert a valós világba telepítik, ezt a tanult modellt használhatja arra, hogy óvatosabban és intelligensebben cselekedjen. Ha a tanult modell azt jósolja, hogy egy állapot nagy valószínűséggel vakfolt, a rendszer lekérdezheti az embertől az elfogadható műveletet, ami lehetővé teszi a biztonságosabb végrehajtást” – mondta Ramya Ramakrishnan, a Számítástechnikai és Mesterséges Intelligencia Laboratórium végzős hallgatója.

Olvassa el sokkal részletesebben az MIT News-nál itt.

Bővebben a témákról: autonóm autók, microsoft kutatás

Hagy egy Válaszol

E-mail címed nem kerül nyilvánosságra. Kötelező kitölteni *