Microsoft hilft selbstfahrenden Autos dabei, ihre Grenzen zu erkennen

Symbol für die Lesezeit 2 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Unwissenheit ist Glückseligkeit, und oft sind es die Unwissendsten, die die sichersten Entscheidungen treffen, ohne von dem Wissen belastet zu sein, dass sie falsch liegen könnten.

In vielen Situationen ist das alles schön und gut, aber auf dem aktuellen Stand der Entwicklung selbstfahrender Autos kann es ziemlich gefährlich sein, wenn ein Tesla selbstbewusst in ein Feuerwehrauto oder einen weißen Lieferwagen stürzt (was beides passiert ist).

Das Problem ist, dass selbstfahrende Autos gerade intelligent genug sind, um Autos zu fahren, aber nicht wissen, wann sie in eine Situation geraten, die ihr Selbstvertrauen und ihre Fähigkeiten übersteigt.

Microsoft Research hat mit dem MIT zusammengearbeitet, um Autos dabei zu unterstützen, genau zu erkennen, wann Situationen mehrdeutig sind.

Wie MIT News feststellt, kann eine einzelne Situation viele verschiedene Signale empfangen, da das System viele Situationen als identisch wahrnimmt. Beispielsweise kann ein autonomes Auto viele Male neben einem großen Auto hergefahren sein, ohne langsamer zu werden und anzuhalten. Aber nur in einem Fall fährt ein Krankenwagen vorbei, der dem System genauso erscheint. Das autonome Auto hält nicht an und erhält ein Feedback-Signal, dass das System eine inakzeptable Aktion durchgeführt hat. Da der ungewöhnliche Umstand selten ist, können Autos lernen, sie zu ignorieren, obwohl sie trotz ihrer Seltenheit immer noch wichtig sind.

Das neue System, zu dem Microsoft beigetragen hat, erkennt diese seltenen Systeme mit widersprüchlichem Training und kann in einer Situation lernen, in der es beispielsweise 90 Prozent der Zeit eine akzeptable Leistung erbracht hat, die Situation jedoch immer noch mehrdeutig genug ist, um einen „Blind“ zu verdienen Stelle."

„Wenn das System in der realen Welt eingesetzt wird, kann es dieses erlernte Modell verwenden, um vorsichtiger und intelligenter zu agieren. Wenn das erlernte Modell einen Zustand mit hoher Wahrscheinlichkeit als blinden Fleck vorhersagt, kann das System einen Menschen nach der akzeptablen Aktion fragen, was eine sicherere Ausführung ermöglicht“, sagte Ramya Ramakrishnan, Doktorandin im Labor für Informatik und künstliche Intelligenz.

Lesen Sie viel ausführlicher bei MIT News hier.

Mehr zu den Themen: autonome Autos, Microsoft Forschung

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *