BlenderBot 3 von Meta: Ein verbesserter Chatbot, der entwickelt wurde, um „aus Gesprächen zu lernen“

Symbol für die Lesezeit 4 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Sie gehören wahrscheinlich zu den Leuten, die sich in den Humor des KI-Roboters namens TARS im Interstellar-Film verliebt haben. Wir haben gehört, wie es Witze macht und Bemerkungen macht wie ein cooler Typ in einer Bar. Leider ist unsere aktuelle Technologie noch weit davon entfernt, solche Roboter herzustellen, die sich wie ein lebender Mensch beiläufig und natürlich mit uns unterhalten können. Dennoch, Meta macht einen neuen Schritt, um dies zu ermöglichen, indem es sein neuestes KI-Forschungsprojekt, the BlenderBot 3 Chatbot.

BlenderBot 3 ist nur eines von Metas Projekten in seiner BlenderBot-Serie, die es der KI ermöglicht, mithilfe von Internetdaten und Langzeitgedächtnis „sinnvolle Gespräche zu führen“. Im Vergleich zu anderen soll BlenderBot 3 ein viel größeres Sprachmodell verwenden, das 58-mal so groß ist wie BlenderBot 2. Insbesondere wird es mit einer riesigen Menge öffentlich verfügbarer Sprachdaten mit unzähligen Gesprächen zu den unterschiedlichsten Themen trainiert , von Rezepten bis hin zu interessanten Orten und touristischen Ferien. 

Andererseits ist das Haupthighlight von BlenderBot 3 seine Fähigkeit, aus den Gesprächen zu lernen, die er mit verschiedenen Personen im Internet führt. Meta sagt, dass es diese Technik verwenden wird, um Feedback von Menschen über das Modell zu sammeln, das es verwenden wird, um seine Antworten zu verbessern.

„Das Ziel unserer Forschung ist es, Feedback-Daten zu sammeln und zu veröffentlichen, die wir und die breitere KI-Forschungsgemeinschaft im Laufe der Zeit nutzen können. Auf diese Weise können wir neue Wege finden, wie KI-Systeme sicherer und ansprechender für die Menschen sind, die sie verwenden“, sagte Meta in a Blog-Post. „Während BlenderBot 3 öffentlich verfügbare Chatbots erheblich verbessert, ist es sicherlich nicht auf menschlicher Ebene. Es ist gelegentlich falsch, inkonsistent und off-topic. Da immer mehr Menschen mit unserer Demo interagieren, werden wir unsere Modelle mithilfe ihres Feedbacks verbessern und Daten veröffentlichen, um der breiteren KI-Community zugute zu kommen.“

Trotz der neuen Verbesserungen gab Meta zu, dass BlenderBot 3 alles andere als perfekt ist. Obwohl es im Vergleich zu seinen Vorgängern bei Konversationsaufgaben doppelt so sachkundig und um 31 % verbessert ist, stellte Meta fest, dass es immer noch ungünstige Leistungen erbringen kann. Tatsächlich behauptete Meta, dass 0.16 % seiner Antworten während des Tests als unangemessen eingestuft wurden. In der Zwischenzeit, um den Chatbot vor denen zu schützen, die ihn negativ nutzen wollen, sagte Meta, dass er BlenderBot 3 auch die richtige Fähigkeit gegeben habe, um zu vermeiden, beleidigende Bemerkungen zu lernen, insbesondere unangemessene Aussagen von Trollen.

„Wir verstehen, dass nicht jeder, der Chatbots verwendet, gute Absichten hat, deshalb haben wir auch neue Lernalgorithmen entwickelt, um zwischen hilfreichen Antworten und schädlichen Beispielen zu unterscheiden“, teilte Meta mit. „Im Laufe der Zeit werden wir diese Technik verwenden, um unsere Modelle verantwortungsbewusster und sicherer für alle Benutzer zu machen.“

BlenderBot 3 ist bereits verfügbar, um von US-Benutzern ausprobiert zu werden, aber wie erwartet ist es nicht fehlerfrei. Während er Sätze reibungslos liefern kann, verpasst der Chatbot manchmal den Gesprächsfluss und könnte von einem Thema zum anderen springen. Zum Beispiel in einer Unterhaltung, die von geteilt wird Kabelgebunden, BlenderBot 3 brachte Ideen ein, die für die Diskussion nicht sehr relevant sind.

In einem anderen Chat mit dem BlenderBot 3 mit dem BuzzFeed-Datenwissenschaftler Max Woolf bewunderte der Bot Mark Zuckerberg und sagte, der CEO von Meta sei „ein guter Geschäftsmann“. Allerdings in einer umformulierten Frage von gestellt Yahoo!, negierte der Bot irgendwie die Antwort, die er Woolf gab, indem er sagte: „Oh Mann, große Zeit. Ich mag ihn überhaupt nicht. Er ist zu gruselig und manipulativ.“

Trotz alledem dürfte es für BlenderBot 3 noch ein langer Weg sein, der intelligente Chatbot zu werden, auf den sich die Welt verlassen kann. Nichtsdestotrotz sollte Meta mit den richtigen Interaktionen und Rückmeldungen die richtigen Materialien erhalten, um das System weiter zu verbessern und ihm (hoffentlich) bei der Entscheidung helfen, ob Zuckerberg tatsächlich ein guter Geschäftsmann oder ein gruseliger, manipulativer Typ ist.

Bildnachweise an Wired, Max Woolf und Yahoo!