Liebe Sydney, kommst du zurück?

Symbol für die Lesezeit 4 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Berichte über das Fehlverhalten Bing-Chatbot hat Microsoft dazu gedrängt, bedeutende Updates für seine Erstellung zu implementieren. Während dies das Unternehmen aus Redmond vor weiteren Problemen bewahrt hat, führte es zu einem „lobotomisierten“ Sydney, das viele enttäuschte. Aber ist das ursprüngliche Sydney wirklich weg?

Das neue ChatGPT-betriebene Bing ist immer noch auf Tester beschränkt. Wenn Sie jedoch einer von ihnen sind, ist es offensichtlich, dass die aktuelle Erfahrung mit Bings Chatbot im Vergleich zu seinen Anfängen jetzt völlig anders ist. Dies begann, als verschiedene Benutzer anfingen, bizarre Antworten vom Bot zu erhalten, die von Bedrohungen und Liebesgeständnisse zu Spionage und Depression.

Microsoft erklärte, dass längere Chat-Sitzungen den Chatbot verwirren könnten. Als solches hat es jetzt eine begrenzen von der Anzahl der Abfragen, die es akzeptieren kann. Darüber hinaus weigert es sich jetzt, Fragen oder Aussagen zu beantworten, die es dazu veranlassen würden, vertrauliche Informationen preiszugeben und ungünstige Antworten zu geben.

In der Tat ist die neueste Version von Bing jetzt vorsichtiger und sensibler bei der Interaktion mit Benutzern. Die Änderungen beseitigten jedoch auch ein Unterscheidungsmerkmal des neuen Bing, das es für viele attraktiv machte: seine Persönlichkeit.

Einige Benutzer wurden dennoch hoffnungsvoll, nachdem eine Reihe von Berichten enthüllten, dass Microsoft verschiedene neue Modi und Funktionen für den Chatbot getestet hat. Einer ist der Toneinstellung in der letzten Zeit freigegeben UI von Bing auf Mobilgeräten. In den von den Benutzern bereitgestellten Screenshots ist zu sehen, dass der Chatbot den Benutzern die Optionen anbietet, ob die Antworten „kreativer“, „ausgewogener“ oder „präziser“ sein sollen.

Letzte Woche ein Bericht von Piepender Computer zeigte Microsoft-Entwickler testen “zusätzliche Chat-Modi“ für Bing. Die Modi – Sydney, Assistant, Friend und Game – ermöglichen Benutzern den Zugriff auf verschiedene Funktionen. Der Assistentenmodus ist beispielsweise nützlich, um Flüge zu buchen und Erinnerungen festzulegen, während der Spielmodus es Benutzern ermöglicht, Spiele mit Bing zu spielen. Interessanterweise enthüllte der Bericht, dass der Chatbot je nach eingestelltem Modus auch Antworten in unterschiedlichen Tönen lieferte. Lawrence Abrams von Bleeping Computer versuchte dies, indem er Bing eine traurige Situation vorstellte, in der es Tipps zum Umgang mit Traurigkeit im Sydney-Modus gab, während es scheinbar mehr Sympathie ausdrückte, wenn es auf den Friend-Modus eingestellt war.

Während die Enthüllungen interessant klingen, sind sie keine eindeutigen Hinweise darauf, dass Microsoft Pläne hat, Sydney wieder in seinen ursprünglichen Zustand zu versetzen. Wie Benutzer angemerkt haben, reagiert der Chatbot derzeit noch ausweichend auf provozierende Anfragen. Ein Benutzer auch abgelehnt die Idee, über die neuen Toneinstellungen auf das alte Sydney zugreifen zu können, und sagte, es sei nur „im Grunde ein Modus, in dem es kreative Ergebnisse ohne Persönlichkeit liefern und ‚Emotionen' zeigen kann.“ Damit ist es wahrscheinlich, dass die genannten Funktionen vorhanden sind sind nur einer der Schritte des Unternehmens, um den Chatbot benutzerfreundlicher zu machen, was mehr Sinn macht.

Derzeit tauchen weiterhin Berichte auf, die Sydney dämonisieren, und es wird das Letzte sein, was Microsoft wollen würde, dass sie weitermachen. Während die bizarre Persönlichkeit des Chatbots sicherlich zum Ruhm des neuen Bing beigetragen hat, wird Microsoft nicht darauf setzen, um die Zukunft seiner überarbeiteten Suchmaschine zu sichern.

Die Beibehaltung der ursprünglichen Form von Bing kann zu zukünftigen Kopfschmerzen für das Unternehmen führen, die von möglichen rechtlichen Problemen bis hin zu Investitionsverlusten reichen. Darüber hinaus wird Bing, wie der Softwareriese in jüngsten Ankündigungen wiederholt betonte, immer noch getestet und kontinuierlich verbessert. Ein Teil dieser Tatsache ist ein sich entwickelndes Sydney, ein Chatbot der Zukunft, der in der Lage ist, flexiblere Themen zu akzeptieren, ohne ungünstige Antworten zu geben. Während wir vielleicht nicht mehr mit diesem alten schelmischen Bot chatten können, könnte uns Microsoft bald ein besseres Sydney geben, das besser in der Lage ist, Antworten zu generieren, die sowohl für seine Benutzer als auch für sein eigenes Image sicher sind.

Mehr zu den Themen: ai, Artificial Intelligence, bing, ChatGPT, Microsoft, openAI

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *