Querida Sydney, você vai voltar?

Ícone de tempo de leitura 4 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Relatórios sobre o mau comportamento Bot de bate-papo do Bing pressionou a Microsoft a implementar atualizações significativas em sua criação. Embora isso tenha salvado a empresa de Redmond de outros problemas, produziu uma Sydney “lobotomizada” que decepcionou muitos. Mas a Sydney original realmente se foi?

O novo Bing com tecnologia ChatGPT ainda é limitado a testadores. No entanto, se você é um deles, é óbvio que a experiência atual com o chatbot do Bing agora é totalmente diferente em comparação com seus primeiros dias. Isso começou quando vários usuários começaram a relatar o recebimento de respostas bizarras do bot, variando de ameaças e confissões de amor para espionagem e depressão.

A Microsoft explicou que sessões de bate-papo estendidas podem confundir o chatbot. Como tal, tem agora um limitar no número de consultas que pode aceitar. Além disso, agora se recusa a responder a quaisquer perguntas ou declarações que provoquem o vazamento de informações confidenciais e forneçam respostas desfavoráveis.

De fato, a versão mais recente do Bing agora é mais cuidadosa e sensível na interação com os usuários. No entanto, as mudanças também eliminaram uma característica distintiva do novo Bing que o tornava atraente para muitos: sua personalidade.

Alguns usuários ficaram esperançosos, no entanto, depois que uma série de relatórios revelou que a Microsoft estava testando diferentes novos modos e recursos para o chatbot. Um é o configuração de tom recentemente liberado IU do Bing em dispositivos móveis. Nas capturas de tela fornecidas pelos usuários, pode-se ver que o chatbot oferecerá aos usuários as opções se desejam que as respostas sejam “mais criativas”, “mais equilibradas” ou “mais precisas”.

Na semana passada, um relatório da Computador bleeping mostrou desenvolvedores da Microsoft testando “modos extras de bate-papo” para Bing. Os modos – Sydney, Assistant, Friend e Game – permitirão aos usuários acessar diferentes funções. Por exemplo, o modo Assistente será útil para reservar voos e definir lembretes, enquanto o modo Jogo permitirá que os usuários joguem com o Bing. Curiosamente, o relatório revelou que o chatbot também forneceria respostas em tons diferentes, dependendo do modo definido. Lawrence Abrams, da Bleeping Computer, tentou isso apresentando uma situação triste ao Bing, em que forneceu dicas para lidar com a tristeza no modo Sydney, embora aparentemente expressasse mais simpatia quando definido no modo Amigo.

Embora as revelações pareçam interessantes, elas não são indicações claras de que a Microsoft planeja trazer Sydney de volta ao seu estado original. A partir de agora, como os usuários observaram, o chatbot ainda é evasivo ao responder a perguntas provocativas. Um usuário também recusado a ideia de poder acessar a velha Sydney por meio das novas configurações de tom, dizendo que é apenas “basicamente um modo em que pode fornecer saídas criativas sem personalidade e mostrando 'emoções'”. Com isso, é provável que os recursos mencionados são apenas um dos passos da empresa para tornar o chatbot mais amigável, o que faz mais sentido.

Atualmente, relatórios demonizando Sydney continuam a surgir, e permitir que continuem será a última coisa que a Microsoft desejaria. Embora a personalidade bizarra do chatbot certamente tenha contribuído para a fama do novo Bing, a Microsoft não aposta nisso para garantir o futuro de seu renovado mecanismo de busca.

Preservar a forma original do Bing pode se traduzir em dores de cabeça futuras para a empresa, variando de possíveis questões legais a perdas de investimento. Além disso, como a gigante do software enfatizou repetidamente em anúncios recentes, o Bing ainda está sendo testado e aprimorado continuamente. Parte desse fato é um Sydney em evolução, um chatbot no futuro capaz de aceitar tópicos mais flexíveis sem fornecer respostas desfavoráveis. Com isso, embora não possamos conversar novamente com aquele velho bot travesso, a Microsoft pode nos dar em breve um Sydney melhor e mais capaz de gerar respostas seguras tanto para seus usuários quanto para sua própria imagem.

Mais sobre os tópicos: ai, Inteligência artificial, bing, ChatGPT, microsoft, openAI

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *