OpenAI: NYT “hackeou” chatbots para inventar evidências. New York Times: Não fiz nada ilegal. A briga continua.

Ícone de tempo de leitura 2 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Notas chave

  • OpenAI refuta reivindicações de direitos autorais do NYT, argumentando que o Times manipulou seus sistemas.
  • O NYT nega manipulação, afirmando que eles simplesmente usaram os produtos da OpenAI para coleta de evidências.

A OpenAI está contestando uma ação judicial por violação de direitos autorais movida pelo New York Times. O Times alega que a OpenAI e seu financiador, a Microsoft, usaram seus artigos sem permissão para treinar chatbots como o ChatGPT.

OpenAI nega essas afirmações, afirmando que as acusações do Times não atendem aos seus padrões jornalísticos habituais. Eles argumentam que o Times manipulou seus sistemas por meio de avisos que violavam os termos de uso da OpenAI, essencialmente “hackeando” seus chatbots para gerar evidências enganosas. A OpenAI afirma ainda que não infringiu nenhum direito autoral e que o processo do Times deturpa as capacidades de sua tecnologia. Isso vem depois que o NYT disse O treinamento ilegal de modelos da OpenAI custa-lhes “bilhões”. Aqui está outro exemplo da saga.

O New York Times nega qualquer irregularidade, afirmando que eles usaram legitimamente os produtos da OpenAI para reunir evidências que apoiassem suas reivindicações de direitos autorais. Este processo faz parte de uma tendência mais ampla emergente no setor tecnológico, com os detentores de direitos autorais desafiando cada vez mais os métodos das empresas de tecnologia para treinar sistemas de IA. É literalmente uma briga de gatos. 

A questão jurídica de saber se a utilização de material protegido por direitos de autor para formação em IA se enquadra no uso justo permanece indecisa pelos tribunais. A OpenAI expressa confiança na sua posição, acreditando que o argumento do uso justo acabará por prevalecer no seu caso. 

Eles argumentam que os modelos de IA, semelhantes ao próprio New York Times, podem adquirir conhecimento sobre informações factuais, independentemente de terem estado diretamente envolvidos na sua criação.

A disputa judicial continua, com ambas as partes apresentando seus argumentos. O tribunal determinará em última análise a validade das reivindicações de direitos autorais e das acusações de manipulação.

Mais SUA PARTICIPAÇÃO FAZ A DIFERENÇA.

Mais sobre os tópicos: New York Times, openAI