A Free Software Foundation acha que o GitHub Copilot deveria ser ilegal

Ícone de tempo de leitura 3 minutos. ler


Os leitores ajudam a oferecer suporte ao MSpoweruser. Podemos receber uma comissão se você comprar através de nossos links. Ícone de dica de ferramenta

Leia nossa página de divulgação para descobrir como você pode ajudar o MSPoweruser a sustentar a equipe editorial Saiba mais

Copiloto Microsoft GitHub AI

O GitHub Copilot é um novo serviço de assistência de IA para desenvolvimento de software integrado ao Visual Studio Code da Microsoft. O GitHub Copilot suporta uma variedade de linguagens e frameworks e facilita a vida dos desenvolvedores ao oferecer sugestões para linhas inteiras ou funções inteiras dentro do IDE. O GitHub Copilot é desenvolvido pelo OpenAI Codex e foi treinado em bilhões de linhas de código-fonte aberto.

O último problema fez com que a Free Software Foundation (FSF) tivesse uma enorme abelha em seu capô, chamando a ferramenta de “inaceitável e injusta, do nosso ponto de vista”.

O defensor do software de código aberto reclama que o Copilot exige que o software de código fechado, como o Visual Studio IDE da Microsoft ou o editor Visual Studio Code, seja executado e que constitui um “serviço como substituto de software”, o que significa que é uma maneira de ganhar poder sobre a computação de outras pessoas.

A FSF sentiu que havia vários problemas com o Copilot que ainda precisavam ser testados no tribunal.

“Os desenvolvedores querem saber se treinar uma rede neural em seu software pode ser considerado uso justo. Outros que podem querer usar o Copilot se perguntam se os trechos de código e outros elementos copiados de repositórios hospedados no GitHub podem resultar em violação de direitos autorais. E mesmo que tudo possa ser legalmente compatível, os ativistas se perguntam se não há algo fundamentalmente injusto sobre uma empresa de software proprietário construir um serviço a partir de seu trabalho”, escreveu a FSF.

A ajuda a responder a essas perguntas, a FSF solicitou white papers que examinam as seguintes questões:

  • O treinamento do Copilot sobre repositórios públicos é violação de direitos autorais? Uso justo?
  • Qual é a probabilidade de a saída do Copilot gerar reclamações acionáveis ​​de violações de obras licenciadas pela GPL?
  • Os desenvolvedores que usam o Copilot podem cumprir licenças de software livre como a GPL?
  • Como os desenvolvedores podem garantir que o código do qual detêm os direitos autorais seja protegido contra violações geradas pelo Copilot?
  • Se o Copilot gerar um código que dê origem a uma violação de um trabalho licenciado de software livre, como essa violação pode ser descoberta pelo detentor dos direitos autorais?
  • Um modelo de IA/ML treinado tem direitos autorais? Quem detém os direitos autorais?
  • Organizações como a FSF deveriam defender mudanças na lei de direitos autorais relevantes para essas questões?

A FSF pagará US$ 500 por white papers publicados e poderá liberar mais fundos se mais pesquisas forem necessárias.

Quem quiser fazer uma submissão pode enviar para [email protegido] antes de 21 de agosto. Leia mais sobre o processo em FSF.org aqui.

A Microsoft respondeu ao próximo desafio dizendo: “Este é um novo espaço e estamos ansiosos para participar de uma discussão com desenvolvedores sobre esses tópicos e liderar o setor na definição de padrões apropriados para o treinamento de modelos de IA”.

Dado que o Copilot às vezes rouba funções inteiras de outros aplicativos de código aberto, nossos leitores concordam com o FSF ou o FSF está sendo hipócrita simplesmente porque é uma IA em vez de um código de reaproveitamento humano? Deixe-nos saber sua opinião nos comentários abaixo.

via infoworld

Mais sobre os tópicos: Copiloto do GitHub, microsoft

Deixe um comentário

O seu endereço de e-mail não será publicado. Os campos obrigatórios são marcados com *