GitHub uruchamia plan „Copilot for Business” w związku z naruszeniami praw autorskich
4 minuta. czytać
Zaktualizowano na
Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej
GitHub firmy Microsoft wprowadza Copilot do przedsiębiorstw. W tym tygodniu firma zajmująca się repozytorium Git w chmurze uruchomiła nowy plan o nazwie „Copilot for Business”, który kosztuje 19 USD miesięcznie na użytkownika.
GitHub chce rozszerzyć swój zasięg na innych użytkowników, oferując plan Copilot for Business. Oczekuje się, że nowa oferta zwiększy liczbę 400,000 XNUMX subskrybentów narzędzia AI, które pomaga programistom w pisaniu kodów, dostarczając sugestie oparte na ich bieżącej pracy w projekcie. Narzędzie jest zasilane przez opracowany przez OpenAI model sztucznej inteligencji o nazwie Codex, „wyszkolony na dziesiątkach milionów publicznych repozytoriów”. Uzupełnia zintegrowane środowiska programistyczne Visual Studio, Neovim i JetBrains, ułatwiając i przyspieszając pisanie kodu dla programistów.
Biznesplan obejmuje funkcje oferowane w warstwie Copilot z pojedynczą licencją i dodaje funkcje zarządzania licencjami i zasadami zarządzania w całej organizacji. GitHub dodaje ponadto, że oferta zapewnia wiodącą w branży prywatność, która „nie zachowuje fragmentów kodu, nie przechowuje ani nie udostępnia twojego kodu, niezależnie od tego, czy dane pochodzą z repozytoriów publicznych, repozytoriów prywatnych, repozytoriów innych niż GitHub czy plików lokalnych”.
Shuyin Zhao, starszy dyrektor ds. zarządzania produktem w GitHub, mówią wprowadzenie nowej oferty zostało przesunięte po usłyszeniu, że „firmy chcą łatwego sposobu zakupu GitHub Copilot dla swoich zespołów”. Jednak powiedzenie, że firmy przyjmą ofertę z ciepłym przyjęciem, jest prawie niemożliwe, ponieważ Copilot wciąż jest w trakcie nierozwiązanej kwestii dotyczącej naruszenia praw autorskich.
@github copilot, z zablokowanym "kodem publicznym", emituje duże fragmenty mojego chronionego prawem autorskim kodu, bez przypisania, bez licencji LGPL. Na przykład, prosty monit "sparse matrix transpose, cs_" generuje mój cs_transpose w CSparse. Mój kod po lewej, github po prawej. Nie OK. pic.twitter.com/sqpOThi8nf
—Tim Davis (@DocSparse) 16 października 2022 r.
Kilka miesięcy temu ludzie zauważyli, że Copilot generuje wątpliwe kody. W październiku Tim Davis, profesor informatyki z Texas A&M University wywołany GitHub po tym, jak zauważył narzędzie produkujące „duże fragmenty mojego chronionego prawem autorskim kodu, bez przypisania autorstwa, bez licencji LGPL”, gdy kod publiczny jest blokowany. Filtr ma być rozwiązaniem zapobiegającym sugerowaniu kodów pasujących (lub prawie) do kodu publicznego w GitHub. Według dokument z GitHub „sprawdza sugestie kodu wraz z otaczającym je kodem składającym się z około 150 znaków z kodem publicznym w GitHub”. Jednak ta funkcja wydaje się nieskuteczna, zwłaszcza po tym, jak Davis ujawnił odkrytą przez siebie sprawę.
GitHub ostrzega, że w około 1% przypadków sugestia może zawierać fragmenty kodu dłuższe niż ~150 znaków, które pasują do zestawu szkoleniowego. Ponadto GitHub twierdzi, że narzędzie może generować kod z „niepożądanymi wzorcami”, co może oznaczać ryzyko dla użytkowników. w jego dokumentGitHub wyjaśnia:
GitHub Copilot oferuje sugestie z modelu, który OpenAI zbudował z miliardów linii otwartego kodu źródłowego. W rezultacie zestaw szkoleniowy dla usługi GitHub Copilot może zawierać niebezpieczne wzorce kodowania, błędy lub odniesienia do nieaktualnych interfejsów API lub idiomów. Gdy GitHub Copilot tworzy sugestie na podstawie tych danych szkoleniowych, sugestie te mogą również zawierać niepożądane wzorce.
Jesteś odpowiedzialny za zapewnienie bezpieczeństwa i jakości swojego kodu. Zalecamy podjęcie takich samych środków ostrożności podczas korzystania z kodu generowanego przez GitHub Copilot, jak w przypadku korzystania z kodu, którego nie napisałeś samodzielnie. Te środki ostrożności obejmują rygorystyczne testy, skanowanie adresów IP i śledzenie luk w zabezpieczeniach.
Ostrzeżenie nakłada odpowiedzialność bezpośrednio na użytkowników, narażając ich na możliwość pozwów sądowych, jeśli przeoczone sugestie chronione prawem autorskim zostaną uwzględnione w ostatecznej produkcji ich projektów.
W listopadzie programista i prawnik Matthew Butterick nawiązał współpracę z firmą zajmującą się pozwem zbiorowym Joseph Saveri Law Firm, aby przeforsować pozew zbiorowy przeciwko Microsoft, GitHub i OpenAI.
„Jako długoletni programista open source, od pierwszego wypróbowania Copilot było oczywiste, że budzi on poważne obawy prawne, które zostały zauważone przez wielu innych, odkąd Copilot został po raz pierwszy publicznie zaprezentowany w 2021 roku” – powiedział Butterick. „Ponieważ jestem również prawnikiem, czułem się zobowiązany do stania w obronie społeczności open source. Znam Joe, odkąd założył firmę prawniczą Joseph Saveri. Zbudował z niej jedną z najlepszych firm zajmujących się pozwem zbiorowym w kraju. Cieszę się, że mogę współpracować z Joe i jego firmą w imieniu programistów open source, których prawa są łamane przez Copilot”.
Pomimo problemów GitHub jest zdeterminowany, aby zaoferować swojego Copilota większej liczbie użytkowników, zwłaszcza przedsiębiorstwom. Jednak czas pokaże, czy firmy będą skłonne podjąć to ryzyko.
Forum użytkowników
Wiadomości 0