GitHubが著作権侵害問題の中で「Copilot for Business」プランを開始
4分。 読んだ
更新日
MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む
Microsoft の GitHub は現在、Copilot を企業に提供しています。 今週、クラウドベースの Git リポジトリ会社は、「Copilot for Business」と呼ばれる新しいプランを開始しました。これは、ユーザーあたり月額 19 ドルです。
GitHub は、Copilot for Business プランを提供することで、他のユーザーへのリーチを拡大したいと考えています。 この新しいオファーは、AI ツールの 400,000 人のサブスクライバーを押し上げることが期待されています。このツールは、プロジェクトでの現在の作業に基づいて提案を提供することで、開発者がコードを書くのを支援します。 このツールは、OpenAI が開発した Codex と呼ばれる AI モデルを利用しており、「数千万のパブリック リポジトリでトレーニングされています」。 Visual Studio、Neovim、および JetBrains 統合開発環境を補完し、開発者がコードをより簡単かつ迅速に記述できるようにします。
ビジネス プランには、単一ライセンスの Copilot 層で提供される機能が含まれており、ライセンス管理と組織全体のポリシー管理機能が追加されています。 GitHub はさらに、「データがパブリック リポジトリ、プライベート リポジトリ、GitHub 以外のリポジトリ、またはローカル ファイルからのものであるかどうかに関係なく、コード スニペットを保持したり、コードを保存または共有したりしない」という、業界をリードするプライバシーを提供すると付け加えています。
GitHub の製品管理担当シニア ディレクターである Shuyin Zhao は、 言う 新しいオファーの展開は、「企業はチームのために GitHub Copilot を購入する簡単な方法を望んでいる」と聞いて後押しされました。 しかし、Copilot はまだ著作権侵害に関する未解決の問題の真っ只中にあるため、企業がこの提案を歓迎して歓迎すると言うことはほとんど不可能です。
@github 「パブリック コード」がブロックされている copilot は、著作権で保護された私のコードの大部分を、帰属表示も LGPL ライセンスもなしに出力します。たとえば、単純なプロンプト「sparse matrix transpose, cs_」は、CSparse で私の cs_transpose を生成します。左が私のコード、右が github です。これはよくありません。 pic.twitter.com/sqpothi8nf
— ティム・デイビス (@DocSparse) 2022 年 10 月 16 日
数か月前、Copilot が疑わしいコードを生成していることに個人が気づきました。 XNUMX 月、テキサス A&M 大学のコンピューター サイエンス教授である Tim Davis 呼び出された 公開コードがブロックされているときに、このツールが「私の著作権で保護されたコードの大部分を、帰属表示も LGPL ライセンスもなしに」生成することを発見した後、GitHub にアクセスしました。 フィルターは、GitHub の公開コードと一致する (またはほぼ一致する) コードの提案を防ぐためのソリューションとなることを目的としています。 によると ドキュメント GitHub から、「GitHub の公開コードに対して、約 150 文字の周囲のコードでコードの提案をチェックします」。 ただし、特にデイビスが発見したケースを明らかにした後は、この機能は効果がないようです.
GitHub は、約 1% の確率で、トレーニング セットに一致する最大 150 文字を超えるコード スニペットが提案に含まれる可能性があると警告しています。 さらに、GitHub は、このツールが「望ましくないパターン」を含むコードを生成する可能性があると述べています。これは、ユーザーにとってリスクを意味する可能性があります。 その中で ドキュメント、GitHub は次のように説明しています。
GitHub Copilot は、OpenAI が数十億行のオープン ソース コードから構築したモデルから提案を提供します。 その結果、GitHub Copilot のトレーニング セットには、安全でないコーディング パターン、バグ、または古い API やイディオムへの参照が含まれている可能性があります。 GitHub Copilot がこのトレーニング データに基づいて提案を生成する場合、それらの提案には望ましくないパターンも含まれる場合があります。
コードのセキュリティと品質を確保する責任はユーザーにあります。 GitHub Copilot によって生成されたコードを使用する場合は、自分で作成したのではないコードを使用する場合と同じ予防措置を講じることをお勧めします。 これらの予防策には、厳格なテスト、IP スキャン、およびセキュリティの脆弱性の追跡が含まれます。
この警告はユーザーに直接責任を負わせ、著作権で保護された提案が見落とされた場合にプロジェクトの最終的な制作物に含まれた場合、訴訟の可能性にユーザーをさらします。
XNUMX 月、プログラマーで弁護士の Matthew Butterick は、集団訴訟会社の Joseph Saveri Law Firm と提携して、 集団訴訟 Microsoft、GitHub、および OpenAI に対して。
「長年のオープンソース プログラマーとして、Copilot を初めて試したときから、2021 年に Copilot が最初にパブリック プレビューされて以来、他の多くの人が指摘していた重大な法的懸念が生じたことは明らかでした」と Butterick 氏は述べています。 「私は弁護士でもあるので、オープンソース コミュニティのために立ち上がらなければならないと感じました。 ジョーとは、彼がジョセフ・サヴェリ法律事務所を始めたときから知っています。 彼はそれを、国内で最も優れた集団訴訟会社の XNUMX つに作り上げました。 Copilot によって権利が侵害されているオープンソース プログラマーに代わって、Joe と彼の会社と協力できることを嬉しく思います。」
問題はあるものの、GitHub はより多くのユーザー、特に企業に Copilot を提供することを決意しています。 それでも、企業がリスクを冒す意思があるかどうかは時が経てばわかります。
ユーザーフォーラム
0メッセージ