OpenAIは現在、内部からの漏洩者やその他の脅威を取り締まるために調査員を雇っている

候補者は、少なくとも 3 年の関連経験も持っている必要があります。

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • OpenAI の内部での急速な進歩は、内部関係者によって漏洩されることがよくあります。
  • 同社は現在、セキュリティチームの調査員を募集している。
  • その役割は、「さまざまなソースからのデータを関連付けることによって、潜在的な内部関係者の脅威を検出、分析、軽減すること」です。

AI の巨人 OpenAI は独特の課題に直面しています。その急速な内部進歩はしばしば内部関係者によって漏洩され、 社内の不安。漏洩と闘い、イノベーションを確保するために、OpenAI は「潜在的な内部関係者の脅威を軽減する」ために調査員を雇うことに頼っています。

この重要な役割については、OpenAI で詳しく説明されています。 そのキャリアページには、プロアクティブな指標の作成、法務および人事部門との慎重な調査の実施、トレーニングを通じて安全な文化の形成が含まれます。同社はさらに、合格者はチームと協力してセキュリティのギャップを埋め、データ損失防止制御を実装する必要があるとも述べています。

また、受験者は、関連するサイバーセキュリティに関する最低 3 年の経験、SIEM およびユーザー行動分析ツールの知識、および関連科目の学士号または高等教育を持っている必要があります。そして、私たちの簡単な調査を通じて、 Archive.org、この欠員は少なくとも今年の1月以来増加しています。

「セキュリティ チームは OpenAI のテクノロジー、人材、製品を保護しています。私たちは何を構築するかについては技術的ですが、仕事のやり方に関しては運用性を重視しており、OpenAI のすべての製品と研究をサポートすることに尽力しています」と同社は述べています。 

最近、OpenAI でいくつかの注目を集めるリークがありました。つい先月、 Ars Technicaの ChatGPT ユーザーがチャット内で未発表の研究論文を含む個人データを発見したと報告しました。 OpenAIは後に、ユーザーのチャット履歴の流出はスリランカ人の不正ログインに起因すると主張した。

11月の別の事件でも、初期設定手順やカスタマイズファイルなど、OpenAIのカスタムチャットボットに関連する特定のデータが流出した。

そして、そろそろこの会話をする時期が来ました。漏洩は、特にユーザーデータの場合に懸念されます。これは OpenAI だけの問題ではありません。ChatGPT の競合相手である Bard ですら、Google は公然とその問題に取り組んでいます。 人間のレビュー担当者を使用する、は免除されません。

OpenAI は過去数週間、多くの AI プロジェクトに参加してきました。少し前に、同社は次のように報じられました。 新しいAIを構築する デバイス上のタスク自動化用 (経由) 情報)そしてまた持っていました マイクロソフトと提携 ロボットスタートアップFigure AIの500億ドルの資金調達ラウンドを主導する。