Microsoft、Google、OpenAI、Mistral AI、その他12社がソウルサミットでAI安全基準に署名

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • マイクロソフト、グーグル、オープンAIを含むハイテク企業16社がソウルサミットで自主的なAI安全基準を採用。
  • 標準は、情報共有、サイバーセキュリティ投資、AI の社会的リスクの研究に重点を置いています。
  • 一部の専門家は、強制的な規制やデータの透明性の欠如を懸念しています。
ミストラルの注目画像

大手テクノロジー企業16社が、ソウルで開催中のサミットで一連の自主的なAI安全基準に同意した。 

これらの標準は、政府と業界リーダーの協力を通じて確立され、責任ある AI 開発のベスト プラクティスを概説しています。彼らは、企業間の情報共有、AI システムのサイバーセキュリティへの投資、高度な AI に関連する潜在的な社会リスクの研究の優先順位付けを重視しています。

これらの取り組みの自発的な性質はさまざまな反応を引き起こしました。これらをより安全な AI 開発に向けた重要な第一歩と見る人もいますが、施行された規制の欠如に懸念を表明する人もいます。専門家らは、企業が安全対策を優先するためには強制的なルールが必要になる可能性があると考えている。

中国 (Zhipu.ai) とアラブ首長国連邦 (Technology Innovation Institute) の企業の参加は、一部の人々からは前向きな展開と見なされており、AI の安全性の重要性について国際的なコンセンサスが高まりつつあることを示唆しています。

「ソウルサミットは、昨年のブレッチリーパークサミットでの進展を踏まえたものである」と英国技術長官ミシェル・ドノバンは述べた。 「いくつかの国が独自の AI 安全研究所を設立するなど、国際協力が増加しています。」

潜在的な利点にもかかわらず、懸念は残ります。 

このサミットには、世界のリーダーと企業幹部の間の非公開のバーチャル会議も含まれており、AIの安全性研究におけるさらなる協力促進に焦点を当てたと伝えられている。

安全基準に署名した企業の完全なリスト:

  • Amazon
  • 人間原理
  • 密着
  • Google / Googleディープマインド
  • G42
  • IBM
  • 屈折AI
  • Meta
  • Microsoft
  • ミストラルAI
  • ネイバー
  • オープンAI
  • サムスン電子
  • 技術革新研究所
  • xAI
  • Zhipu.ai

ここにある OpenAIの声明。

コメントを残す

あなたのメールアドレスは公開されません。 必須フィールドは、マークされています *