Metaの最初のSAMオブジェクト識別AIは非常に優れていたため、SAM 2がリリースされました。

これはビデオへのセグメンテーション機能を拡張し、Apache 2.0 ライセンスの下で自由にアクセスできます。

読書時間アイコン 2分。 読んだ


読者は MSpoweruser のサポートを支援します。私たちのリンクを通じて購入すると、手数料が発生する場合があります。 ツールチップアイコン

MSPoweruser の編集チームの維持にどのように貢献できるかについては、開示ページをお読みください。 続きを読む

キーノート

  • Meta は、リアルタイム ビデオ オブジェクト トラッキングのアップグレード モデルである SAM 2 をリリースしました。
  • SAM 1 よりも 44 倍高速で正確であり、XNUMX fps でリアルタイム セグメンテーションを実現します。
  • SAM 2 のコードとデータセットは GitHub で無料で入手できます。

Segment Anything Model (SAM) とその 1B マスク データセットのリリースから 2 年以上経って、Meta は新たな発表を行いました。Facebook の親会社は現在、視覚的なオブジェクトをリアルタイムで識別して追跡できる AI の後継モデルである SAM XNUMX を導入しています。

SAMとそのSA-1Bが成功したのは、海洋科学や医学などの分野で複合現実のアプリケーションがあったからだとメタ氏は言う。メタ氏は、以前の画像のみの初代SAMから、SAM 2のセグメンテーション機能をビデオに拡張し、コードも利用可能にした。 GitHub.

「SAM 2 はあらゆるオブジェクトをセグメント化し、ビデオの全フレームにわたってリアルタイムで一貫して追跡できるため、ビデオ編集の新たな可能性と複合現実の新しい体験が実現します」とメタ氏は説明します。

Meta 社によると、次世代の Segment Anything Model は前モデルより 44 倍高速で正確であり、さまざまなベンチマークや実際のビデオ セグメンテーション アプリケーションで優れているとのことです。効果的なビデオ セグメンテーションに必要な人間の操作が少なくなり、毎秒約 XNUMX フレーム (fps) でのリアルタイム推論をサポートします。

寛容な Apache 2.0 ライセンスの下でリリースされた SAM 2 のコード、重み、および新しい SA-V データセットは無料で利用できます。

その前身である最初の SAM は、さまざまなシステムに簡単に統合でき、すぐにさまざまな種類の画像を処理できます。1 億を超えるマスクを含む SA-1.1B データセットは、手動と自動の手法を組み合わせて作成されたため、データ収集がより迅速かつ容易になりました。

SAM 2のデモを試すことができます (茶事の話はこちらをチェック).

ユーザーフォーラム

0メッセージ