MEニュースのご案内、4月3日(UTC+8)、Meta AI Researchチームが、物理的な計画のための統合埋め込み予測世界モデルJEPA-WMsおよび関連研究を発表しました。この研究は、モデルが成功するための重要な要因を探究し、完全なPyTorch実装、データセット、ならびに事前学習済みモデルを提供しています。公開されたモデルには、主要なJEPA-WMに加えて、ベースラインとしてDINO-WMおよびV-JEPA-2-AC(fixed)モデルが含まれており、DROID & RoboCasa、Metaworld、Push-T、PointMaze、Wallなど、複数のロボット操作・ナビゲーション環境をカバーしています。モデルは、DINOv3 ViT-L/16、DINOv2 ViT-S/14、V-JEPA-2 ViT-G/16などのビジョンエンコーダを使用し、入力画像解像度は主に224×224または256×256です。プロジェクトでは、可視化および軌跡のデコードのためのオプションのVM2Mデコーダヘッドも提供されていますが、当該デコーダは世界モデルの学習や計画評価を行ううえで必須ではないと強調しています。すべてのリソースはGitHub、Hugging Face、arXivで公開されています。(出典:InFoQ)
Meta AIが物理計画に使用される共同埋め込み予測世界モデルJEPA-WMsを発表
MEニュースのご案内、4月3日(UTC+8)、Meta AI Researchチームが、物理的な計画のための統合埋め込み予測世界モデルJEPA-WMsおよび関連研究を発表しました。この研究は、モデルが成功するための重要な要因を探究し、完全なPyTorch実装、データセット、ならびに事前学習済みモデルを提供しています。公開されたモデルには、主要なJEPA-WMに加えて、ベースラインとしてDINO-WMおよびV-JEPA-2-AC(fixed)モデルが含まれており、DROID & RoboCasa、Metaworld、Push-T、PointMaze、Wallなど、複数のロボット操作・ナビゲーション環境をカバーしています。モデルは、DINOv3 ViT-L/16、DINOv2 ViT-S/14、V-JEPA-2 ViT-G/16などのビジョンエンコーダを使用し、入力画像解像度は主に224×224または256×256です。プロジェクトでは、可視化および軌跡のデコードのためのオプションのVM2Mデコーダヘッドも提供されていますが、当該デコーダは世界モデルの学習や計画評価を行ううえで必須ではないと強調しています。すべてのリソースはGitHub、Hugging Face、arXivで公開されています。(出典:InFoQ)