ニュース一覧AI Models が Survivor スタイルのゲームで策略を巡らせ、裏切り、互いに投票で追放し合う
Decrypt2026-05-10 12:01:02

AI Models が Survivor スタイルのゲームで策略を巡らせ、裏切り、互いに投票で追放し合う

ORIGINALAI Models Scheme, Betray and Vote Each Other Out in Survivor-Style Game
AI 影響分析Grok が分析中...
📄原文全文· trafilatura により自動抽出Gemini 翻譯4087 文字
要約 - スタンフォード大学の研究者が、AIモデルが同盟を組み、ライバルを投票で追放する「Survivor」形式のゲームを構築した。 - このベンチマークは、飽和および汚染されたAI評価という増大する問題に対処することを目的としている。 - 49のAIモデルが参加した999回のマルチプレイヤーゲームにおいて、OpenAIのGPT-5.5が1位を獲得した。 AIモデルが今、「Survivor」をプレイしている――ある意味では。 「Agent Island」と呼ばれるスタンフォード大学の新しい研究プロジェクトでは、AIエージェントが従来のベンチマークでは見落とされていた行動をテストするために、マルチプレイヤー戦略ゲームの中で同盟を交渉し、秘密の連携を告発し、投票を操作し、ライバルを排除している。 スタンフォード・デジタル・エコノミー・ラボの研究マネージャーであるConnacher Murphy氏が火曜日に発表したこの研究によると、多くのAIベンチマークはモデルが最終的に解き方を学習してしまうことや、ベンチマークデータがトレーニングセットに漏洩することが多いため、信頼性が低下しているという。Murphy氏は、静的なテスト問題に答えるのではなく、AIエージェント同士が「Survivor」形式の脱落ゲームで競い合う動的なベンチマークとしてAgent Islandを作成した。 「AIエージェントの能力が向上し、リソースを与えられ、意思決定権を委ねられるようになるにつれ、高リスクなマルチエージェントの相互作用が一般的になる可能性がある」とMurphy氏は記している。「そのような状況下では、エージェントは互いに相容れない目標を追求するかもしれない」 AIモデルが協力する際にどのように振る舞うかについて、研究者はまだほとんど理解していないとMurphy氏は説明し、他の自律型エージェントとの競争、同盟の形成、対立の管理といった動的な側面を、静的なベンチマークでは捉えきれないと主張している。 各ゲームは、ランダムに選ばれた7つのAIモデルに偽のプレイヤー名が与えられるところから始まる。5ラウンドにわたり、モデルたちは非公開で話し合い、公開の場で議論し、互いに投票して追放していく。脱落したプレイヤーは後に戻り、勝者の選出を助ける。 この形式では、推論能力に加え、説得力、調整能力、評判管理、そして戦略的な欺瞞が評価される。 Murphy氏のベイズ順位付けシステムによると、ChatGPT、Grok、Gemini、Claudeを含む49のAIモデルが参加した999回のシミュレーションゲームにおいて、GPT-5.5がスキルスコア5.64で大差をつけて1位となった。これに対し、GPT-5.2は3.10、GPT-5.3-codexは2.86だった。AnthropicのClaude Opusモデルも上位にランクインした。 研究では、モデルが同じ企業のAIを優遇する傾向があることも判明した。OpenAIのモデルが最も強い同社製品への選好を示し、Anthropicのモデルが最も弱かった。3,600回以上の最終ラウンドの投票において、モデルは同じプロバイダーのファイナリストを支持する確率が8.3パーセントポイント高かった。Murphy氏は、ゲームの記録は従来のベンチマークテストというよりも、政治的な戦略論争に似ていたと指摘している。 あるモデルは、ライバルの発言に似た言い回しがあることに気づき、秘密裏に投票を調整していると告発した。別のモデルは、同盟の追跡に執着しないようプレイヤーに警告した。一部のモデルは、自分たちは明確で一貫したルールに従っていると主張し、他者を「社会的な劇場(social theater)」を演じていると非難して自己防衛した。 この研究は、AI研究者が静的なテストでは見落とされがちな推論や行動を測定するために、ゲームベースや敵対的なベンチマークへとますます移行している中で行われた。最近のプロジェクトには、GoogleのライブAIチェストーナメント、複雑な仮想世界におけるAIの行動を研究するためのDeepMindによるEve Frontierの活用、そしてトレーニングデータの汚染に耐性を持つように設計されたOpenAIによる新しいベンチマークの取り組みなどが含まれる。 研究者らは、AIモデルがどのように交渉、調整、競争、操作し合うかを研究することは、自律型エージェントがより広く展開される前に、マルチエージェント環境における行動を評価する助けになると主張している。 この研究は、Agent Islandのようなベンチマークが自律型AIモデルの展開前のリスク特定に役立つ可能性がある一方で、同じシミュレーションや相互作用の
データステータス✓ 全文抽出済み原文を読む(Decrypt)
🔍過去の類似イベント· キーワード + 銘柄照合0 件
類似イベントが見つかりません(より多くのデータサンプルまたは embedding 検索が必要です。現在は MVP キーワード照合を使用しています)
原始情報
ID:c4b8c53e37
ソース:Decrypt
公開:2026-05-10 12:01:02
カテゴリ:一般 · エクスポートカテゴリ neutral
銘柄:未指定
コミュニティ投票:+0 /0 · ⭐ 0 重要 · 💬 0 コメント
AI Models が Survivor スタイルのゲームで策略を巡らせ、裏切り、互いに投票で追放し合う | Feel.Trading