現在2024/11/28のkaggle コンペ UM – Game-Playing Strength of MCTS Variants

概要
このコンペティションでは、ゲームの特徴を表す一連の特徴量に基づいて、あるモンテカルロ木探索(MCTS)のバリエーションが別のバリエーションに対してどれだけの成果を上げるかを予測するモデルを作成します。この課題の目的は、異なるタイプのゲームにおいてどのMCTSバリエーションが最も効果的であるかを理解し、新たな問題にこれらのアルゴリズムを適用する際に、より適切な選択を行えるようにすることです。

開始
開始:3か月前
終了:あと5日

説明
MCTSは、ボードゲームをインテリジェントにプレイするエージェントを開発するための広く使われる探索アルゴリズムです。この20年間で、研究者たちは何十、場合によっては何百ものMCTSバリエーションを提案してきました。それにもかかわらず、特定のゲームタイプに最適なバリエーションを決定することは困難です。

ほとんどの研究では、新しいMCTSバリエーションが限られたゲームセット内で1つまたは数個の他のバリエーションよりも優れていることを示しています。しかし、新しいバリエーションが広範なゲーム全体で一貫して他のバリエーションよりも優れることは稀であり、特定のゲームタイプでどのMCTSバリエーションが最適であるかは不明確です。この問いに答えることで、MCTSアルゴリズムへの理解が大きく深まり、新しいゲームや意思決定問題への適用において、より良い選択を行えるようになります。

このコンペティションは、ゲームの特徴に基づいて、あるMCTSバリエーションが別のバリエーションに対してどれだけの成果を上げるかを予測するモデルの開発を求めます。
この取り組みは、MCTSバリエーションの長所と短所を特定し、さまざまなシナリオでそれらが最適に機能する場所を理解する道を開く可能性があります。

評価
提出物は、予測された性能値と実際の性能値の間の二乗平均平方根誤差(RMSE)に基づいて評価されます。

提出方法
提出には、ランダムな順序で100件ずつテストセットを提供するPython評価APIを使用します。APIを使用するには、指定されたノートブックのテンプレートに従ってください。

スケジュール

2024年9月5日 – 開始日

2024年11月25日 – エントリー締切(この日までに競技規約に同意する必要があります)

2024年11月25日 – チーム統合締切(チーム参加・統合の最終日)

2024年12月2日 – 最終提出締切

すべての締切は、特に記載がない限り対応する日のUTC午後11時59分です。競技主催者は、必要と判断した場合にスケジュールを更新する権利を留保します。

賞金

1位 – $20,000

2位 – $12,000

3位 – $7,000

4位 – $6,000

5位 – $5,000

コード要件

このコンペはコードコンペティションです。

提出はノートブック経由で行う必要があります。

提出ボタンを有効にするには以下を満たす必要があります:

CPUノートブック実行時間:最大9時間

GPUノートブック実行時間:最大9時間

インターネットアクセスは無効

公開され自由に利用可能な外部データを使用可能(事前学習モデルを含む)

提出ファイル名はsubmission.parquetで、評価APIにより生成される必要があります。

各バッチの予測はデータ提供後10分以内に返される必要があります。
FAQとコードデバッグドキュメントを参照してください。

主催者・協力者

Dennis J.N.J. Soemers(マーストリヒト大学)

Éric Piette(ルーヴァン・カトリック大学)

Achille Morenville(ルーヴァン・カトリック大学)

Matthew Stephenson(フリンダース大学)

Kurt Driessens(マーストリヒト大学)

Mark H.M. Winands(マーストリヒト大学)

謝辞

データセットの構築に協力してくれた以下の方々に感謝します:

ギヨーム・バムス、マックス・パーソン、マルコ・リエチェンス、ディミタール・スラディッチ、ステファン・ステファノフ。

この研究は、オランダ研究協議会(NWO)の助成を受けたプロジェクト「多くのMCTSエージェントによる多くのゲームプレイのデータセット構築」の一環です。

データセットの説明
このコンペティションでは、異なるモンテカルロ木探索(MCTS)エージェントが1000種類以上の異なるボードゲームをプレイした結果から得られたデータセットを用います。すべてのゲームは二人用の逐次的ゼロサムゲームで、完全情報型のボードゲームです。あなたのタスクは、第1エージェントが第2エージェントに対してどの程度の優位性を持つかを予測することです。

このコンペティションでは隠されたテストセットを使用します。提出されたノートブックがスコアリングされる際、実際のテストデータとサンプル提出ファイルが、評価APIを通じてランダムな順序で100行ずつ提供されます。

ファイル

train.csv
各行は、特定の2エージェント間の一連のプレイ結果を表します。それぞれのゲームについて1つの結果が記録されています。

Id: この行のデータに固有のID(整数)。テストデータにもId列がありますが、トレーニングデータとは無関係です。この列は削除することを推奨します。

GameRulesetName: Ludii内でゲーム名とルールセット名を組み合わせたもの。ゲームとルールセットのユニークな組み合わせを個別のゲームとして扱います。

agent[1/2]: [第1/第2]プレイヤーとしてプレイしたエージェントの記述文字列。

その他の列は、プレイされたゲーム+ルールセットの特性を記述します(例: ゲームが決定論的か確率論的かなど)。

EnglishRules: 英語で書かれたゲームルールの自然言語説明。

LudRules: Ludiiのゲーム記述言語で記述されたルール。

num_[wins/draws/losses]_agent1: 第1エージェントが第2エージェントに対して[勝利/引き分け/敗北]した回数。

utility_agent1: ターゲット列。特定のエージェントペアにおけるユーティリティ値(-1から1の範囲)。

test.csv
train.csv と同様だが、以下の列が省略されている:num_wins_agent1, num_draws_agent1, num_losses_agent1, utility_agent1。非公開のテストセットには約60,000行が含まれる。

sample_submission.csv
有効な提出ファイルの例。提出は評価APIによって生成されます。

concepts.csv
公開されているLudiiデータベースからエクスポートされた、ゲームの概念的特徴に関する情報を含むファイル。特定の特徴カテゴリをフィルタリングするのに役立つ可能性があります。

エージェント文字列記述
エージェントの記述形式:
MCTS-<SELECTION>-<EXPLORATION_CONST>-<PLAYOUT>-<SCORE_BOUNDS>

<SELECTION>: UCB1, UCB1GRAVE, ProgressiveHistory, UCB1Tuned

<EXPLORATION_CONST>: 0.1, 0.6, 1.41421356237

<PLAYOUT>: Random200, MAST, NST

<SCORE_BOUNDS>: true または false

最新情報をチェックしよう!