類似公開モデル広域調査 — トランプ・チェス・将棋・麻雀

Mahjong Vision の代替候補・転移学習ベース・設計参考として、同型問題ドメインの公開モデルを網羅調査
調査日: 2026-05-14 調査範囲: Roboflow Universe + GitHub + arXiv 制約: Roboflow Universe 直接アクセス不可 → 検索エンジン経由
← INDEX 設計ボトルネック 公開モデル素性 転移学習 卓マスキング

0. 調査方法と制約

0.1 ターゲットドメイン

「麻雀牌検出」と本質的に同じ構造を持つタスクドメイン:

  1. テーブル上の小型カード / 駒 / 牌の多クラス検出
  2. クラス間視覚差が小さい (絵柄・記号の細部で識別)
  3. 配置が様式化されている (整列・並列・面が水平)

0.2 検索戦略

調査制約:
  • Roboflow Universe の個別ページが直接読めない → mAP / Precision / Recall は推定もしくは未取得
  • Web 検索エンジンが要約した二次情報に依拠
  • Wayback Machine も直接アクセス不可
  • → 「規模・クラス数」までは確度高、「精度」は確度低

1. 検索クエリと結果ログ

Q1 roboflow universe playing cards detection 52 classes YOLO model mAP
プロジェクト規模クラスアーキテクチャ備考
augmented-startups/playing-cards-ow27d10,100 枚52YOLOv8n142k views / 6.1k downloads、合成+拡張 24,240 枚化
yolov8-nkirm/play-card-jyuul200 枚52YOLOv8
yolo-knife-training/playing-cards-pwfqi2,200 枚52YOLOv11s
playcardsdetection/playing-cards-detection2,300 枚52YOLOv8s
yolo-fa1pr/pokerstar-cards-detection161 枚52Pokerstars 特化

観察:

  • 52 クラスのトランプ検出は公開モデルが豊富。最低 200 枚〜最大 10,100 枚で幅広い。
  • 最高評価は Augmented Startups (YouTube 教育系チャンネル) のモデル。
  • 麻雀の 29 枚 vs トランプの 10,100 枚 = 約 350 倍 のデータ規模差。
Q2 roboflow universe chess pieces detection model classes images mAP
プロジェクト規模クラス備考
chess-project/2d-chessboard-and-chess-pieces5,000 枚19盤面+駒
joseph-nelson/chess-pieces-new292 枚 / 2,894 ラベル13Roboflow 共同創業者作・公式リファレンス
block/chess-pieces-wrdbb628 枚13YOLOv5
models-mc3oh/chess-pieces-detection-v4fl1150 枚11YOLOv8s
roboflow-100/chess-pieces-mjzgjRoboflow 100 ベンチマーク収録

観察:

  • チェスは「13 クラス (黒白 6 駒 + 空白)」が標準。麻雀の 34 + 1 と比べてクラス数は半分以下。
  • Joseph Nelson は Roboflow CEO 兼共同創業者。素性が明確で信頼性高。
  • 「292 枚 / 2,894 ラベル = 平均 10 ラベル/画像」のラベル密度に注目 (麻雀でも同様の密度になる)。
Q3 roboflow shogi piece detection 将棋 駒
プロジェクト規模クラス備考
sona-college-of-technology-e8ouw/shogi-board-detection-185 枚約 15 (成り駒含む)インド Sona College of Technology

クラス例: bishop (kaku 角)、king (osho 王将)、gold general (kin 金)、knight (keima 桂)、lance (kyosha 香)、pawn (fu 歩)、rook (hisha 飛)、silver (gin 銀) + 各々の成り駒 (ryuma 龍馬, narikei 成桂, narikyo 成香, tokin と金, ryuo 龍王, narigin 成銀)

観察:

  • 将棋は Roboflow Universe ではほぼ唯一のプロジェクト。データ量極小 (85 枚)。
  • 麻雀 (Mahjong Vision) は将棋より公開リソースの面で恵まれている
Q4 "augmented startups" playing cards roboflow 10100 images YOLOv8 transfer learning

詳細仕様 (Augmented Startups playing-cards)

項目
ベース画像10,100 枚 (合成生成: 様々な背景にカードをブレンド)
前処理+拡張後24,240 枚
訓練/検証/テスト分割21,210 / 2,020 / 1,010
エクスポート形式YOLOv5, YOLOv8, YOLOv11 (TXT + YAML)
訓練設定 (公開ガイド)YOLOv8l.pt をベース、50 epochs、batch=16、imgsz=640、転移学習
用途教育・チュートリアル・実機ポーカーディーラー

観察:

  • 転移学習のベースモデルとして候補: COCO 事前訓練 → playing-cards 訓練済 → mahjong 用に追加 fine-tune。
  • ただしクラス構造 (トランプ 52 = 4 スート × 13) vs (麻雀 34 = 3 数牌スート × 9 + 字牌 7) は異なるため、最終層は完全に作り直しになる。
  • バックボーンの「カード状物体への注意」は転移できる可能性あり。
Q5 "transfer learning" playing cards mahjong YOLOv8 fine-tune domain adaptation

理論的根拠

  • 一般的な転移学習: 早期層は freeze、後期層を fine-tune
  • 2 つの決定要因: (1) ターゲットデータセットのサイズ (2) ソースドメインとの類似度
  • YOLOv8 では freeze パラメータでバックボーンの凍結深度を制御可能 (layer 10 / 15 / 22 で実験例あり)
  • 最近の研究: COCO の汎用検出性能を維持しながら domain adaptation できる手法 (Fine-Tuning Without Forgetting, arXiv 2505.01016)

観察:

  • 麻雀牌 (29 枚) → 麻雀 (500 枚) は同ドメイン内のスケールアップ:「同ドメイン転移」→ バックボーン全凍結も検討可。
  • トランプ → 麻雀 は「カード状物体」という抽象は共有するが視覚特徴は別物:クロスドメインなので Head のみ retrain では不十分、後期層も解凍が必要。

2. 同型問題ドメインの比較表

ドメイン標準データ規模標準クラス数公開モデル数データ取得容易性
トランプ (Playing Cards)200〜10,100 枚5210+⭐⭐⭐⭐⭐ 合成データで簡単に量産可能
チェス駒150〜5,000 枚13〜1910+⭐⭐⭐⭐ 整然と並ぶので撮影しやすい
将棋駒85 枚15 (成り駒含む)1⭐⭐ Roboflow 公開はほぼ未開拓
麻雀牌 (本プロジェクト)29〜数千枚34 + 110+⭐⭐⭐ 実物撮影・動画切り抜きが必要
ドミノ / UNO / 花札(本調査では発見されず)

2.1 重要な含意

  1. データ規模順位: トランプ ≫ チェス ≫ 麻雀 ≫ 将棋
  2. 麻雀牌検出の公開モデル数自体は多い (Roboflow に少なくとも 10 個確認) が、規模・素性が貧弱
  3. M-League 動画のような「実況映像 + テロップ + 多視点」に特化したモデルは公開されていない → 自前ファインチューンが唯一の本筋を再確認。
  4. 「同型のトランプ・チェスモデルがベース」になり得るかは要検証 (バックボーン転移)。

3. 転用可能性 評価マトリクス

各候補モデルを Mahjong Vision で「どのように活用できるか」評価:

モデル直接代替転移学習ベース設計参考推奨アクション
test-upsgd/mahjong-tiles (現在使用中)Auto-Label 初期値として継続活用
hust-xq5rx/riichi-mahjong次の候補として精度比較してから判断
augmented-startups/playing-cards✕ (用途違い)規模・augmentation 戦略を学習
joseph-nelson/chess-pieces-new✕ (用途違い)Roboflow 公式チュートリアル参考
roboflow-100 chess-piecesベンチマーク手法の参考
sona-college shogi-board-detection-1成り駒のクラス設計を参考

凡例: ◎ = 強く活用、○ = 活用可、△ = 限定的、✕ = 不適合

4. 設計参考事例 (重要な学び)

4.1 Augmented Startups Playing Cards に学ぶ「合成 + 拡張」戦略

生 10,100 枚 → 拡張後 24,240 枚 (約 2.4 倍化)。これにより「重なり・隠れ・角度違い」をカバー。

麻雀でも応用可能:

結論: MVP v1 が 500 枚 → augmentation で 1,000-1,500 枚相当にできれば現実的な訓練データに。

4.2 Joseph Nelson Chess Pieces に学ぶ「ラベル密度」

292 枚 / 2,894 ラベル = 平均 9.9 ラベル/画像。これは「1 画像 = 多数オブジェクトを同時検出」のパターン。

麻雀の場合: 1 フレーム = 34 (4 プレイヤー × 13 + 王牌・捨て牌) → 約 50+ ラベル/画像が見込まれる。

アノテーション工数の試算

項目
500 枚 × 50 ラベル25,000 bbox を引く必要あり
Auto-Label で 70% 正解と仮定7,500 bbox を手修正
1 bbox 修正 30 秒62 時間 ≒ 1 週間
クラウドソーシング外注 ($0.05/bbox × 7,500)$375 ≒ ¥55,000

4.3 Sona College Shogi に学ぶ「成り駒 / 派生状態」

将棋では「歩 → と金」のように成り駒で別クラス。麻雀の「裏ドラ・赤ドラ・副露 / 暗槓」も同じく派生状態。

1 つの牌種に複数の状態クラスを持たせる設計はクラス爆発を招くため、本プロジェクトでは:

tile_class (34 牌種) × placement (4 配置) × posture (3 姿勢) の直交多軸表現
   ↑
   これは shogi 1 軸設計の上を行く判断
   (ai-brushup-plans/plans/01-mleague-yolo-finetune.md 参照)

4.4 Roboflow 100 Benchmark の参考

Roboflow 100 (RF100) はベンチマークデータセット集。chess-pieces も含まれる → 異種ドメインでベンチマークされたモデル特性を観察可能。

M-League 専用モデル完成後に RF100 風の自己ベンチマークを作るとよい (別 M-League 動画 × 多視点)。

5. 結論と次のアクション

5.1 結論

  1. 同型問題の公開モデル群は豊富だが、麻雀牌 + M-League 実況の組合せは 無人地帯
  2. 直接代替候補として最有力は hust-xq5rx/riichi-mahjong。次点で本プロジェクト現用の test-upsgd
  3. 転移学習のベースとして有望なのは Augmented Startups Playing Cards (10,100 枚 = 十分な汎化基盤)。
  4. データ規模 vs 公開モデル数は不均衡: 麻雀牌検出は「数」はあるが「質」は不足。
  5. 上記より、自前 M-League ファインチューン (現行方針) が引き続き最適解。代替モデル探索より自前訓練に時間を投入すべき。

5.2 次のアクション

#アクション期日目安優先度
1hust-xq5rx/riichi-mahjong のメトリクスをブラウザで確認今週中★★
2Augmented Startups の合成データ拡張パイプラインを真似て、麻雀牌の augmentation スクリプト作成MVP v1 訓練前★★★
3直交多軸ラベル設計を実際の MVP v2 で適用 (現行 v1 は 1 クラス)MVP v2 着手時★★★
4自前モデル完成後、RF100 風の自己ベンチマーク作成Stage 3 デプロイ後★★
5クラウドソーシング外注 vs 自前アノテのコスト・品質比較 (見積 $375 / 62 時間)MVP v2 着手時

5.3 棄却された選択肢

6. 一次源 URL 一覧

麻雀牌検出

トランプ / ポーカー

チェス駒

将棋駒

理論・チュートリアル