68893236+KINDNICK@users.noreply.github.com 5a0c6a8f70 Add: DevLog 페이지 + 블로그 빌드 시스템 + 팝업 제거 + 싸인 이미지 추가
- DevLog(블로그) 인프라: build-blog.js (MD→HTML), devlog.css, devlog.js
- DevLog 목록/포스트 페이지 4개 언어 (ko/en/ja/zh)
- 글 2편 작성 + 번역: 관성식vs광학식, 광학식 파이프라인
- 전체 네비게이션에 DevLog 탭 추가 (37+ HTML)
- 메인 팝업(요금제 변경 안내) 제거 (ko/en/ja/zh)
- i18n.js: 언어별 페이지에서 번역 JSON 항상 로드하도록 수정
- 방문자 싸인 이미지 3장 추가 (webp 변환)
- sitemap, i18n JSON, package.json 업데이트

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-05 03:10:04 +09:00

485 lines
34 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
title: "光学式モーションキャプチャーパイプライン完全解剖 ― カメラからモーションデータまで"
description: "光学式モーションキャプチャーの技術パイプライン全体を詳しく解説します。カメラ設置、PoEネットワーク、2Dセントロイド、キャリブレーション、3D復元、スケルトンソルビング、後処理、現場の実務課題まで10ステップで詳細に取り上げます。"
date: "2026-04-05"
category: "モーションキャプチャー技術"
thumbnail: "images/thumbnail.webp"
---
モーションキャプチャースタジオで俳優がスーツを着て動くと、画面上のキャラクターがリアルタイムで追従します。一見シンプルに見えますが、その裏では**カメラハードウェア → ネットワーク伝送 → 2D映像処理 → 3D復元 → スケルトンソルビング → リアルタイムストリーミング**という精密な技術パイプラインが動いています。
この記事では、光学式モーションキャプチャーOptiTrack基準のパイプライン全体をステップごとに解剖します。
---
## ステップ1カメラの設置と配置戦略
光学式モーションキャプチャーの最初のステップは、カメラを**どこに、どのように配置するか**です。
![ミングルスタジオ モーションキャプチャー空間](/images/studio/모션캡쳐%20공간%20001.webp)
### 配置の原則
- **高さ**通常2〜3mの高さに設置し、約30度下向きに角度を調整します
- **配置形態**キャプチャーボリューム撮影空間の周囲を囲むリングRing形態で配置
- **2段配置**:高い位置と低い位置にカメラを交互に配置すると、垂直方向のカバレッジが向上します
- **オーバーラップ(重複)**:キャプチャーボリューム内のすべてのポイントが**最低3台以上のカメラ**に同時に見える必要があります。三角測量には最低2台が必要ですが、3台以上になると精度とオクルージョン対応力が大幅に向上します
### カメラ台数と精度の関係
カメラの台数が多いほど:
- 死角が減る → オクルージョン発生確率の減少
- 同じマーカーを見るカメラが増える → 三角測量精度の向上
- 一部のカメラに問題が生じても他のカメラが補完(冗長性)
ミングルスタジオでは**OptiTrack Prime 17 × 16台 + Prime 13 × 14台**、合計30台を8m × 7mの空間に配置し、360度の死角を最小化しています。
### IRパスフィルター ― 赤外線だけを見る目
モーションキャプチャーカメラのレンズ前面には**IRパスフィルター赤外線通過フィルター**が装着されています。このフィルターは可視光線を遮断し、赤外線波長850nm付近のみを通過させます。これにより蛍光灯、太陽光、モニターの光など一般的な照明による干渉が根本的に遮断され、カメラは**IR LEDに反射したマーカーの光のみ**を検出できます。
撮影空間の照明を完全に消す必要がないのもこのフィルターのおかげです。ただし直射日光や強いIR成分を含む照明は干渉を引き起こす可能性があるため、スタジオ環境ではIR干渉の少ない照明を使用します。
### フレーム同期 ― 30台のカメラが同時に撮影する方法
三角測量を正確に行うには、すべてのカメラが**まったく同じ瞬間**にシャッターを切る必要があります。カメラごとにバラバラのタイミングで撮影すると、高速移動するマーカーの位置がカメラごとに異なり、3D復元が不正確になります。
OptiTrackは**ハードウェア同期Hardware Sync**方式を採用しています。1台のカメラが**Sync Master同期マスター**に指定されてタイミング信号を生成し、残りのカメラがこの信号に合わせて同時に露光します。
- **EthernetカメラPrimeシリーズ**同期信号がEthernet接続自体に内蔵されているか、OptiTrackのeSyncハブを通じて伝達されます。別途の同期ケーブルは不要です。
- **USBカメラFlexシリーズ**:カメラ間を専用同期ケーブルでデイジーチェーン接続します。
この同期の精度は**マイクロ秒μs単位**で、30台のカメラが事実上完全に同じ瞬間に撮影します。
---
## ステップ2PoE ― 1本のケーブルで電力とデータを同時に
### PoEPower over Ethernetとは
OptiTrack Primeシリーズのカメラは**PoEPower over Ethernet**方式で接続されます。標準のEthernetケーブルCat5e/Cat61本で**電力供給とデータ伝送を同時に**行う技術です。
![PoEスイッチとカメラの接続](optical-mocap-pipeline/images/poe-switch.png)
### 技術規格
| 規格 | 最大電力 | 備考 |
|------|---------|------|
| **IEEE 802.3af (PoE)** | ポートあたり15.4W | 基本的なモーションキャプチャーカメラに十分 |
| **IEEE 802.3at (PoE+)** | ポートあたり25.5W | 高フレームレートカメラやIR LED出力が高い場合 |
OptiTrackカメラは通常**5〜12W**程度の消費電力なので、PoE規格の範囲内で十分に動作します。
### ネットワークトポロジー
カメラは**スターStarトポロジー**で接続されます。各カメラがPoEスイッチの個別ポートに1対1で接続される構造です。デイジーチェーン直列接続は使用しません。
<div class="network-diagram">
<div class="network-cameras">
<div class="network-cam"><div class="network-cam-icon">CAM 1</div></div>
<div class="network-cam"><div class="network-cam-icon">CAM 2</div></div>
<div class="network-cam"><div class="network-cam-icon">CAM 3</div></div>
<div class="network-cam"><div class="network-cam-icon">···</div></div>
<div class="network-cam"><div class="network-cam-icon">CAM N</div></div>
</div>
<svg class="network-lines" viewBox="0 0 100 200" preserveAspectRatio="none">
<line x1="0" y1="20" x2="100" y2="45" />
<line x1="0" y1="55" x2="100" y2="45" />
<line x1="0" y1="90" x2="100" y2="45" />
<line x1="0" y1="125" x2="100" y2="45" />
<line x1="0" y1="160" x2="100" y2="45" />
</svg>
<div class="network-center">
<div class="network-switch">PoEスイッチ</div>
<div class="network-link"></div>
<div class="network-pc">ホストPC</div>
</div>
</div>
30台のカメラの場合、24ポート + 8ポートのPoE+スイッチを組み合わせるか、48ポートスイッチを使用します。スイッチ選択時には**PoE総電力バジェット**30台 × 12W = 360Wを確認する必要があります。
### PoEの利点
- **ケーブル1本で解決** ― 天井に設置されたカメラごとに電源アダプターを別途接続する必要なし
- **すっきりした施工** ― ケーブル数が半分に削減され、設置と管理が簡便
- **集中電源管理** ― スイッチからカメラの電源を一括ON/OFF可能
---
## ステップ3カメラが送るデータ ― 2Dセントロイド
カメラからPCへ送信されるデータが何かを理解することが、パイプラインの核心です。
![Motiveカメラ2Dビュー ― マーカーが明るい点として表示されている様子](optical-mocap-pipeline/images/motive-2d-centroid.png)
### カメラ内部の処理過程
各OptiTrackカメラには、カメラレンズの周囲に**赤外線IRLEDリング**が装着されています。このLEDが赤外線を照射すると、俳優の身体に取り付けられた**再帰反射マーカー**が光をカメラ方向に反射します。カメラセンサーはこの反射光をグレースケールIR画像として撮影します。
ここで重要なのは、カメラがこの画像を**そのままPCに送信するわけではない**ということです。カメラ内部のプロセッサーがまず処理を行います:
**1. スレッショルディングThresholding**
一定基準(閾値)以上の明るさのピクセルのみを残し、残りを除去します。赤外線を反射するマーカーだけが明るく光るため、背景とマーカーを分離する処理です。
**2. ブロブ検出Blob Detection**
明るいピクセルが集まっている領域ブロブを1つのマーカー候補として認識します。
**3. 2Dセントロイド計算**
各ブロブの**正確な中心点(セントロイド)**をサブピクセル精度約0.1ピクセル)で計算します。ブロブ内の各ピクセルの明るさを重みとして使用する加重平均方式です。
### PCに送信されるデータ
デフォルトのトラッキングモードでカメラがPCに送るのは**2Dセントロイドデータ**です:
- 各マーカー候補の**(x, y)座標** + サイズ情報
- カメラ1台あたり1フレームあたり数百バイトの非常に小さなデータ
このように小さなデータ量のおかげで、**40台以上のカメラでもギガビットEthernet1本で十分**です。生のグレースケール画像も送信可能ですが(デバッグ/可視化用、その場合カメラあたり数MB/sが必要なため、通常のトラッキングでは使用しません。
> つまり、カメラは「映像を撮って送る装置」ではなく、**「マーカー位置を計算して座標だけを送るセンサー」**に近い存在です。
ここで一つ疑問が生じるかもしれません ― なぜモーションキャプチャーカメラは通常のカメラと比べてあれほど高価なのか? その理由は上で説明した処理にあります。通常のカメラは撮影した映像をそのまま送って終わりですが、モーションキャプチャーカメラは**内部に専用プロセッサーを搭載**しており、スレッショルディング、ブロブ検出、サブピクセルセントロイド計算までを毎秒240〜360フレームでリアルタイム処理します。カメラ1台が事実上**映像処理専用の小型コンピューター**を内蔵しているのです。
---
## ステップ4キャリブレーション ― カメラの目を揃える
3D復元の前に必ず経なければならないプロセスがあります。ソフトウェアが各カメラの**正確な位置、方向、レンズ特性**を把握する**キャリブレーションCalibration**です。
![キャリブレーションワンド(左)とグラウンドプレーンフレーム(右)](optical-mocap-pipeline/images/calibration-tools.webp)
### ワンディングWanding ― 空間をスキャンする
オペレーターがLEDまたはマーカーが取り付けられた**キャリブレーションワンドWand、棒**を持ち、キャプチャーボリューム全体を歩き回りながら振ります。ワンドのマーカー間の距離は正確に分かっているため、各カメラがワンドを数千フレームにわたって撮影すると、ソフトウェアは以下を計算できます:
- **内部パラメータIntrinsic Parameters** ― 焦点距離、レンズ歪み係数などカメラレンズ固有の特性
- **外部パラメータExtrinsic Parameters** ― 3D空間におけるカメラの正確な位置と方向
この計算には**バンドル調整Bundle Adjustment**という最適化アルゴリズムが使用されます。数千の2D観測データに基づいて、すべてのカメラのパラメータを同時に最適化するプロセスです。
### グラウンドプレーンの設定
ワンディングが完了したら、床に**L字型のキャリブレーションフレームGround Plane**を置きます。このフレームの3つ以上のマーカーが床面と座標原点を定義します
- どこが(0, 0, 0)か(原点)
- どの方向がX、Y、Z軸か
- 床面の高さ基準
キャリブレーションが完了すると、ソフトウェアはどのカメラの2D座標でも正確な3D光線に変換できるようになります。
### キャリブレーション品質
Motiveソフトウェアはキャリブレーション後、各カメラの**再投影誤差Reprojection Error**を表示します。この値が小さいほど通常0.5px以下)、キャリブレーションが正確であることを意味します。誤差が大きいカメラは位置を調整するか再キャリブレーションします。
---
## ステップ52D → 3D復元三角測量
PCに到着した2Dセントロイドがどのように3D座標に変換されるかを見ていきます。
### 三角測量Triangulationの原理
1. キャリブレーションで取得した各カメラの**正確な3D位置、方向、レンズ特性**を活用します
2. カメラの2Dセントロイド座標から**光線Ray**を射出します ― カメラ位置からセントロイド方向に3D空間へ伸びる直線
3. 同じマーカーを見た**2台以上のカメラから射出された光線が交差する点**がマーカーの3D座標です
<video src="optical-mocap-pipeline/images/continuous-calibration-web.mp4" autoplay loop muted playsinline style="width:100%;border-radius:12px;margin:1.5rem 0;"></video>
### 実際には完全に交差しない
イズ、レンズ歪み、キャリブレーション誤差などにより、光線が正確に1点で交わることはほぼありません。そのため**最小二乗法Least Squares Optimization**を使用します:
- すべての光線までの距離の合計が最小になる3D座標を計算
- この時、各光線と復元された3Dポイントとの距離を**残差Residual**と呼びます
- 残差が小さいほど復元品質が高い ― 適切にキャリブレーションされたOptiTrackシステムでは**サブミリメートル0.5mm以下)レベルの残差**が期待できます
### カメラ台数の影響
| 該当マーカーを見ているカメラ台数 | 効果 |
|-------------------------------|------|
| **2台** | 3D復元可能最低条件 |
| **3台** | 精度向上 + 1台が遮られてもトラッキング維持 |
| **4台以上** | 高精度 + 強力なオクルージョン耐性 |
---
## ステップ6マーカー識別とラベリング
### マーカースーツとマーカー配置
3D復元を意味のあるモーションデータにするには、マーカーが身体の**正確な位置**に取り付けられている必要があります。
**マーカー仕様**
- 直径:通常**12〜19mm**の球形再帰反射マーカーを使用
- 素材3M再帰反射テープでコーティングされたフォーム/プラスチック球
- 取り付け:ベルクロ(面ファスナー)、両面テープ、または専用マーカースーツにあらかじめ装着
**マーカーセット規格**
マーカーをどこに何個付けるかは標準化された**マーカーセットMarkerset**規格に従います:
- **Baseline37マーカー** ― OptiTrack基本フルボディマーカーセット。上半身、下半身、頭部をカバーし、ゲーム/映像モーションキャプチャーで最も多く使用
- **Baseline + Fingers約57マーカー** ― 上記に指マーカー約20個を追加した拡張版
- **Helen Hayes約15〜19マーカー** ― 医療/歩行分析の標準。下半身中心の最小マーカーセット
マーカーは**骨が突出した解剖学的ランドマーク**(肩峰、外側上顆、上前腸骨棘など)に取り付けます。これらの位置は皮膚上で骨の動きを最も正確に反映し、スキンアーティファクト(皮膚の滑り)が最小化されるポイントです。
3D復元が完了すると、各フレームに**名前のない3Dポイントの群Point Cloud**が生成されます。「このポイントは左膝マーカーなのか、右肩マーカーなのか」を判別するプロセスが**ラベリングLabeling**です。
![Motiveでマーカーがラベリングされた様子](optical-mocap-pipeline/images/marker-labeling.png)
### ラベリングアルゴリズム
**テンプレートマッチングTemplate Matching**
キャリブレーション時に定義されたマーカーセットの幾何学的配置膝と足首のマーカー間距離を基準に、現在のフレームの3Dポイントをテンプレートと照合します。
**予測追跡Predictive Tracking**
前のフレームの速度・加速度に基づいて、次のフレームで各マーカーがどこにあるかを予測し、最も近い3Dポイントとマッチングします。
### マーカースワップSwap問題
2つのマーカーが互いに非常に近くを通過する際、ソフトウェアが2つのマーカーの**ラベルを入れ替えてしまう現象**です。光学式モーキャプで最もよく見られるアーティファクトの一つです。
解決方法:
- 後処理で手動でラベルを修正
- マーカー配置を**非対称**に設計して区別を容易にする
- **アクティブマーカーActive Marker**の使用 ― 各マーカーが固有の赤外線パターンを発光し、ハードウェアレベルで識別、スワップを根本的に防止
### パッシブ vs アクティブマーカー
| 区分 | パッシブマーカー(反射型) | アクティブマーカー(発光型) |
|------|--------------------------|---------------------------|
| **原理** | カメラIR LEDの光を反射 | マーカー自体が固有のIRパターンを発光 |
| **識別** | ソフトウェアベース(スワップの可能性あり) | ハードウェアベース(スワップなし) |
| **利点** | 軽量で安価、取り付け簡単 | 自動識別、ラベリングエラーなし |
| **欠点** | ラベリング後処理が必要な場合あり | 重く、バッテリー/電源が必要 |
ほとんどのエンターテインメント/VTuber現場では**パッシブマーカー**が主に使用されています。軽くて快適であり、ソフトウェアの性能が十分に高いため、ほとんどの状況で自動ラベリングがうまく機能するからです。
---
## ステップ7スケルトンソルビング ― 点から骨格へ
ラベリングされた3Dマーカーを人間の**骨格Skeleton**構造にマッピングするステップです。
### 事前キャリブレーション
撮影前に俳優が**Tポーズ**(両腕を広げた姿勢)をとると、ソフトウェアがマーカー位置を基に各骨の長さ(腕の長さ、脚の長さなど)と関節位置を計算します。
続いて**ROMRange of Motionキャプチャー**を実行します。
![ROMキャプチャー ― さまざまな動きで関節範囲を補正する過程](optical-mocap-pipeline/images/rom-grid.webp)
腕回し、膝曲げ、上半身ひねりなどさまざまな動きを通じて、ソフトウェアが**関節中心点と回転軸**を精密に補正します。
### リアルタイムソルビング
撮影中は毎フレームごとに:
1. ラベリングされた3Dマーカー座標を受け取る
2. マーカー位置を基に各関節の**3D位置と回転値Rotation**を計算
3. **逆運動学Inverse Kinematics**などのアルゴリズムで自然な骨格ポーズを算出
4. 結果:タイムライン上のすべての関節に対する**位置Translation+ 回転Rotation**データ
### リジッドボディトラッキング(小道具追跡)
刀、銃、カメラなどの小道具に**3つ以上のマーカーを非対称に取り付ける**と、ソフトウェアがそのマーカークラスターを1つの剛体Rigid Bodyとして認識し、**6DOF位置3軸 + 回転3軸**トラッキングが可能になります。
---
## ステップ8リアルタイムストリーミングとデータ出力
### リアルタイムストリーミング
![リアルタイムストリーミング ― Motiveからゲームエンジンへモーションデータを送信](optical-mocap-pipeline/images/realtime-streaming.png)
OptiTrack Motiveはソルビングされたデータをリアルタイムで外部ソフトウェアに伝達します
- **NatNet SDK** ― OptiTrack独自のプロトコル、UDPベースの低遅延伝送
- **VRPN** ― VR/モーキャプ分野の標準プロトコル
これにより**Unity、Unreal Engine、MotionBuilder**などでリアルタイムにキャラクターを動かすことができます。VTuberのライブ配信が可能なのも、このリアルタイムストリーミングのおかげです。
### 録画データ出力フォーマット
| フォーマット | 用途 |
|------------|------|
| **FBX** | スケルトン + アニメーションデータ、ゲームエンジン/DCCツール互換 |
| **BVH** | 階層的モーションデータ、リターゲティングに主に使用 |
| **C3D** | 生の3Dマーカーデータ、バイオメカニクス/研究標準 |
---
## ステップ9後処理 ― データを整える過程
![後処理作業 ― Motiveでモーションデータを整理する過程](optical-mocap-pipeline/images/post-processing.png)
リアルタイムキャプチャーで得たデータはそのまま最終成果物として使える場合もありますが、ほとんどのプロの作業では**後処理Post-Processing**過程を経ます。
### ギャップフィリングGap Filling
オクルージョンによりマーカーが一時的に消えた区間を**補間Interpolation**で埋める作業です。
- **線形補間Linear** ― 単純に前後のフレームを直線でつなぐ。短いギャップに適合
- **スプライン補間Spline** ― 曲線でなめらかに埋める。自然な動きの維持に有利
- **パターンベース補間** ― 同じ動きを繰り返した別テイクのデータを参照して埋める
ギャップが長いほど補間の精度が落ちるため、撮影時にオクルージョンを最小化することが最も重要です。
### スムージングSmoothingとフィルタリング
キャプチャーされたデータには微細な振動(高周波ノイズ)が含まれることがあります。これを除去するために:
- **バターワースフィルターButterworth Filter** ― 指定した周波数以上のノイズを除去するローパスフィルター
- **ガウシアンスムージング** ― 周辺フレームの加重平均で振動を緩和
ただし過度なスムージングは動きの**ディテールとインパクト**を失わせるため、剣を振るう瞬間の鋭い動きまでぼやけないよう、適切な強度を設定する必要があります。
### マーカースワップ修正
ステップ6で説明したマーカースワップが発生した区間を見つけて、ラベルを手動で修正する作業です。Motiveではタイムライン上でマーカーの軌跡を視覚的に確認しながら修正できます。
### リターゲティングRetargeting
キャプチャーされたスケルトンデータを**異なるプロポーションのキャラクター**に適用するプロセスです。例えば身長170cmの俳優のモーションデータを身長3mの巨人キャラクターや150cmの子供キャラクターに合わせるには、関節の回転を維持しながら骨の長さを対象キャラクターに合わせて再計算する必要があります。MotionBuilder、Maya、Unreal Engineなどがリターゲティング機能を提供しています。
---
## ステップ10現場で頻発する問題と対応
技術的に完璧に見える光学式モーキャプにも、実務現場で直面する問題があります。
### 反射イズStray Reflections
マーカー以外の物体から赤外線が反射され、**偽マーカーGhost Marker**が検出される現象です。
- 原因:金属表面、光沢のある服、メガネ、腕時計、床の反射など
- 対応反射が起きる表面をマットテープで覆うか、Motiveで該当エリアを**マスキングMasking**処理してソフトウェアが無視するよう設定
### マーカー脱落
激しい動きの最中にマーカーがスーツから外れたり位置がずれたりするケースです。
- 対応:撮影前にマーカーの取り付け状態を丁寧に確認し、激しいモーションキャプチャー時にはベルクロ + 両面テープを併用して固定力を高めます
- 途中でモニタリングしながらマーカーの状態をチェックすることも重要です
### 衣装の制約
撮影時に俳優が着る服は**明るい色・マット素材**が理想的です。黒色はマーカーの反射に影響しませんが、光沢のある素材やゆるい服はマーカー位置が不安定になったり反射ノイズを引き起こす可能性があります。専用モーキャプスーツを着用するのが最も安定的です。
### キャリブレーションの維持
キャプチャーボリューム内の温度変化、カメラの振動、三脚の微細な移動などにより、キャリブレーションが徐々にずれることがあります。長時間撮影時には途中で**再キャリブレーション**するか、Motiveの**Continuous Calibration連続キャリブレーション**機能でリアルタイム補正することをお勧めします。
---
## レイテンシー ― 動きから画面まで何ミリ秒?
パイプライン各ステップの所要時間です。
| ステップ | 所要時間 |
|---------|---------|
| カメラ露光240fps基準 | 約4.2ms |
| カメラ内部処理(セントロイド計算) | 約0.5〜1ms |
| ネットワーク伝送PoE → PC | < 1ms |
| 3D復元 + ラベリング | 約12ms |
| スケルトンソルビング | 約0.51ms |
| ストリーミング出力NatNet | < 1ms |
| **総エンドツーエンドレイテンシー** | **約8〜14ms240fps基準** |
360fpsでは露光時間が短縮され、**7ms以下**まで可能ですこのレベルのレイテンシーは人間が体感するのが難しい水準でVTuberのライブ配信でも自然なリアルタイム反応が可能です
> 参考:レイテンシーの大部分は**カメラ露光時間(フレーム周期)**が占めています。フレームレートが高いほどレイテンシーが下がるのはこのためです。
---
## パイプライン全体のまとめ
<div class="pipeline-flow">
<div class="pipeline-step">
<div class="pipeline-step-title">1. カメラ設置・IRフィルター・フレーム同期</div>
<p class="pipeline-step-desc">30台のカメラをリング形態で配置、IRパスフィルターで赤外線のみ検出、ハードウェアシンクでμs単位の同期</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">2. PoEネットワーク</div>
<p class="pipeline-step-desc">Cat6ケーブル1本で電力 + データ同時伝送、スタートポロジーでスイッチに接続</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">3. カメラオンボード処理 → 2Dセントロイド</div>
<p class="pipeline-step-desc">IR LED照射 → マーカー反射光受信 → スレッショルディング → ブロブ検出 → サブピクセルセントロイド計算 → 座標のみ送信</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">4. キャリブレーション</div>
<p class="pipeline-step-desc">ワンディングでカメラ内部/外部パラメータを算出、グラウンドプレーンで座標系を定義</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">5. 2D → 3D三角測量</div>
<p class="pipeline-step-desc">複数カメラの2D座標から光線交差 + 最小二乗法で3D座標を復元</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">6. マーカーラベリング</div>
<p class="pipeline-step-desc">テンプレートマッチング + 予測追跡で各3Dポイントにマーカー名を付与</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">7. スケルトンソルビング</div>
<p class="pipeline-step-desc">Tポーズ + ROMキャリブレーション基盤、逆運動学で関節の位置・回転を計算</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">8. リアルタイムストリーミング・データ出力</div>
<p class="pipeline-step-desc">NatNet/VRPNでUnity/Unreal/MotionBuilderにリアルタイム伝送、FBX/BVH/C3D録画</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">9. 後処理</div>
<p class="pipeline-step-desc">ギャップフィリング・スムージング・マーカースワップ修正・リターゲティング</p>
</div>
<div class="pipeline-arrow"></div>
<div class="pipeline-step">
<div class="pipeline-step-title">最終成果物</div>
<p class="pipeline-step-desc">ゲームシネマティック・VTuberライブ・映像コンテンツに適用総レイテンシー約8〜14ms</p>
</div>
</div>
カメラが撮影した映像がそのままPCに送られるのではなく、カメラが自らマーカー座標を計算して送信し、PCがこの座標を3Dに復元してスケルトンにマッピングする ― これが光学式モーションキャプチャーの核心原理です。
---
## よくある質問FAQ
**Q. 光学式モーションキャプチャーカメラは一般のカメラと何が違いますか?**
一般のカメラはフルカラー映像を撮影しますが、モーションキャプチャーカメラは赤外線IR領域に特化しています。IR LEDでマーカーを照らし反射光のみを検出し、カメラ内部でマーカーの2D座標を直接計算して座標データのみをPCに送信します。
**Q. PoEケーブルの長さに制限はありますか**
Ethernet規格に従い、PoEケーブルは**最大100m**までサポートされています。ほとんどのモーションキャプチャースタジオではこの範囲を十分に満たします。
**Q. カメラのフレームレートは高ければ高いほど良いですか?**
フレームレートが高いと高速な動きの追跡と低レイテンシーに有利ですが、データ処理量が増え、カメラの解像度が低下する可能性があります。一般的にVTuberライブやゲームモーションキャプチャーでは120〜240fpsで十分であり、スポーツ科学などの超高速動作分析では360fps以上を使用します。
**Q. マーカースワップはどのくらいの頻度で発生しますか?**
マーカーセットが適切に設計されていてカメラ台数が十分であれば、リアルタイム撮影中のスワップは稀にしか発生しません。ただし高速な動きやマーカー間の距離が近い動作(手を合わせるなど)では発生確率が上がり、このような区間は後処理で修正します。
**Q. 三角測量に2台で十分なのに、なぜ30台も設置するのですか**
2台は理論的な最小値にすぎません。実際にはオクルージョンマーカーの遮蔽、カメラ角度による精度の差、冗長性の確保などを考慮する必要があります。30台を配置すればどのマーカーも常に多数のカメラから見えるため、安定的で正確なトラッキングが可能です。
**Q. キャリブレーションはどのくらいの頻度で行う必要がありますか?**
一般的に撮影日の開始前に1回実施します。ただし長時間撮影時には温度変化やカメラの微細な移動でキャリブレーションがずれる可能性があるため、4〜6時間の連続撮影時には途中で再キャリブレーションを推奨します。OptiTrack MotiveのContinuous Calibration機能を使用すれば、撮影中でもリアルタイムで補正が可能です。
**Q. 光沢のある服を着てはいけないのですか?**
モーションキャプチャーカメラは赤外線の反射を検出するため、光沢のある素材金属装飾、スパンコール、光沢のある合成繊維などは赤外線を反射して偽マーカーGhost Markerを作る可能性があります。専用モーキャプスーツやマット素材の快適な服を着用するのが最善です。
---
光学式モーションキャプチャーの技術的な構造についてさらにご質問がありましたら、[お問い合わせページ](/contact)からお気軽にご質問ください。ミングルスタジオで直接体験されたい方は[サービス案内](/services)をご覧ください。