AI はどうやって服の配色を分析するのか — 技術と仕組みを解説
AIがコーディネートの配色を分析する技術的な仕組みを、画像認識・色彩抽出・ハーモニー判定の3ステップで解説。パーソナルカラー診断との違いも明確にします。
スマートフォンで撮ったコーディネート写真をアップロードすると、AI が配色のバランスを数秒で分析してスコアを返す。2026 年現在、こうしたサービスが急増しています。ユーザー数は 8,500 万人を超える見込みです。
でも「AI が配色を分析する」と言われても、具体的に何が起きているのかはブラックボックスのままではないでしょうか。
この記事では、AI がコーディネートの配色を分析する技術的な仕組みを、3 つのステップに分けて解説します。開発者向けの技術的な話も含みますが、技術に詳しくない方でも「なるほど、こうやって判定しているのか」と理解できるレベルで書いています。
AI 配色分析 ≠ パーソナルカラー診断
まず、よくある混同を整理します。
| パーソナルカラー診断 | AI 配色分析 | |
|---|---|---|
| 分析対象 | あなたの肌・髪・目の色 | あなたが着ている服の色の組み合わせ |
| 出力 | 似合う色のパレット(春夏秋冬) | 今の配色のスコアと改善提案 |
| 入力 | セルフィー(顔写真) | コーディネート写真(全身) |
| 理論基盤 | パーソナルカラー理論(4/12シーズン) | 色彩調和理論(色相環ベース) |
| タイミング | 一度診断すれば基本変わらない | 毎回のコーデごとに分析 |
パーソナルカラー診断は「あなたに似合う色は何か」を教えてくれます。AI 配色分析は「今日のこの組み合わせのバランスはどうか」を教えてくれます。
両方に価値がありますが、この記事では後者——服の組み合わせの配色を AI が分析する仕組み——に焦点を当てます。両者の違いについて詳しくは「パーソナルカラー診断 vs AI配色分析」をご覧ください。
Step 1:画像から服の色を抽出する
セグメンテーション — 服と背景を分離する
コーディネート写真には、服だけでなく背景(壁、床、家具)、肌、髪、アクセサリーなど様々なものが映っています。AI がまずやるのは、画像の中で「服」がどこにあるかを特定することです。
これには セマンティック・セグメンテーション という技術を使います。画像の各ピクセルを「トップス」「ボトムス」「アウター」「靴」「バッグ」「背景」「肌」などに分類します。
2026 年時点では、マルチモーダル AI(画像と言語を同時に理解する AI)の進化により、この精度が飛躍的に向上しています。一般的なスマートフォン写真であれば、90% 以上の精度で服のエリアを正しく検出できます。
ドミナントカラー抽出 — 各アイテムの「代表色」を決める
服のエリアが特定できたら、次は各アイテムから ドミナントカラー(支配的な色) を抽出します。
1 枚のトップスでも、ストライプ柄なら複数の色が混在しています。AI は k-means クラスタリングなどのアルゴリズムで、各アイテムの主要色(1〜3 色)を特定します。
入力: トップスの全ピクセル(例: 50,000ピクセル)
処理: k-means クラスタリング(k=3)
出力:
- 主色: #2C5F8A(ネイビー系, 65%)
- 副色: #FFFFFF(白, 25%)
- 差し色: #D4A574(ベージュ系, 10%)
この段階で、コーディネート全体が「ネイビーのトップス × ベージュのボトムス × 白のスニーカー」のように、色の集合として数値化されます。
Step 2:色を「人間の知覚」に合わせて変換する
なぜ RGB では分析できないのか
スマートフォンの写真は RGB(赤・緑・青)で色を表現しています。しかし RGB は人間の色の感じ方とずれています。
例えば、RGB 上で「距離が同じ」2 組の色があっても、人間の目にはまったく違う差に見えることがあります。これでは配色の調和を正確に測定できません。
LCH 色空間への変換
そこで使われるのが LCH(Lightness・Chroma・Hue)色空間 です(技術的な詳細は「LCH色空間入門」で解説しています)。
- L(明度): 明るさ。0 が黒、100 が白
- C(彩度): 鮮やかさ。0 が無彩色(グレー)、大きいほど鮮やか
- H(色相): 色味。0°〜360° の角度で表現(0°=赤、120°=緑、240°=青)
LCH の特徴は、数値上の距離がそのまま人間が感じる色の違いに対応する こと。これを「知覚的均等性」と呼びます。RGB にはこの性質がないため、配色分析には不向きです。
変換例:
RGB(44, 95, 138) → LCH(L:39, C:30, H:250°) — ネイビー
RGB(212, 165, 116) → LCH(L:70, C:30, H:65°) — ベージュ
Step 3:色の関係を理論に照合し、スコアを算出する
ここが AI 配色分析の核心です。各アイテムの色が LCH 色空間上で数値化されたら、それらの 関係性 を分析します。
色相角の差分でハーモニーパターンを判定
色相(H)は 360° の円周上に配置されます。つまり、色相環そのものです。2 つの色の色相角の差分から、どの配色パターンに該当するかを判定します。
| 色相角の差 | 判定される配色パターン | 一般的な調和度 |
|---|---|---|
| 0°〜30° | 類似色配色 | 高い(自然にまとまる) |
| 150°〜180° | 補色配色 | 条件付き(彩度差に注意) |
| 110°〜130° | トライアド(3色の場合) | 中〜高(比率が重要) |
| 30°〜60° | 類似補色 | 高い |
彩度と明度のバランスチェック
色相が調和していても、彩度や明度のバランスが崩れると「何か変」に見えます。
典型的な不調和パターン:
- 彩度差が大きすぎる: 鮮やかなコーラルピンク(C:60)× くすんだカーキ(C:15)→ 色相は補色で OK だが、片方だけ「浮いて」見える
- 明度差がなさすぎる: ミディアムグレー(L:50)× ミディアムブルー(L:52)→ のっぺりして見える
- 全体が高彩度: 全アイテムが C:50 以上 → 目が疲れる印象
AI はこれらを数値的に検出し、スコアに反映します。
総合スコアの算出
最終的なスコアは、複数の軸を重み付けして算出します。
配色ハーモニースコア =
色相調和度(40%)
+ 彩度バランス(25%)
+ 明度コントラスト(20%)
+ 色数バランス(15%)
スコアが低い場合は、「どの色をどう変えればスコアが上がるか」まで提案します。例えば:
「トップスの彩度が高すぎます。同じ色相でも、もう少し落ち着いたトーン(C:35→C:20)にすると、ボトムスとの調和度が上がります。」
マルチモーダル AI による次世代アプローチ
ここまで説明した 3 ステップは、従来のコンピュータビジョン + 色彩理論のアプローチです。2026 年現在、これに加えて マルチモーダル AI(Gemini、GPT-4V など) を使った新しいアプローチが登場しています。
従来型 vs マルチモーダル型
| 従来型 | マルチモーダル型 | |
|---|---|---|
| 色の抽出 | CV パイプライン(segmentation → clustering) | AI が画像を直接理解 |
| 配色判定 | 色彩理論のルールベース | AI が「見た目の調和」を直接評価 |
| 強み | 再現性が高い、説明可能 | 文脈理解(TPO、スタイル)が可能 |
| 弱み | 文脈が分からない | ブラックボックス度が高い |
マルチモーダル AI の最大の利点は、色だけでなくスタイル全体を理解できること。「ビジネスカジュアルとしてはこの配色は OK だが、カジュアルフライデーには少し硬い」といった、文脈を加味した判定が可能になります。
一方で、判定根拠が不透明という課題があります。「なぜこのスコアなのか」をユーザーに説明しにくい。
理想は両方の組み合わせ だと私たちは考えています。マルチモーダル AI で全体の印象を評価しつつ、色彩理論ベースの分析で具体的な改善提案を出す。説得力と実用性の両立です。
精度を左右する現実的な課題
AI 配色分析の精度は万能ではありません。以下の条件で結果がぶれます。
照明条件
蛍光灯の下で撮った写真と自然光の写真では、同じ服でも色が変わります。AI はある程度の色補正を行いますが、極端な色被り(暖色照明下での青い服など)は正確な判定が困難です。
対策: 自然光、窓際、直射日光を避けた環境が最も正確な結果を返します。
素材の質感
光沢のあるサテンと、マットなコットンでは、同じ色でも見え方が違います。現時点の多くのサービスでは、素材による見え方の違いまでは考慮していません。
カメラの色再現性
スマートフォンのカメラはメーカーごとに色の処理が異なります。iPhone は暖色寄り、Pixel は寒色寄りの傾向があり、同じ服を撮っても色が微妙に異なります。
まとめ
AI が配色を分析する仕組み:
- 画像認識で服のエリアを特定し、各アイテムの代表色を抽出
- LCH 色空間に変換して、人間の知覚に合った数値表現にする
- 色彩調和理論に照合し、色相・彩度・明度のバランスを総合スコア化
「AI が見た瞬間に分かる」のではなく、色彩理論という確立された理論を、AI が高速かつ高精度で適用しているのが実態です。
私たちの magicoord は、このアプローチをさらに発展させ、マルチモーダル AI と色彩理論のハイブリッドで「なぜこの配色が良いのか」まで説明できるサービスを目指しています。
この記事は wizPulseAI 編集部が、AI ツールの支援を受けて作成しました。
よくある質問(FAQ)
Q: AI 配色分析はパーソナルカラー診断と何が違いますか? A: パーソナルカラー診断はあなたの肌・髪・目の色から「似合う色」を判定します。AI 配色分析は、今着ている服の色の組み合わせが調和しているかを判定します。前者は「何色を選ぶべきか」、後者は「この組み合わせは合っているか」に答えます。
Q: 分析結果は正確ですか? A: 自然光で撮影した標準的な写真であれば、高い精度で分析できます。ただし、極端な照明条件やカメラの色処理の差異により結果がぶれることがあります。
Q: なぜ LCH 色空間を使うのですか?RGB ではだめですか? A: RGB は機械が画面に色を表示するための仕組みであり、人間の色の知覚とは一致しません。LCH は「数値の距離 = 人間が感じる色の違い」になるため、配色の調和を正確に測定できます。
Q: 柄物(ストライプ、チェックなど)は分析できますか? A: k-means クラスタリングにより、複数色を含むアイテムでも主要色を抽出して分析可能です。ただし、非常に細かい柄(小花柄など)は離れて見たときの印象色と抽出色にずれが生じることがあります。
