「女の子と男の子のペアを作りたいのに、髪色が混ざってしまう…」 「推しキャラ二人を並べたいのに、なぜか顔が融合してしまう…」
AI画像生成を楽しんでいると、必ずと言っていいほどこの「複数人の描き分け」という壁にぶつかりますよね。プロンプト(命令文)に二人の特徴を書いても、AIが混乱してしまって、どっちがどっちだか分からなくなってしまうんです。これはStable Diffusionの仕組み上、初心者なら誰もが通る道なので安心してください。
でも、実はちょっとしたコツと便利な機能を使えば、誰でもきれいに二人を描き分けることができるようになります。LoRAを使ってキャラを固定したり、最新のモデルであるPonyを活用したりと、方法はいくつかあります。
この記事では、AI特有の「混ざる現象」を解消して、あなたの頭の中にある理想のツーショットを完全に再現するための方法を、優しく丁寧に解説していきます。
この記事を読むと、以下のことが理解できるようになります
- Stable Diffusionで二人以上のキャラクターを、色混ざりなく描き分ける具体的な手順
- LoRAやRegional Prompterを使って、左右で違う顔や服装を指定するテクニック
- PixAIやSeaArtなどのWebサービスや、Pony・Illustriousなどのモデル別の攻略法
- 二人が自然に絡んでいる構図を作るための、プロンプトとControlNetの活用術
Stable Diffusionで二人を描き分け!LoRA活用の基礎知識

さて、まずは一番の悩みである「二人の特徴が混ざってしまう問題」を解決していきましょう。Stable Diffusionで二人を描き分け、さらにLoRAを使って特定のキャラにするには、AIに「ここはAさん、こっちはBさん」と場所を明確に教えてあげる必要があります。
これを理解しないでただプロンプトを羅列しても、AIは「全ての要素を全体に散りばめよう」としてしまいます。これが失敗の原因なんですね。ここでは、確実に描き分けるための基礎と、最強の拡張機能についてお話しします。
Stable Diffusionで複数人の違う顔を作る「領域指定」の魔法
結論から言うと、「Regional Prompter(リージョナル・プロンプター)」という拡張機能を使うのが一番の近道です。
なぜなら、この機能を使うと画面を「右と左」や「上と下」に分割して、それぞれのエリアに別々のプロンプトを適用できるからです。通常、プロンプトは画像全体に影響しますが、このツールはAIの注目する場所(Attention)を強制的にコントロールします。
例えば、普通に「青い髪の女の子, 赤い髪の男の子」と入力すると、AIは混乱して「紫の髪」にしたり「二人とも赤髪」にしたりします。これを「色移り」と呼びます。しかし、Regional Prompterを使えば、以下のようにAIに指示が出せるようになります。
- 画面全体: 二人が並んでいる, 高画質, 背景は教室
- 左側のエリア: 青い髪の女の子, セーラー服
- 右側のエリア: 赤い髪の男の子, 学ラン
このようにエリアごとに部屋分けをしてあげるイメージですね。これを導入するだけで、「Stable Diffusion 複数人 違う顔」という検索で悩んでいた問題の8割は解決すると言っても過言ではありません。導入も簡単なので、ぜひ検索してインストールしてみてください。
Stable Diffusionで二人を描き分けるPonyとIllustriousの活用
最近話題になっている新しいモデル、「Pony Diffusion V6 XL」や「Illustrious XL」をご存じでしょうか?
これらは、従来のモデル(SD1.5系など)に比べて、「自然言語(文章)」の理解力が格段に高いという特徴があります。これを使うと、面倒な拡張機能を使わなくても、プロンプトの書き方を工夫するだけで描き分けられる成功率がグッと上がります。
PonyやIllustriousでの書き方のコツ:
- Ponyの場合:
score_9, score_8_upなどの専用タグを入れた上で、1girl 1boyと指定し、それぞれの特徴をしっかり区切って記述します。Ponyは特にキャラクターの概念(LoRAなしでも有名キャラが出せるなど)に強いので、LoRAを使わずとも「誰か」を指定しやすいのがメリットです。 - Illustriousの場合: イラスト調の美麗な画風が得意です。こちらも描き分け性能は高いですが、やはり色が混ざる場合はRegional Prompterとの併用がおすすめです。
ただ、どちらのモデルも「完璧」ではありません。やはり、確実に色や服装を分けたい場合は、先ほど紹介した領域指定のテクニックを併用するのが一番確実ですよ。
Stable Diffusionで複数キャラを描き分けるプロンプトのコツ
「拡張機能を入れるのはちょっと難しそう…」という方のために、プロンプトだけで頑張る場合のテクニックも紹介しておきますね。
基本は「BREAK構文」を使うことです。 Stable Diffusionには「BREAK」という単語を入れると、そこで一旦文脈を切ってくれる機能があります。
具体例: blue hair girl, school uniform BREAK red hair boy, casual clothes
このように間にBREAK(大文字)を挟むことで、AIに「前半と後半は別の塊だよ」と意識させることができます。ただ、これだけだと完全に混ざるのを防ぐのは難しいのが現状です。
そこで、私がよくやるのは「色の要素を減らす」ことです。 もしLoRAを使っているなら、LoRA自体に色情報が含まれていることが多いので、プロンプトで過剰に色を指定しないようにします。逆に、LoRAを使っていないオリジナルの二人を描くなら、やはりRegional Prompterのようなツールに頼るのが、結果的に一番時間の節約になります。
Stable Diffusionで二人を絡ませるLoRAの設定方法
ここが一番の難関、「二人の絡み」と「それぞれのLoRA適用」です。
「二人を描き分けたいけど、それぞれのキャラに別のLoRAを効かせたい!」という場合、ただLoRAを2つ読み込むと、二人の顔が混ざった「キメラ」が生まれてしまいますよね。
これを解決するには、やはりRegional Prompterを使います。実はこの機能、プロンプトだけでなく「LoRAも場所指定で適用できる」んです。
- 画面を左右に分割する設定にする。
- 左側のプロンプト欄に「キャラAのLoRA」を記述。
- 右側のプロンプト欄に「キャラBのLoRA」を記述。
こうすることで、左にはAさんの顔、右にはBさんの顔、というようにLoRAの効果範囲を限定できます。
また、もし二人が抱き合っていたり、複雑に絡んでいる構図(Stable Diffusion 二人 絡み)を作りたい場合は、ControlNetの「OpenPose」が必須になります。棒人間でポーズを指定してあげることで、AIが「どこに誰がいるか」を迷わなくなりますよ。



Stable Diffusion以外も?二人を描き分けるLoRAテクニックと便利ツール

ここまでPCにインストールするタイプのStable Diffusion(WebUI)の話をしてきましたが、「スマホでやりたい」「ハイスペックPCがない」という方も多いですよね。
実は、Web上で使える生成AIサービスでも、二人の描き分け機能が充実してきています。ここでは、PixAIやSeaArtといった人気サービスでの描き分け術と、さらにスキルアップしたい方向けの情報をお届けします。
プロンプトだけで二人を描き分けるPixAIの攻略法
スマホユーザーに大人気のPixAI。このサービスは、実は描き分けにかなり力を入れています。
PixAIで「二人 描き分け LoRA」を実現するには、「ControlNet(構図指定)」を活用するのが一番です。PixAIの生成画面には、最初から人物の配置を指定できるテンプレートや機能が備わっています。
PixAIでの手順イメージ:
- 生成設定で「キャラクター」を追加する項目を探す(またはLoRAを複数選択)。
- 「Tile」や「Inpaint(修正)」機能を活用する。
- 一度生成して、片方の顔が崩れていたら、その部分だけを選択して「ここだけLoRA Bで書き直して!」と指示する(これをInpaintと言います)。
PixAIは特に「後から修正」がやりやすいUIになっているので、一発で完璧を目指さず、「まずは二人出す」→「変なところを直す」という手順がおすすめですよ。
プロンプトで二人を描き分けるSeaArtの便利な機能
SeaArtも非常に高機能なWebサービスです。SeaArtには、PC版Stable Diffusionにある「Regional Prompter」に近い機能や、直感的に使える「Studio」モードがあります。
SeaArtで「プロンプト 二人 描き分け」を行う際のポイントは、「キャラクター機能」を使うことです。SeaArtでは、事前にキャラクターの設定(プロンプトやLoRA)を登録しておき、キャンバス上の「ここにはキャラA」「ここにはキャラB」と配置する機能が充実しています。
また、SeaArt上のユーザーが公開している「二人構図用のポーズ集(ControlNet用画像)」を使うのも賢い手です。自分でプロンプトをこねくり回すよりも、ポーズ素材をお借りして、そこにキャラを当てはめる方が、圧倒的に早くきれいな「絡みイラスト」が作れます。
Webライター視点で見る生成AIスキルの重要性
ここまで、Stable DiffusionやWebサービスでの「描き分け」について解説してきました。 「結構覚えることが多いな…」と感じた方もいるかもしれません。
正直なところ、趣味で楽しむ分には適当に生成して「奇跡の一枚」を待つのも楽しいですが、もしあなたが「生成AIで副業をしたい」「仕事に使いたい」と考えているなら、この「狙った通りに出力する技術(コントロール力)」は必須スキルになります。
なぜなら、クライアントワークでは「なんとなく可愛い子」ではなく、「指定された通りのキャラを、指定された構図で」出すことが求められるからです。
もし、独学での習得に限界を感じたり、将来的にこのスキルで収入を得たいと本気で考えているなら、「バイテック生成AIスクール」のような専門のスクールで学ぶのも一つの選択肢です。
ここは単なる画像の作り方だけでなく、「実務でどう使うか」「どうやって収益化するか」に特化しているのが特徴です。例えば、今回のようなStable Diffusionの高度な制御技術はもちろん、ChatGPTを使ったSEOライティングなど、「AIで稼ぐための総合力」を身につけることができます。「趣味」を「仕事」に変える最短ルートを知りたい方は、一度チェックしてみても損はないはずですよ。
Stable Diffusionで複数人生成時の失敗と対策まとめ
最後に、よくある失敗とその対策を表にまとめておきます。これを見れば、トラブルが起きてもすぐに原因がわかりますよ。
| よくある失敗 | 考えられる原因 | 対策 |
|---|---|---|
| 色が混ざる | プロンプトが一続きになっている | Regional Prompterで領域を分ける |
| 顔が混ざる | 複数のLoRAが全体にかかっている | LoRAも領域指定するか、強度を下げる |
| 体が融合する | 構図指定が曖昧 | ControlNet (OpenPose)で位置を指定 |
| 画質が悪い | 解像度が低い、キャラが小さい | Hires.fix (高画質化) を使う、Inpaintで顔だけ描き直す |
失敗は成功の母です。特に「Inpaint(部分修正)」は、二人以上のイラストを作る時の救世主です。「全部やり直し」ではなく「ここだけ直す」という癖をつけると、作品作りがぐっと楽になりますよ。

AIを使って副業を始めたいけれど、「独学だと挫折しそう」「本当に案件が取れるか不安」という方は、実務と収益化に特化したスクールを検討してみるのも近道です。
\ ※完全オンライン・スマホで1分で予約完了 /
実際に、未経験から月5万円の収益化を目指せるバイテック生成AIというスクールについて、評判やカリキュラムの実態を詳しく検証してみました。
▼続きはこちらの記事で解説しています

Stable Diffusion 二人 描き分け lora まとめ
Stable Diffusionで二人を描き分ける方法について解説してきました。 最初は難しく感じるかもしれませんが、ツールを使いこなせば、あなたの頭の中にある「理想のカップリング」や「夢の共演」を自由に作り出せるようになります。
最後に、今回のポイントを箇条書きでまとめておきますね。
- 単なるプロンプトの羅列では、色や特徴が混ざるのは避けられない。
- PC版なら「Regional Prompter」が最強の描き分けツールである。
- 画面を分割してプロンプトを指定することで、色移りを防げる。
- PonyやIllustriousなどの新モデルは、自然言語での理解度が高い。
- それでも混ざる場合は、モデルの力だけでなく領域指定を併用する。
- LoRAを複数使う場合も、適用範囲(場所)を指定する必要がある。
- 二人の絡み(ポーズ)を作りたいなら、ControlNetのOpenPoseが必須。
- PixAIなどのスマホアプリでは、Inpaint(部分修正)を活用するのがコツ。
- SeaArtのキャラクター配置機能やスタジオモードも非常に便利。
- BREAK構文はある程度の効果はあるが、完全な分離は難しい。
- プロンプトでは、二人の共通点と相違点を明確に意識して書く。
- 完璧な一枚を最初から狙わず、部分修正で完成度を高めるのがプロの技。
- 商用利用レベルの制御技術を学ぶなら、専門スクールの活用も視野に入れる。
- バイテック生成AIスクールなら、実務直結のスキルと収益化まで学べる。
- まずは失敗を恐れず、ツールを使って「二人を出す」ことから始めよう。
この記事の参考資料
この記事で紹介した技術やツールの信頼性を裏付ける、一次情報源は以下の通りです。
- Stability AI 公式サイト(Stable Diffusion開発元) 生成AIの基盤モデルであるStable Diffusionを開発・提供している公式機関の情報です。
- Adding Conditional Control to Text-to-Image Diffusion Models (ControlNet論文) ポーズ指定などに不可欠なControlNet技術の基礎理論と実証結果が記された、学術的な一次情報です。
- sd-webui-regional-prompter (GitHubリポジトリ) 記事内で推奨している領域指定ツールの開発元による、公式ドキュメントと仕様書です。

