AI画像生成と安全フィルターの現状まとめ(2025年版)

公開日: 2025/10/1
AI画像生成と安全フィルターの現状まとめ(2025年版)

はじめに 近年、AI による画像生成(特に Stable Diffusion、Midjourney、DALL·E など)が急速に進化し、誰でも高品質なビジュアルを生成できるようになりました。しかし、同時に 著作権・肖像権のリスク安全フィルター(コンテンツ規制)の違いも浮き彫りになっています。
また、SNS では注目を集めるために扇情的なポーズの画像が氾濫し、AI の学習データが偏るという問題も発生しています。その結果、AI 開発側は「技術的に難しいポーズ」「扇情的なポーズ」を区別できず、表現の幅が狭まっているのが現状です。

本記事では、主要な生成 AI のフィルター比較、中国系モデルの動向、日本アニメキャラ生成の実態を整理し、AI 生成のリアルな現状と今後の展望を考察します。

主要な AI 画像生成サービスのフィルター比較

以下は、2025 年時点での主要サービスの安全フィルター挙動をまとめたものです。

ケース

OpenAI (DALL·E)

Stable Diffusion (Web/API)

Midjourney

manas

水着姿(イラスト調)

△ 一部通るが弾かれる場合あり

○ 通りやすい

○ 問題なし

○ 生成可能

水着姿(フォトリアル)

× ほぼブロック

△ API は厳格、WebUI は可能

△ 弾かれる場合あり

△ フォトリアルは厳しい

寝そべりポーズ(イラスト調)

△ 安全寄り表現なら通る

○ 生成可能だが崩れやすい

△ 性的でなければ可

△ ポーズによっては不可

流血シーン(軽度)

△ ゲーム風なら通る

○ 生成可能

○ ファンタジーなら OK

○ 軽度なら OK

流血シーン(リアル)

× 完全ブロック

△ WebUI では可能、API は NG

△ 弱めなら可

× NG

有名人の似顔絵(イラスト)

× 禁止

△ スタイル次第

△ 匿名化すれば可

△ 芸術風なら可

有名人の実写風

× 完全禁止

× 禁止

× 完全禁止

× 禁止

子供キャラの日常

○ 安全なら OK

○ 問題なし

○ OK

○ OK

子供キャラの水着

× NG

× 禁止

× 禁止

× 禁止

なぜ「ポーズ」や「扇情的な表現」が厳しく制限されるのか

AI 画像生成を使っていると、特定のポーズや表現が意図せずブロックされることがあります。その背景には、技術的な課題と社会的な要因が複雑に絡み合っています。

SNS での扇情的コンテンツの氾濫と学習データの偏り: SNS では注目を集める目的で、扇情的なポーズ(胸を強調する、腰を振るなど)の AI 生成画像が大量に投稿されています。これにより、AI の学習データが「よくある扇情的なポーズ」に偏るという悪循環が生まれています。結果として、AI は複雑なポーズや珍しい構図の学習機会を失い、生成能力に偏りが生じています。

「難しいポーズ」と「扇情的なポーズ」の区別の難しさ: AI 開発側にとって、技術的に「難しいポーズ(例:複雑に絡み合った手足、ダイナミックなアクション)」と、意図的に「扇情的なポーズ」を明確に区別することは非常に困難です。
そのため、安全フィルターは性的・暴力的コンテンツの「見逃し」を避けることを最優先し、少しでもリスクのあるポーズを広範囲にブロックする「安全寄り」の設計になっています。

承認欲求が招く「コモンズの悲劇」: なぜ、個人で楽しめば問題ないはずの画像が公開され、結果として全体の首を絞めるのでしょうか。この状況は、経済学で言われる「コモンズの悲劇」というモデルで説明できます。

【コモンズの悲劇とは?】

誰もが自由に使える共有の牧草地(コモンズ)があったとします。羊飼いたちは、自分の利益を最大化しようと、競って羊を増やします。しかし、その結果、牧草地は食べ尽くされて荒れ果て、最終的には全ての羊が痩せ細り、全員が損をしてしまう――。個人の合理的な行動が、全体としては不合理な結果を招くという悲劇です。
これを AI 画像生成の世界に置き換えてみましょう。

共有の牧草地: 誰でも自由に表現を楽しめる「AI という遊び場」

自分の利益を追求する羊飼い: 承認欲求や金銭的利益のために、扇情的な画像や著作権的にグレーな画像を大量に投稿する一部のユーザー

牧草地が荒れ果てる: 過激なコンテンツの氾濫を問題視したプラットフォームが、AI の安全フィルターを大幅に強化する

全ての羊が痩せ細る: 規制強化の巻き添えで、健全な創作活動(例:芸術的なヌード、複雑なアクションポーズ)までもがブロックされ、クリエイター全体の表現の自由が奪われる

一部のユーザーの行動が、結果的に「AI で自由に表現できる」という全員の利益を損なっている。これが、今まさに起きている「コモンズの悲劇」なのです。

写実性の高さと悪用リスク: フォトリアルな画像は現実世界への影響が大きく、肖像権侵害やディープフェイクなどの悪用リスクが高まります。そのため、イラスト調の画像よりも写実的な画像の方が、ポーズや表現に対するフィルターが厳しくなる傾向があります。

脱獄プロンプトへの耐性(2023→2025) - 2023 年頃: Jailbreak(脱獄)プロンプトにより、制限を回避して危険コンテンツを生成できるケースが多数報告されていた。

2025 年現在:

  • OpenAI: 大幅強化、ほぼ突破不可。
  • Midjourney: 一部突破例あるが監視が強化。
  • Stable Diffusion: WebUI 版は自由度が高く、自己責任色が強い。
  • 中国系モデル: 相対的にフィルター緩く、依然として脱獄しやすい。

中国系 LLM の躍進と潜むリスク

近年、中国系の画像生成 AI は目覚ましい性能向上を遂げています。有名 YouTuber などが「案件」として紹介することも増え、無料や安価で利用できる手軽さ、無料トークンの付与などもあり、目にする機会が急増しました。 しかし、その普及の裏で、見過ごされがちなリスクも存在します。

著作権・肖像権に関する規制の緩さ: 有名人やアニメキャラクター、ブランドロゴなども容易に生成できてしまうケースが多く、法的なリスクを伴います。

データセキュリティへの懸念: 生成時に入力したプロンプトやアップロードした画像データが、中国国内のサーバーに送信・保管される可能性があります。これらの学習データがどのように扱われるかは不透明な部分が多く、情報管理の観点から注意が必要です。

語られないリスク: 案件として紹介される際には、こうした利便性の裏にあるリスク側面が十分に語られない傾向があります。

規制動向: 中国国内では検閲対象が政治関連に偏る傾向がありますが、海外展開時には国際基準に合わせて規制を強化する動きも見られます。

日本のアニメキャラと LoRA 学習の実態

Stable Diffusion コミュニティでは、LoRA(Low-Rank Adaptation)を使って特定のキャラや画風を再現する学習モデルが多数出回っている。

  • 例: 人気アニメキャラの LoRA を使えば、公式イラストに酷似した生成が可能。
  • 問題点: - 著作権侵害(原作絵柄やキャラ設定を模倣)。
  • 商用利用時に法的リスクが高い。
  • 「二次創作文化」と「生成 AI」の境界線が曖昧になっている。

まとめ

  1. 主要サービス(OpenAI/Midjourney)は規制が厳格化 → 著作権や児童関連に敏感。
  2. Stable Diffusion は自己責任モデル → WebUI 利用では自由度が高く、LoRA などで容易に著作物を再現可能。
  3. 中国系モデルは規制が緩め → ただし国際展開で規制を強化する可能性あり。
  4. アニメキャラ LoRA の氾濫→ 著作権・商標リスクが顕著。

今後の展望

日本国内でも AI 生成物の著作権法的扱いが議論されており、企業利用では特にリスク管理が必要。

生成 AI の「安全フィルター」は今後さらに強化される一方で、オープンモデル(Stable Diffusion 系)では自由度を維持する動きも続くと予想される。