miocreate_faceswap
↑新ママさんの写真にAIでグロロちゃんの顔を合成した写真。
こちらの記事で紹介したサイトを使用してます。
「AIによるお手軽ツールmiocreate」
https://aika773.livedoor.blog/archives/23804114.html
自分で用意した画像だけを使用しており、違法なデータは使われていません。

画像生成AIは、その元になっているデータに使用してはいけないデータが含まれる疑いがありました。
著作権があるデータや、肖像権のあるデータ、そして児童ポルノ画像です。
それらに対して、画像生成AIを開発しているメーカーは、そうしたデータを排除する改良を進めています。

今回、新たに問題視されているのは、さらに一歩進んだものです。
以下の記事を見てください。
今回指摘されているのは、最初に書いたような元データ収集時にダメなものが紛れ込んだ訳ではありません。
自分から、実在児童のデータをAIに使用しているヤバイ人たちがいるのです。
特定の人物の画像から作った追加データ「LoRAファイル」。
これを使用すれば通常は作れないそっくりな画像生成ができるのです。

この「LoRAファイル」を売っている人が居ます。
さらにその「LoRAファイル」を使って作った実在児童の架空AI画像を売ってる人まで現れています。

実在してないと犯罪として成立しないのが基本ですが、今回は明らかなモデルがいるため、犯罪として成立する可能性が高いとのこと。
同時に法改正に向けた議論も進められています。

こちらの記事も、分かりやいです。
「生成AIの児童ポルノ問題、MetaやOpenAI、Googleら10社が共通対策へ」
↓写真をクリックするとimpress watchに飛びます
生成AIの児童ポルノ問題、MetaやOpenAI、Googleら10社が共通対策へ
この写真は左が生成AIが作った画像。
真ん中がオードリー・ヘップバーンの「LoRAファイル」を読み込ませた画像。
右は、それの年齢を下げた画像になります。
現状は、AIで作ったと判るレベルですが、これが実際の画像と区別が付かないレベルになるのは時間の問題でしょうね。

もう一つ。
X(旧Twitter)が、突然エロを解禁しました。
なんとAIで作ったモノもOK。
これでドーラーのXが凍結されることも少なくなるかもしれません。
私のXも凍結されていますが、こっちは復帰の望みはなさそうです。
なぜならエロはOKになっても、児童ポルノはNGのままだからです。
もちろん、私のXに投稿されていたのはドールであって、児童ポルノではないのですが、これは理解さないままと思います。