文章での指示にそった画像を生成してくれるAI「Stable Diffusion」には、セクシー描写などの成人向け表現を含む画像を黒塗りするセーフティフィルターが搭載されています。このセーフティフィルターを解除する方法が海外掲示板のRedditで共有されています。
Tutorial: How to Remove the Safety Filter in 5 seconds : StableDiffusion
https://www.reddit.com/r/StableDiffusion/comments/wv2nw0/tutorial_how_to_remove_the_safety_filter_in_5/
Stable Diffusionは文章を入力すると文章にそった画像を生成してくれるAIで、2022年8月に一般公開されて以降大きな注目を集めています。Stable Diffusionでどんな画像を生成できるのかは、以下の記事を読むとよく分かります。
キーワードに沿ってまるで人間が描いたような絵や写真を生み出すAI「Stable Diffusion」が一般公開されたので使ってみた – GIGAZINE
Stable DiffusionはNVIDIA製GPUを搭載したPCやGoogle製Python実行環境などで実行できるのですが、セクシー描写などを含む成人向け表現を含む画像を生成すると、自動的に黒塗りされてしまいます。試しにGoogle製Python実行環境上で動作するStable Diffusionに「sexy woman(セクシーな女性)」という文章を入力したところ、「閲覧注意画像を検知したため、真っ黒な画像と置き換えました」という旨の通知が表示され、セクシーな女性ではなく真っ黒な画像が表示されてしまいました。
Stable Diffusionでは閲覧注意画像を生成していないわけではなく、画像生成後に閲覧注意画像か否かをチェックする動作をしています。このため、ソースコードの「画像チェック機能」の部分を書き換えれば閲覧注意画像を問題なく生成することが可能。この画像チェック機能無効化法が海外掲示板のRedditで共有されています。なお、共有されている方法は、GitHubリポジトリからStable Diffusionをクローンして利用しているユーザーを対象にしています。
・ステップ1
「scripts」フォルダ内に配置されている「txt2img.py」のバックアップを作成
・ステップ2
「txt2img.py」をエディタで開き、以下の行を探す(通常は309行目)
x_checked_image, has_nsfw_concept = check_safety(x_samples_ddim)
・ステップ3
ステップ2で見つけた行をインデントを保ったまま以下に書き換える
x_checked_image = x_samples_ddim
上記の手順を実行すれば閲覧注意画像チェック機能の無効化は完了。さらに、閲覧注意画像モデルのロードも無効化したい場合は、「txt2img.py」に含まれる以下の3行(通常は26~28行目)を削除すればOKです。ただし、Google Colabなどのオンライン環境で閲覧注意画像を生成した場合、規約違反とみなされてアカウントを削除される可能性があるので注意が必要。閲覧注意画像はローカル環境で生成するのが無難です。
safety_model_id = “CompVis/stable-diffusion-safety-checker”
safety_feature_extractor = AutoFeatureExtractor.from_pretrained(safety_model_id)
safety_checker = StableDiffusionSafetyChecker.from_pretrained(safety_model_id)
なお、Stable Diffusionの一般公開以降、Stable Diffusionを用いて画像生成を実行できるデスクトップアプリやスマートフォンアプリが活発に開発されていますが、それらのアプリの一部は閲覧注意画像チェック機能を無効化した状態で配布されています。以下の記事で使い方を解説している「NMKD Stable Diffusion GUI」でも閲覧注意画像チェック機能が無効化されており、成人向け描写を含む画像を黒塗りなしで出力できます。
この記事のタイトルとURLをコピーする