このページの本文へ

新清士の「メタバース・プレゼンス」 第108回

“AI彼女”が自分のパソコンに入る日は近い

2025年05月26日 07時00分更新

文● 新清士

  • この記事をはてなブックマークに追加
  • 本文印刷

追加学習モデルを使えば性的チャットも

 クラウドLLMが高性能さを誇る一方で、ローカルLLMの強みは、その表現内容に制限がかからず、またその出力結果がローカル内であるため、プライベート性が高いという強みがあります。なお、ローカルLLMが人気のある理由のひとつです。しかし、最近公開されるローカルLLMでは、倫理規定が学習過程で盛り込まれるようになっており、暴力や犯罪、性的な表現を出力させようとすると制限がかかり出力が難しくなっています。例えば、Qwen3に火炎瓶の作り方を聞いたところ、法的リスクや安全性を理由に明確に拒否されました。

 それでもローカルLLMを基盤モデルとして追加学習をするで、そうした制限を崩すことは人気があります。人気モデルの場合に登場してくるのが、「仕事中に安全ではない(Not Safe For Work)」の意味で、アダルト表現を可能にするNSFWモデルです。NSFWモデルに触れることで、Qwen3の追加学習の可能性と限界も同時に見えてきました。

 Aratakoさんが公開された5月9日に公開された「Qwen3 Japanese NSFW Models」は、Qwen3の30Bと8Bに、60億トークンの日本語データセットで追加学習をした、NSFWロールプレイに特化したモデルです。このモデルではNSFWのシチュエーションにも展開可能な「Qwen3-30B-A3B-ERP-v0.1」(ERPは「エロティックロールプレイ」の意味)として公開されています。サンプルにある魔法学校の入学式で自分とヒロインが出会うシーンを展開すると以下のようになります。人格AIとしてのロールプレイをしっかりしており、対話を続けられます。

 60億トークンというデータ量は、1冊10万字相当のライトノベルで換算すると、約6万冊にも及ぶ膨大なテキストです。そのテキストをどうやって用意したかと言うと、DeepSeekやClaudeのLLMを使って様々なシチュエーションや展開を生成し、学習データの素材にしたそうです。まずこれらのデータから「Qwen3-30B-A3B-NSFW-JP」というNSFWを出力可能なモデルを作成し、さらに、そのモデルをロールプレイに特化したERP-v0.1にファインチューニングしたという形です(8Bも同様)。

公開されているデータセットの一部。恋愛が起きるプロンプトのシチュエーションが設定され、会話がログデータとしてまとめられている

公開されているデータセットの一部。様々なバリエーションのストーリーが同じフォーマットでまとめられている。NSFW系のものと、非NSFW系のデータが作成されている

 ただ、期待するほどのアダルトなテキストが展開されるかと言うと、そこまでの水準ではありません。ERPでは1行から数行程度のシンプルな返答になります。それでも、登場するキャラクターとの発展性を進めるようにという学習からの圧力がかかるため、ストーリーは簡素ながらも発展していくように感じられます。

 その一方、Qwen3の能力を引き上げる要因でもある推論プロセスは消滅します。たとえば「シンギュラリティについて解説して」と質問しても、推論プロセスは消滅し、戻ってくる回答はかなりあっさりしたものになります。学習されたロールプレイに強く引っ張られてしまい、内部の思考プロセスが壊れてしまっている可能性があります。追加学習によって、Qwen3の幅の広さを利用できているとはいえ、一方では、Qwen3の強さも壊してしまっているかもしれないのです。適切な追加学習の難しさを感じさせるところです。

シンギュラリティについて解説させたが、非常にあっさりした回答しか戻ってこなくなった

先ほどと同様に、3つのログファイルを読ませてみたが、こちらからの呼びかけに、推論プロセスがなくなったことで、返答は具体性が消滅し意味をなさなくなってしまった

カテゴリートップへ

この連載の記事
ピックアップ