ASCII倶楽部

このページの本文へ

週替わりギークス 第336回

ChatGPT、Gemini、Claude──特徴が異なるAI、どう使い分ける?

2025年12月13日 07時00分更新

文● きゅんくん

  • この記事をはてなブックマークに追加
  • 本文印刷

 近年なくてはならない存在になったLLM(大規模言語モデル)。

 GPTシリーズを皮切りに、様々なLLMが普及してきた。

 どんな風にどんなLLMと付き合っていったらいいのか悩むことはないだろうか。

 そこで、今回はLLMについてあれこれ考えてみたいと思う。

 あたりまえになったLLMってそもそもなんだっけというところから、筆者がどのようにAIを使い分けているかという日常の話まで、つらつらと書いてみたい。

 読者のみなさんがAIとの付き合い方を思い返すきっかけになれば幸いである。

まずはLLMの仕組みを簡単に解説

 LLM(大規模言語モデル)とは「large language model」の略だ。

 膨大な文章データを学習して、人間のような自然な文章を生成できるAI技術である。

 LLMの仕組みを簡単に説明しよう。

 LLMでは文章を文字のままでは扱えないため、最初に文章を「トークン」という小さな塊に分割する。

 塊は単語だったり、単語の一部だったり、句読点だったりする。

 たとえば、「今日は暑いですね」は「今日」「は」「暑」「い」「です」「ね」といった具合に分け、それぞれを多次元のベクトルへと変換する。

 このベクトル化の段階で、モデルは「意味が近い単語ほど似た方向のベクトルになる」ようにあらかじめ学習されている。

 「猫」と「犬」は近く、「猫」と「戦争」は遠い、というような地図のようなものが内部に形成されているわけだ。 ここから文章の理解が始まる。

 現在LLMに使われているモデル構造が登場する前のモデルは、文章を左から右へ順番に読む方式を採用していた。

 「RNN(リカレントニューラルネットワーク)」や「LSTM(Long short-term memory、長・短期記憶)」と呼ばれる方式がそれだ。

 文を一語ずつ処理するため、文の前半と後半が離れれば離れるほど関係を扱いにくかった。

 長い文脈を正しく保持できなかったのだ。 この問題を一気に解決したのが、現在のLLMに使われている「トランスフォーマー(Transformer)」というモデル構造だ。

Transformerとattentionこそ全て

 トランスフォーマーは、入力された文章全体を同時に見渡し、どの語がどの語とどれほど関係しているかを一瞬で計算できる。

 この全体を俯瞰する計算を支えているのが、「アテンション(attention)」という仕組みだ。

 アテンションでは、あるトークンが他のすべてのトークンに対して「どれくらい注目すべきか」を数値化する。

 たとえば、「私は銀行でお金をおろした」という文の「銀行」は、「お金」「おろした」と強く結びつき、「は」「私」とは弱く結びつく。この結びつきの強さを数学的な重みとして計算し、それを使って各トークンのベクトルを文脈に合わせて更新していく。

 この処理がアテンション層であり、トランスフォーマーではこの層を何段にも積み重ねている。

 層を進むごとに、各トークンは文のほかの部分から受け取る情報によって表現が少しずつ磨かれていく。モデルはこの過程で、次に来そうな語の方向性を絶えず見積もりながら、文の意味や流れ、微細なニュアンスを組み立てていく。言い換えれば、LLMは文章を読む段階からすでに“予測”をしており、その予測を手がかりとして文全体を理解しているのである。

 ただし、LLMの特徴はトランスフォーマーだけにあるわけではない。LLMは非常に大きなパラメーター数を持ち、膨大な文章を使った事前学習によって言葉の使われ方や一般的な知識を取り込んでいる。また、学習の後には微調整や人間のフィードバックが加えられ、より自然で安全な応答を返せるように仕上げられている。これらが組み合わさることで、LLMは翻訳や要約、創作など、多様なタスクをひとつのモデルでこなせるようになっている。

 実際に我々が使うのは、GPTシリーズやGeminiシリーズ、Claudeシリーズという具体的プロダクトになってくる。

 それらの違いや特徴についてまとめてみよう。

GPT、Gemini、Claudeの違いは?

 GPTシリーズは、言語の理解や生成、推論、コードなど、幅広い分野をまんべんなくこなせる万能型のモデルだ。

 創作や文体調整の精度が高く、長い文章でも一貫した流れを保ちやすいことから、実用的なプロダクトとしての完成度が高い。

 小説や脚本、キャラクターの口調を整えるといった表現系の作業に強みを発揮し、総合力という点では非常にバランスの良いシリーズだといえる。

 これに対してGeminiシリーズは、画像、動画、音声、テキストといった複数の情報を最初から統合的に扱うよう設計されており、その点に強い個性がある。

 特に画像理解や情報分析が自然で、検索エンジンの延長にあるような“事実に基づく回答”や、情報の要点を整理して提示する作業が得意である。

 数学的な問題や図形を扱う処理も比較的安定しており、Googleのサービス群との親和性が高い点も特徴だ。

 Claudeシリーズは、Anthropicが掲げる「Constitutional AI(憲法AI)」という思想のもと、倫理性や安全性、丁寧な対話を重視して設計されている。

 特筆すべきは長文の読解力で、膨大な文章を崩さずにまとめたり、書き手の意図やトーンを的確に読み取ったりする能力に優れている。

 応答は誠実で共感的な傾向が強く、創作の際にも繊細で文学的な表現が生まれやすい。

 3つを比較すると、GPTは創造力と実用性のバランスに優れた万能型、Geminiはマルチモーダル理解と事実ベースの判断に強い分析型、Claudeは読解力と対話性、そして表現の繊細さが際立つ思索型といった違いがある。

筆者の使い分けはこんな感じ

カテゴリートップへ

この連載の記事

ASCII倶楽部の新着記事

会員専用動画の紹介も!