米国AI企業パープレキシティに対し、日本国内の大手報道機関が相次いで訴訟を提起しています。日経と朝日はAIが事実に基づかない情報を事実のように回答する「ハルシネーション(幻覚)」と呼ばれる問題にも言及しています。この記事ではパープレキシティとハルシネーションについてまとめました。
Perplexity(パープレキシティ)とは?
Perplexity AIは、OpenAIの元技術者によって設立されたアメリカのAIスタートアップです。
OpenAIと同じく大規模言語モデル(LLM)を使っていますが、独自の設計やUIを通じて、ユーザーがAIに質問して情報を得る体験を最適化している点が特徴です。ユーザーが質問すると、AIがインターネット上の情報をもとに回答を生成するサービスを提供しており、検索エンジンとチャットAIの中間のような体験が特徴です。公式サイト(Perplexity AI)では、無料で利用可能で、手軽に質問を入力して回答を得られることから人気を集めています。
Perplexity AIとChatGPTの違い
項目 | Perplexity AI | ChatGPT(OpenAI) |
---|---|---|
設立背景 | OpenAI出身者が設立 | OpenAI創業 |
主な用途 | 検索型AI(質問に答え、情報源を提示) | 会話型AI(雑談、文章作成、質問応答など幅広く) |
情報ソース | Web検索結果をリアルタイムで参照(最新情報も取得可能) | 基本的に学習済みデータがベース(最新情報はモデルやプラグイン依存) |
回答スタイル | 「事実確認+要約」重視、ソースリンク付きで出すことが多い | 自然な文章生成、創造的・柔軟な応答も可能 |
ハルシネーション傾向 | 低めに設計されているが、完全ではない | 情報を生成する性質上、ハルシネーションが出る場合あり |
ユーザー体験 | 検索エンジン感覚で使える | チャットや文章生成など、対話型体験に重点 |
AIハルシネーションとは
ハルシネーションが起こる仕組み
AIのハルシネーションは「事実のように見えるけど、正確ではない情報を生成する現象」です。なぜ起きるのか、整理してみましょう。
(1) 学習データ由来の原因
- AIは大量のテキストを学習して「文脈上自然な回答」を予測する。
- 学習データには誤情報、憶測、古い情報、偏った意見も含まれる。
- 結果として、AIは「統計的にもっともらしい文章」を生成するが、それが事実とは限らない。
(2) 予測型モデルの特性
- AIは「次に来る単語やフレーズを確率的に予測する」仕組み。
- 「正確かどうか」を判断する能力はない。
- 文法や文章構造は正しいが内容が誤っている文章が出る。
(3) 情報の欠落を補う傾向
- ユーザーの質問に答えるため、知識の欠落部分を推測で埋める。
- 結果として、存在しない事実や人物、数値を作り出す。
(4) プロンプトの影響
- 「~について詳しく説明して」と指示すると、AIは自動的に情報を補完する。
- 明確な出典確認を指示していないと、ハルシネーションが混入しやすい。
(5) モデル設計上の限界
- 現行LLMはリアルタイムで事実確認ができず、最新情報や正確性の保証はない。
- 正しい答えを生成する能力より、「文章として自然で説得力のある答え」を作る能力が優先されている。
ハルシネーションが訴訟リスクになる理由
- 著作権+信頼性問題:メディアの収入やブランド価値に直接影響
- 誤情報の生成:元記事をAIが要約・補完する過程で虚偽情報を生成
- 出典不明の情報提供:ユーザーが元記事を確認せずに情報を利用
まとめ
人間の心理としては「手間をかけずに答えを得たい」というのが大きく働きます。新聞や公式サイトを読むよりも、AIに質問すれば即座に文章で答えが返ってくるので、ついそちらに頼りがちになります。
さらに、AIは言葉が滑らかで説得力があるため、「正しい」と感じやすのです。新聞の記事やデータは読解や取捨選択が必要ですが、AIの回答はその手間を省いてくれるので、情報リテラシーのハードルが低くなる分、依存しやすくなります。