GensparkとPerplexityが切り開く“AI検索”の新次元 — かつてのキュレーションメディアから学ぶべき教訓

コラム

1. 検索の“常識”が変わりはじめた

インターネットが私たちの生活に浸透して久しいですが、“検索”という行為はその根幹を支えてきました。GoogleやYahoo!などの検索エンジンが普及し、何か知りたいことがあればキーワードを入力すれば関連情報が一覧で表示される――この流れが長らく当たり前だったわけです。しかし、近年はその“常識”が大きく揺らぎつつあります。ChatGPTの登場を皮切りに、GensparkやPerplexityなど、いわゆる生成系AI(Generative AI)を活用した検索・情報メディアが台頭してきたからです。

たとえば「〇〇について教えて」と入力すれば、AIがまるでプロの編集者のように複数の情報ソースを横断的にまとめ上げ、“要点”を自然な文章で返してくれる。いちいちリンク先をたどらなくても、一通りの概要を把握できる――そんな便利さが急激に支持を集め始めています。これから先、私たちの情報収集や検索のスタイルはどう変わっていくのでしょうか。そして、その裏側にはどんなリスクが潜んでいるのでしょうか。


2. GensparkとPerplexity──生成AI検索の仕組みと強み

2-1. 大規模言語モデル(LLM)の進化がもたらしたブレイクスルー

GensparkやPerplexityの根底にあるのは、ChatGPTなどでも用いられている大規模言語モデル(LLM)という技術です。これは、数十億から数千億といった膨大なパラメータを持つニューラルネットワークモデルに、インターネット上のテキストデータ(書籍や記事、SNS投稿など)を大量に学習させたもの。学習が進むほど言語の文脈や概念の結びつきを“統計的に”とらえることができ、問いかけに対して自然な文章で回答することが可能になります。

Gensparkのようなサービスは、単に既存のサイトや記事をリンク表示するだけではなく、“要約や整理”という人間的なプロセスまで自動的に行ってしまう点が特徴です。Perplexityも同様に、ユーザーの質問に応じて複数の情報源を参照しながら、会話形式でまとめを提示する設計を強みにしています。とりわけPerplexityは回答と同時に“情報源として参照したサイトのURL”も提示するため、引用元を追跡しやすい作りになっているのが印象的です。

2-2. “質問一発で結論”に近い体験

こうした生成AI検索の魅力は、ユーザーが抱える疑問や知りたい情報に対し、リンクの一覧を提示するのではなく“直接答え”を返してくれるところにあります。たとえば「夏に行く国内旅行のおすすめは?」と問いかければ、いくつかの候補地や観光スポット、ベストシーズンの解説までを短い文章で総合的に示してくれる。従来ならば、複数のサイトを開いて読み比べる必要がありましたが、その手間が大幅に削減されるのです。

その利便性は、ある意味で「検索エンジンを使う」という行為の根本を変えてしまいます。現在のGoogle検索にしても、一応“機械がアルゴリズムで並べたリンク”を提示してはいますが、それでも最終的に情報を整理して決定を下すのはユーザー自身。しかし、生成AI検索の場合は、AIが“要点の取捨選択”までやってしまうため、ユーザーは結果だけを見ることになりがちです。これが利便性の高さにもつながる一方、後述するようにリスクをはらむ面もあります。


3. キュレーションメディアの過去と“誤情報”の再燃リスク

3-1. WELQ騒動が示した問題の本質

こうした新しい検索スタイルが台頭してくるとき、どうしても思い出されるのが日本で過去に起きた「キュレーションメディア乱立」問題です。とりわけ2016年頃に大きく報道されたWELQ騒動は、いわゆる“まとめサイト”が大量に生成され、医療や健康に関する不確かな情報が拡散されてしまった事例として有名です。

WELQの場合、人間の編集者が他サイトの情報を“コピペ”や“リライト”に近い形で集め、あたかも新規オリジナルの記事のように大量量産していました。その結果、根拠のあいまいな健康情報や医療知識が氾濫し、読者を混乱させたことが問題視されました。検索エンジンもこれを受けて、低品質コンテンツとみなしてランキングを下げるアルゴリズム改変に踏み切り、WELQを含む多くのキュレーションメディアは事実上の衰退を余儀なくされました。

GensparkやPerplexityのような生成AI検索は、“要約記事”をAIが自動生成してしまうという点で、構造的にはキュレーションメディアと同じ課題を抱えています。かつては人間がリサーチして編集していたプロセスをAIが肩代わりしているだけで、情報源が誤っていたり、無断利用だったりした場合、簡単に誤情報や著作権侵害が拡散される恐れがあるわけです。

3-2. AIの高速大量生成が拍車をかける懸念

さらに、AIの強みである“爆速かつ大量にコンテンツを生成できる”という特性は、誤情報の拡散リスクを加速度的に高めます。キュレーションメディアの時代は、人間が記事をリライトする時間的リソースの制約がありましたが、生成AIならトリガーさえあれば無数の記事や要約を一瞬で作れてしまう。

  • 「AIはデマに気づくことができるのか?」
  • 「誤情報が混ざっていても、それを膨大なスケールで拡散しないか?」

こうした疑問は今後さらに大きくなるでしょう。とりわけ医療や法律などのセンシティブな情報分野で、事実に基づかない回答が堂々と検索上位に表示されてしまったら、利用者は深刻な影響を被る可能性があります。WELQ問題を教訓として挙げるまでもなく、“誤情報への対策”は生成AIメディアが確立しなければならない最重要テーマの一つです。


4. 検索エンジンへの脅威と共存策

4-1. “リンク一覧”を踏まなくなる未来

GensparkやPerplexityの台頭が、従来の検索エンジンに与える脅威としてまず考えられるのは、「ユーザーがリンクを踏まなくなる」可能性です。これまでのGoogle検索は、ユーザーがキーワードを入れて検索し、表示されたリンク群の中から興味を惹かれるページをクリックし、そこに掲載される広告等によって収益化するモデルでした。

しかし、生成AI検索で最終的な回答まで提供されてしまうなら、ユーザーはわざわざリンクをクリックしてWebサイトへ飛ぶ必要がないケースが増えるかもしれません。すると、サイト運営者はページビューが得られず広告収益が激減し、Googleなどの検索エンジンも広告クリックの機会を大幅に失うことになります。

  • 「検索エンジンで広告が表示される機会がそもそも減る」
  • 「Webサイト運営者がコンテンツを作るインセンティブが低下する」

これらの影響は、インターネット経済全体を揺るがす可能性をはらんでいます。GoogleやBingがAIチャット検索を急ぎ実装しているのは、ある意味で“自分たちの収益基盤を壊し得る技術を自ら取り込む”という姿勢を示すことで、生き残りを図っている側面があるとも言えるでしょう。

4-2. EEAT(E-E-A-T)と検索アルゴリズムの進化

検索エンジンがこうした新勢力とどう向き合うかに関して、すでに一部の方向性は示されています。Googleは、かつてのキュレーションメディア問題の反省を踏まえ、EEAT(E-E-A-T)という評価基準を強化してきました。

  • Experience(体験や経験があるか)
  • Expertise(専門性があるか)
  • Authoritativeness(権威性があるか)
  • Trustworthiness(信頼性があるか)

とくに医療や健康、法律、金融など、いわゆるYMYL(Your Money or Your Life)領域では、専門家による執筆や監修の有無が検索順位に大きく影響し、“誤情報を避ける”ための方策として機能しています。
では、GensparkやPerplexityのような生成AI検索が作り出す回答はどう評価されるのでしょうか。執筆者名が明示されないAI生成コンテンツは、これまでのところEEATとは相性が悪いです。「専門家のプロフィール」や「参照元の妥当性」が証明されない限り、検索アルゴリズムから高評価は受けにくいと想定されます。Perplexityが情報源をある程度リンクとして提示するのは、その意味でも「検索エンジンとの共存策」の一つかもしれません。


5. Perplexityの“引用元表示”と著作権問題

5-1. ブラックボックス化するAI学習データ

生成AI検索のデメリットとして、しばしば指摘されるのが“著作権”の問題です。AIが膨大なテキストデータを学習する際、学習元となる文章やサイトには当然著作権が存在する場合が多い。人間が引用するときは原則として引用元を明示しなければならないのに対し、AIが文章を再構成してしまうと、どこからどれだけ引用しているのかが非常に不透明になりがちです。

この点でPerplexityは、一部の回答において「どのサイトを参照したか」をリンクの形で示す仕組みを整えており、ユーザーが元情報をたどれるよう配慮しています。ただし、これが“完全な引用元表示”かといえば、そうではありません。学習データの中からどの程度まで引用しているのか、微妙に表現を変えているのか、直接コピペしているのか――そうした詳細までは必ずしも把握できないからです。

5-2. “利用”と“参照”の境界

AIが生成したテキストがどこかのサイトの文章をほぼ丸ごと再現しているなら、著作権侵害に該当する可能性があります。一方、まとめサイトのように部分的に引用し、自分なりの解釈を付け加えたものだと主張する場合、引用のルール(「明示的に引用元を記載する」「オリジナル文と引用文の長さのバランスを保つ」など)を守っていれば合法となるケースもあるでしょう。ですが、生成AIにおける“引用”は現状、法律上もグレーゾーンが多い領域です。

もしGensparkやPerplexityが巨大な学習モデルを運用し続けるなら、どこかの時点で著作権者からの訴訟リスクや、法整備との兼ね合いが浮上する可能性は高いと言えます。EUではAIに関する包括的な規制(EU AI Act)の議論が進んでおり、日本でも今後、学習データの扱いと著作権に関するガイドラインが詳細化される可能性があります。

参考:外部リンク「欧州(EU)AI規制法」の解説―概要と適用タイムライン・企業に求められる対応 | PwC Japanグループ


6. 人間の監修は不可欠か?──誤情報対策の最前線

6-1. センシティブな領域ほど必要とされる“専門家チェック”

医療や健康、法律、金融といった分野において、誤った情報が大きな被害をもたらすことは、WELQ問題で痛感された通りです。生成AI検索がこれらの領域の情報を要約するとしても、やはり人間の専門家による最終的な監修が必要ではないかという声は根強くあります。

たとえば、Gensparkが医療に関する回答を大量に生成できるようになったとしても、それを無検証のままユーザーに提示するのは極めてリスクが高い。医師や薬剤師といった専門家が監修し、“この情報は正しい”と太鼓判を押して初めて公開するのが望ましいと考えられます。Perplexityでも、医療や法律関連の質問が来た場合には、ユーザーが最終的に専門家へ相談するよう誘導したり、ディスクレーマーを表示したりする機能があってもいいかもしれません。

6-2. キュレーションメディアの教訓がAI時代にも活きる

過去のキュレーションメディアでは、安価な外注ライターが多数の記事を粗製濫造し、質の担保がないまま量産する――という構造が問題になりました。生成AIによる記事作成は、ある意味で「外注ライターがAIに代わった」だけとも言えます。もし監修体制を整えず、ただ“AI任せ”で多量のコンテンツを流し続ければ、いずれ大きな炎上や社会問題に発展する可能性は高いでしょう。

一方で、適切なプロンプト設計や監修体制、専門家チェックを組み合わせれば、従来の人力作業よりもはるかに効率的に質の高い記事を生み出すことも可能です。良質なAI生成メディアを運営しようとする企業は、キュレーションサイトの失敗事例を反面教師にしながら、「AIの長所を活かしつつ、人間が最終責任を負う」という運用形態を作ることで、安定した信頼性を獲得できるかもしれません。


7. 広告収益モデルへの影響と“価値あるコンテンツ”の存続

7-1. 広告に支えられたインターネットの構造

ここで改めて注目したいのは、従来のインターネット経済が広告収益を柱として成り立ってきたという事実です。Google検索から始まり、多くのWebサイトは閲覧者が増えれば増えるほど広告効果も上がり、ビジネスとして成立する仕組みを築いてきました。ユーザーが知りたい情報を得るまでの過程で、サイト運営者にも利益が還元される――これが“リンクを踏む”という行為を軸に回っていたわけです。

しかし、GensparkやPerplexityをはじめとする生成AI検索が、ユーザーの“情報収集”を直接完結させてしまうなら、従来のWebサイトへのトラフィックが激減する恐れがあります。結果として、サイトが広告料を稼げなくなるばかりか、専門家やライター、メディアがコンテンツを提供する経済的インセンティブを失い、良質な情報が作られなくなってしまう懸念もあるわけです。

7-2. AI時代の新しい収益モデルの模索

こうした状況下で、検索エンジンや生成AIのサービスプロバイダーは、新しい収益モデルを模索し始めています。ChatGPTなどでは“サブスクリプションモデル”(有料プランの提供)が採用されている例もありますし、今後はAIの回答部分にネイティブ広告を挿入する形や、回答の一部を有料コンテンツにする形など、さまざまな手法が試される可能性があります。

また、情報を提供するサイト側が生成AIメディアと連携し、自社のコンテンツを“公式の参照元”として組み込み、有償で供給するといったビジネスモデルも考えられます。たとえば、医療系ポータルサイトがPerplexityやGensparkにアクセス権を提供する代わりに、リンククリックや閲覧に応じて対価を得る――という仕組みが整備されれば、専門家の執筆が収益化される可能性が出てくるでしょう。


8. 利用者リテラシーの重要性──AI時代の“情報読み解き力”

8-1. AIだからといって“絶対正しい”わけではない

生成AIの長所は明らかですが、利用者の側にも大きな課題がのしかかります。「AIが答えたこと=正解」ではないという事実を、私たちは常に念頭に置いておく必要があります。先ほど述べたように、大規模言語モデルは学習データの統計的パターンをもとに文章を生成しているだけであって、論理的・科学的な正しさを自動的に保証するわけではありません。

特に医療や法律、投資など、深刻な判断ミスが大きなトラブルにつながる分野では、「最終的には専門家と直接相談する」「複数の情報源をしっかり比較する」などの慎重なアプローチが必須です。Perplexityが参照リンクを提示しているとしても、それを踏んで自分でチェックするプロセスを怠れば、AIの回答を鵜呑みにするリスクは依然として大きいのです。

8-2. 多角的な情報収集と“疑う力”

AI時代においては、“情報に対して疑問を抱く力”が今まで以上に求められます。かつては検索エンジンで上位表示されたサイトを複数比較するうちに、自然と異なる視点に触れていたかもしれません。しかし、生成AI検索では最初の回答が“完成形”のように見えるため、多角的な情報を得る機会を失いやすい。

ユーザーが必要な情報をさらに深掘りしようとするときは、AIが示した要約だけでなく、別のキーワードで検索する、専門家の公式見解を探す、検索結果のリンク先を実際に読むなどの工夫が不可欠になるでしょう。AIが便利になるほど、人間が“自ら情報を取りに行く努力”を怠ると、誤情報やバイアスに陥る危険が高まるのです。


9. 生成AI検索の先にあるもの──より高度な会話型アシスタントへの進化

9-1. Genspark・Perplexity以外のプレイヤー動向

GensparkやPerplexityが注目を集めていますが、生成AI検索に参入しているのはこれらだけではありません。OpenAIのChatGPTはもちろん、MicrosoftのBing ChatやGoogleのBardなど、大手IT企業も会話型検索や生成AIの分野で熾烈な開発競争を繰り広げています。

  • BingはGPT-4ベースのチャット機能を検索エンジンに組み込み、ユーザーとのやりとりを強化
  • Googleは自社の言語モデルPaLMなどを活用し、将来的な検索スタイルの転換を模索

今後は、これらのサービス同士が連携したり、専門性を特化したバーティカルな生成AI検索サービスが多数誕生する可能性もあります。たとえば、学術論文専門の生成AI検索や、業界特化の企業データベース検索など、ニッチ分野ごとの専門アシスタントが台頭するかもしれません。

9-2. ユーザー体験のさらなる革新

生成AIが進化を続けると、検索行為はさらに自然な“対話”に近づいていくでしょう。いまは文章でやりとりしていますが、音声アシスタントとの連携が進めば、スマートスピーカーやスマートフォンに向かって話しかけるだけで「Gensparkが答えてくれる」「Perplexityが会話形式で深掘りしてくれる」という世界が訪れます。

その一方で、前述した誤情報対策や参照元の透明性確保などの課題がクリアされなければ、便利さと危うさが背中合わせのままになるでしょう。ユーザーが会話型インターフェースに親しむほど、さらに「答えが正しいはず」という錯覚にとらわれるかもしれません。技術的なイノベーションと同時に、社会的・倫理的なガイドラインや、検索エンジン同士の協調方針の確立が求められる局面に来ています。


10. 規制・法律面の動向と企業の責任

10-1. EU AI Actをはじめとする国際的な法整備

EUでは、AIの利用範囲やリスクに応じて規制レベルを定めるEU AI Actの策定が進んでいます。高リスク分野(医療、交通、インフラなど)でのAI活用には、厳しい審査や説明責任を求める方向が打ち出されており、生成AIがそこに含まれる可能性も十分に考えられます。もし最終的に強い規制が敷かれると、GensparkやPerplexityといったサービスにも適用範囲が広がり、回答内容の正確性や情報源の開示義務などが求められるかもしれません。

日本でも、AI分野の法律・ガイドライン整備はまだ発展途上ですが、個人情報保護や著作権に関連する法制度との兼ね合いで、いずれ独自の取り組みが進むでしょう。キュレーションメディア問題の再来を防ぐためにも、AIによる誤情報拡散や著作権侵害をどこまで事前に抑止できるかがポイントになりそうです。

10-2. 企業・プラットフォームが負う責任範囲

GensparkやPerplexityの運営元は、AIが自動生成するコンテンツについて、どこまで責任を負うべきなのでしょうか。これについては議論が分かれるところです。

  • 一方では、「あくまでツールであり、利用者が誤情報を信じた結果の責任までは負えない」という立場
  • 他方では、「プラットフォームが商用目的でAIサービスを提供する以上、その出力内容に対して一定の責任や監視義務がある」という主張

特に医療や金融といった分野の情報を扱う際、プラットフォーム側がディスクレーマーを明示したり、誤情報を早期発見・修正する仕組みを導入したりする必要が高まるでしょう。WELQ問題では運営会社がサイト全体を閉鎖に追い込まれた例もあり、“無責任な情報発信”がどれほど企業リスクを高めるかは過去の事例が物語っています。


11. AI検索と人間の未来──淘汰される情報と残る価値

11-1. “本質的な価値”を生み出すメディアの重要性

もし多くの人々が「生成AI検索を使えばなんでも済む」と考え始め、個々のWebサイトを巡回しなくなるとしたら、かつて主流だったテキスト中心のメディアはどうなってしまうでしょうか。SEO(検索エンジン最適化)に苦心していたメディアが、今度は“AI最適化”を図る必要に迫られるかもしれません。

一方で、人間にしか作れない本質的な価値を提供できるメディアは、一定数生き残るでしょう。たとえば個人の体験談や独自の取材、アート作品のような創造性に富むコンテンツは、そもそも単純な要約では伝わりにくい。生成AI検索の時代だからこそ、“人間ならでは”の観点やストーリー性が際立つケースもあるはずです。

11-2. 情報過多から“情報選別”へ

インターネットはもともと膨大な情報を誰もが発信できる場でしたが、今後はAIが大量に自動生成するコンテンツが加わり、“情報爆発”の度合いがさらに増すと予想されます。ユーザーは膨大な選択肢から価値あるものを選び取るよりどころとして、GensparkやPerplexityのような要約AIを使うわけですが、そのAIが誤情報を含む場合はどうなるのか――という問題は常につきまといます。

結局、情報の“選別”や“検証”という工程は、AIがどれだけ発展しても人間が補完するしかない部分が残るでしょう。AIが提示する答えを鵜呑みにせず、複数のソースを見比べたり、専門家に相談したり、場合によっては書籍や学術論文に当たってみる――この基本姿勢が大切になるのは、昔も今も変わりません。


12. おわりに:GensparkやPerplexityがつくる未来をどう活かすか

GensparkやPerplexityをはじめとする生成AI検索・情報メディアは、確実に検索の常識を変えつつある存在です。過去にキュレーションメディア問題を経験した私たちにとって、その“便利さ”と“危うさ”は非常に馴染み深い構図でもあります。WELQの例が示すように、情報の信頼性や出典の透明性が欠落すれば、どんなに革新的なプラットフォームでも社会的批判を免れません。

一方で、AIによる文章要約や回答生成は、正しく使えば人間の知的生産性を飛躍的に高める可能性も秘めています。企業が専門家監修のもとAIを活用すれば、短時間で質の高いコンテンツを生み出せるでしょうし、Perplexityのように出典表示を積極的に行う方向性が広がれば、“AIのブラックボックス化”を抑止する効果も期待できます。

最終的には、ユーザーがリテラシーを持ち、企業やプラットフォームが責任ある運営体制を築き、社会全体でAI技術を適切にコントロールするという三位一体の取り組みが求められるのではないでしょうか。検索エンジンそのものが生成AIと融合し、リンク一覧ではなく対話型インターフェースが主流になる未来は、すぐそこまで来ています。そのとき、私たちは“情報”をどう扱い、どう受け止めるのか――技術の進歩に合わせて、自らの姿勢もアップデートしていく必要があるでしょう。

タイトルとURLをコピーしました