「Perplexity」の意味や使い方 わかりやすく解説 Weblio辞書 (original) (raw)


perplexity
Perplexity
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/12/21 04:57 UTC 版)
Perplexity
| Perplexity | |
| テンプレートを表示 | |
| 種類 | 非公開企業 |
| 業種 | 人工知能 |
| 事業分野 | 検索エンジン |
| 設立 | 2022年8月9日 (3年前)[1] |
| 創業者 | Aravind SrinivasAndy KonwinskDenis YaratsJohnny Ho |
| 本社 | |
| 主要人物 | Aravind Srinivas (CEO) |
| 従業員数 | 55[2] (2024) |
| ウェブサイト | www.perplexity.ai |
| テンプレートを表示 |
Perplexity(パープレキシティ、パープレ)は、AIスタートアップ企業Perplexity AI, Inc.により2022年に公開されたAIチャットボット型の検索エンジンである[3]。ウェブからの情報源を用いて回答を生成し、回答文中に根拠となる情報源を引用する機能を持つ。
無料版のPerplexityに加えて、より高度な機能が利用可能な有料版のPerplexity Pro,Perplexity Maxが提供されている[4]。
2024年6月17日にはソフトバンク株式会社との提携が発表され、日本語では「パープレ」という愛称が提案された[5][6][7]。
歴史
CEOのAravind Srinivasは、OpenAI出身のインド系アメリカ人である。
Perplexityは、バックエンドシステム、AI、機械学習などの経歴を持つエンジニア集団Aravind Srinivas、Denis Yarats、Johnny Ho、Andy Konwinskiらによって2022年に開発された[8]。
Srinivas(CEO)はOpenAIのAI研究者、Yarats(CTO)はMetaのAI研究者、Ho(最高戦略責任者)はQuoraでエンジニアとウォール街でのトレーダー、Konwinskiはデータブリックスの創設チームの一人であった[9]。
Perplexityへの出資者の中には、Amazon CEOのジェフ・ベゾス、エヌビディア、データブリックス、Bessemer Venture Partners(英語版)、スーザン・ウォシッキー、ジェフ・ディーン、ヤン・ルカン、Andrej Karpathy(英語版)、ナット・フリードマン、およびGarry Tan(英語版)などがいる[10]
2024年、1億6,500万ドルの資金調達を行い、企業価値は10億ドルを超えた[11]
2024年第1四半期、利用者数が1,500万人を達した[12]。
2024年半ば、評価額は30億ドルに達した[13]。
機能
無料版
無料版検索では、Perplexity AI, Inc.が検索に最適化して作成した検索特化型言語モデルが用いられており、一般的な検索を行い情報元を引用しながら回答を生成することができる[14]。ただし、2025年3月時点では回数制限が存在する。アカウントを作成すれば、通常の検索は無制限にできるが、Pro検索、Deep Researchは毎日5回までしか利用できない。この制限を引き上げるには有料版(Pro版)を20ドル(約3000円)で契約する必要がある。
フォーカス機能
「フォーカス」機能により、ユーザーは検索対象を学術論文等に限定した「学術」、計算データや数学的な計算に焦点を当てた「WolframAlpha」、YouTube内の動画を対象とした「YouTube」、Redditの議論に限定した「Reddit」、OpenAI o1-miniを用いた「推論」などのモードで検索対象を絞り込むことができる[15]。
Pro版
Pro版では、複雑な質問・長い回答に対応したPro Search機能を無制限に使うことができる[16]。回答の生成に用いる大規模言語モデルとしてより高度な他社のモデルを使うことができ、例えばChatGPT、Gemini、Claudeなどの最新モデルを利用することができる。また、Perplexity AI, Inc.が独自開発しSonarと呼ばれるLlama 3ベースの言語モデルを利用することもできる[17]。また、PDF、CSV、画像など様々なファイルアップロード機能が利用可能になり、APIクレジットも提供される[18]。
Deep Research機能
(誰かお願いします)
Labs機能
(誰かお願いします)
画像生成機能
画像生成機能はPro版限定の機能であり、現在はNano Banana、Seedream 4.0、GPT Image 1、FLUX.1の4つのモデルを利用して、画像を生成することができる[19]。なお、プロンプトを入力して画像を生成する別のサービスとは異なり、検索結果を視覚的に説明するために画像生成機能が実装されているため、検索後にのみ画像生成オプションが表示される[19]。
Pages機能
2024年5月30日、Perplexityは、ユーザープロンプトに基づいてカスタマイズ可能なWeb ページを生成するPagesと呼ばれる新機能の提供を開始した。 PagesはPerplexityのAI検索モデルを利用して情報を収集し、公開して他の人と共有できる研究プレゼンテーションを作成する[20][21]。
Max版
(誰かお願いします)
広告収益の再分配
2024年6月、ForbesはPerplexityがForbesのコンテンツを使用したとしてPerplexityを公に批判した。Forbesによると、Perplexityは、Forbesへの言及や目立つ引用をせずに、独自の Forbes記事の一部をそのまま流用した。これに対してCEOのSrinivas氏は、機能に問題点はあるとして受け入れたが、Perplexityは情報を盗用するのではなく集約するだけであると主張した[22][23]。
2024年6月下旬、雑誌WiredとWeb開発者のRobb Knightによる個別の調査で、Perplexityはメディアの記事の盗用はしていないと主張しているにもかかわらず、ウェブクローラーによるコンテンツのスクレイピングをウェブサイト側が阻止できる「robots.txt」を尊重せず、スクレイピングが禁止されたウェブサイトにもアクセスしていることが判明した[24]。 PerplexityはウェブクローラーのIPアドレス範囲とユーザーエージェント文字列も公表しているが、WiredとRobb Knightは、「robots.txt」を無視する場合はPerplecityが未公開のIPアドレスと偽装されたユーザーエージェント文字列を使用していると主張した[25][26]。これに対し、Srinivas氏は電話インタビューで、「Perplexityはロボット排除プロトコルを無視しているわけではない…我々は自社のウェブクローラーだけではなく、サードパーティのウェブクローラーにも依存している」と述べた。Srinivas氏は、Wiredによって特定されたウェブクローラーはサードパーティプロバイダーによって所有されていたと説明した[27]。Wiredはまた、場合によっては、Perplexity が「実際のニュース記事ではなく、抜粋やメタデータなど検索エンジンに残されたURLや痕跡に基づいてニュース記事の内容を再構成し、ニュース記事への直接アクセスに基づくと称する要約を提供している可能性がある」と述べた[25]。Perplexityがサードパーティを使用したWiredコンテンツのスクレイピングをやめるのかと尋ねられたとき、Srinivas氏は「それは複雑だ(it's complicated)」と答えた[27]。
PerplexityのクローラーをホストするAmazon Web Servicesには、利用者が「robots.txt」を無視することを禁止する利用規約がある。 Amazonは、同社によるAmazon Elastic Compute Cloudの使用状況に関する定期的な調査を開始した[28]。
2024年7月、これらの指摘を受けてPerplexityは、利用者の質問に対して各メディアの記事を情報源として用いた時、Perplexityが広告収益を得た場合、そのメディアやコンテンツの作成者に広告収益を再分配するというプログラムを発表した[29][30]。TIME、Der Spiegel、Fortune、Entrepreneur(英語版)、The Texas Tribune(英語版)、WordPressなどがこのプログラムの契約を結んでいる[30]。
参考文献
- ^ “Perplexity AI”. Crunchbase. 2024年8月24日閲覧。
- ^ “Perplexity AI raises 73.6MinfundingroundledbyNvidia,Bezos,nowvaluedat73.6M in funding round led by Nvidia, Bezos, now valued at 73.6MinfundingroundledbyNvidia,Bezos,nowvaluedat522M”. Business Today (India). 2024年8月26日閲覧。
- ^ “パープレキシティとは何ですか?”. Perplexity AI, Inc.. 2024年6月17日閲覧。
- ^ “パープレキシティ・プロは何ですか?”. Perplexity AI, Inc.. 2024年6月17日閲覧。
- ^ “Perplexityとの戦略的提携に関する発表会の模様をオンライン配信 | 企業・IR”. ソフトバンク. 2024年6月17日閲覧。
- ^ “記者説明会 | 企業・IR”. ソフトバンク. 2024年6月17日閲覧。
- ^ “Perplexityとの 戦略的提携に関する発表会”. 2024年6月17日閲覧。
- ^ “AI-powered search engine Perplexity AI lands $26M, launches iOS app”. (2023年4月4日). オリジナルの2024年3月5日時点におけるアーカイブ。. https://web.archive.org/web/20240305054604/https://techcrunch.com/2023/04/04/ai-powered-search-engine-perplexity-ai-lands-26m-launches-ios-app/ 2024年5月5日閲覧。
- ^ Wiggers, Kyle (2023年4月4日). “AI-powered search engine Perplexity AI lands $26M, launches iOS app” (英語). TechCrunch. 2024年6月17日閲覧。
- ^ Wiggers, Kyle (2024年1月4日). “AI-powered search engine Perplexity AI, now valued at 520M,raises520M, raises 520M,raises73.6M” (英語). TechCrunch. 2024年6月17日閲覧。
- ^ “Bloomberg - Are you a robot?”. www.bloomberg.com. 2024年6月17日閲覧。
- ^ Nast, Condé (2024年3月21日). “Perplexity's Founder Was Inspired by Sundar Pichai. Now They’re Competing to Reinvent Search”. WIRED. 2024年7月16日時点のオリジナルよりアーカイブ。2024年7月27日閲覧。 “The startup says its user base has grown to 15 million active users, growing 50 percent from the 10 million reported just two months ago.”
- ^ “SoftBank to invest in search startup Perplexity AI at $3 bln valuatio…”. archive.md (2024年8月2日). 2024年8月26日閲覧。
- ^ “パープレクシティはどのモデルを使用しているのか、そしてパープレクシティ・モデルは何ですか?”. Perplexity. 2024年8月26日閲覧。
- ^ “"What is Search Focus?"”. Perplexity.ai. 2024年9月1日閲覧。
- ^ “Perplexity Pro”. Perplexity. 2024年8月26日閲覧。
- ^ “Introducing New and Improved Sonar Models” (英語). pplx-api. 2024年8月26日閲覧。
- ^ “Perplexity Proは何ができる?機能や特徴をわかりやすく解説!お得に使えるプロモーションコードも紹介! - 株式会社MedicalTalk”. HelloCraft AI by MedicalTalk. 2024年7月29日閲覧。
- ^ a b “画像とメディア イメージとビデオでより豊かな回答を得る”. Perplexity. 2024年8月26日閲覧。
- ^ “パープレキシティ・ページを紹介します”. Perplexity. 2024年8月26日閲覧。
- ^ David, Emilia (2024年5月30日). “Perplexity will research and write reports” (英語). The Verge. 2024年8月26日閲覧。
- ^ “AI startup Perplexity wants to upend search business. News outlet Forbes says it's ripping them off” (英語). AP News (2024年6月14日). 2024年8月26日閲覧。
- ^ Lane, Randall. “Why Perplexity’s Cynical Theft Represents Everything That Could Go Wrong With AI” (英語). Forbes. 2024年8月26日閲覧。
- ^ “Perplexity AI Is Lying about Their User Agent” (英語). rknight.me. 2024年8月26日閲覧。
- ^ a b Mehrotra, Dhruv. “Perplexity Is a Bullshit Machine” (英語). Wired. ISSN 1059-1028. https://www.wired.com/story/perplexity-is-a-bullshit-machine/ 2024年8月26日閲覧。
- ^ “Perplexity AI Is Lying about Their User Agent” (英語). rknight.me. 2024年8月26日閲覧。
- ^ a b “Perplexity CEO Aravind Srinivas responds to plagiarism and infringement accusations”. Fast Company. 2024年8月26日閲覧。
- ^ Mehrotra, Dhruv; Couts, Andrew (2024年6月27日). “Amazon Is Investigating Perplexity Over Claims of Scraping Abuse”. Wired. https://www.wired.com/story/aws-perplexity-bot-scraping-investigation/ 2024年7月3日閲覧。
- ^ “Introducing the Perplexity Publishers’ Program”. Perplexity. 2024年9月1日閲覧。
- ^ a b Robison, Kylie (2024年7月30日). “Perplexity is cutting checks to publishers following plagiarism accusations” (英語). The Verge. 2024年8月4日閲覧。
関連項目
外部リンク
| 表 話 編 歴 チャットボット |
|---|
| ChatGPT Claude Copilot Duck.ai Ernie Gemini GLM Grok Llama Mistral Perplexity Qwen |
パープレキシティ
(Perplexity から転送)
出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2025/12/27 04:55 UTC 版)
情報理論において、パープレキシティ(英: perplexity)は、確率分布や確率モデルがサンプルをどの程度正確に予測するかを示す指標である。確率モデルを比較するために使用することができる。パープレキシティが低いということは、確率分布がサンプルを予測するのに優れていることを示している。
確率分布のパープレキシティ
離散確率分布 p {\displaystyle p} ![]()
この節の一部(言語モデルの革命的な進歩にもかかわらず、2007年以来更新されていない。に関わる部分)は更新が必要とされています。 この節には古い情報が掲載されています。編集の際に新しい情報を記事に反映させてください。反映後、このタグは除去してください。 (2023年5月)
自然言語処理(NLP)において、コーパスは文やテキストの集合であり、言語モデルは文やテキスト全体に対する確率分布である。したがって、コーパスに対する言語モデルのパープレキシティを定義することができる。しかし、NLPでは、より一般的に使われる尺度は単語ごとのパープレキシティ(perplexity per word)であり、次のように定義される。 ( ∏ i = 1 n q ( s i ) ) − 1 / N {\displaystyle \left(\prod _{i=1}^{n}q(s_{i})\right)^{-1/N}} ここで、 s 1 , . . . , s n {\displaystyle s_{1},...,s_{n}}
はコーパス内の n {\displaystyle n}
個の文、 N {\displaystyle N}
はコーパス内の単語数である。
コーパスの平均的な文 xi が言語モデルに応じて 2 − 190 {\displaystyle 2^{-190}} の確率を持つとする。そうすると、1文あたり 2190 という膨大なモデルパープレキシティを生じる。ただし、文の長さで正規化する方法が一般的である。たとえば、テストサンプルの文が 1,000 語で、1単語あたり 7.95 ビットで符号化できたとした場合、1単語あたり 27.95 = 247 のモデルパープレキシティを得ることができる。言い換えれば、モデルはテストデータ上で、各単語の 247 の可能性の中から一様に独立して選択しなければならないのと同じくらい混乱している。
ブラウン・コーパス
1992年に発表されたブラウン・コーパス(さまざまなトピックやジャンルの100万語のアメリカ英語)の最小パープレキシティは、実に1単語あたり約 247 であり、トライグラムモデルを使用した場合の交差エントロピーは、log2247 = 7.95 ビット/単語、または 1.75 ビット/文字に相当する[1]。より専門的なコーパスの場合は、予測可能性が高くなるために、より低いパープレキシティを達成することがよくある。
ところが、ブラウン・コーパスの次の単語が「the」であると単純に推測した場合の精度は 7% になり、予測可能性の尺度としてパープレキシティを単純に使用した 1/247 = 0.4% ではない。この推定値は、ブラウン・コーパスのユニグラム(英語版)統計に基づくもので、パープレキシティ 247 を生成したトライグラム統計に基づくものではない。トライグラム統計を使用すると正しい推測の可能性はさらに向上する。
脚注
- ^ Brown, Peter F. (March 1992). “An Estimate of an Upper Bound for the Entropy of English”. Computational Linguistics 18 (1). https://www.cs.cmu.edu/~roni/11761/PreviousYearsHandouts/gauntlet.pdf 2007年2月7日閲覧。.
関連項目
- 統計モデル検証(英語版) - 選択した統計モデルが適切か否かを評価する作業
- Perplexityのページへのリンク
