views, comments.

套壳之王:Perplexity

Omnivore

Read on Omnivore

Read Original

date_saved: 2024-03-24 10:42:11

date_published: 2024-02-13 19:50:00


Full Content:

原创 黄益贺 newtype 超级个体 2024-02-14 08:50 北京

视频号:黄益贺

YouTube / Medium: huangyihe

以下为视频内容的文字版

我最近看到一句非常霸气的话:

拥有十万用户的套壳产品,比拥有自有模型却没有用户更有意义。

如果你身边有投大模型或者做大模型的小伙伴,记得把这句话转给他。

这么拉仇恨的人是Perplexity的CEO。他们刚完成了B轮融资,估值5.2亿美元。跟投的公司包括英伟达,以及贝佐斯这样的大佬。

图片

Perplexity的产品是一款现象级的AI原生应用,有可能替代传统搜索引擎的问答引擎。

什么是问答引擎?

截至目前的搜索引擎返回的都是网页。但是,网页是我们想要的结果吗?我们要的是网页里包含的内容。大模型的价值就体现在这里了:

它会帮我们把搜到的所有网页都过一遍,把相关的内容都抓出来,然后组织逻辑,最终把结果一步到位地呈现出来。

这是传统搜索引擎技术做不到的。这也是为什么,搜索是一个确定的赛道,必然会被大模型技术彻底改造。

过去一年,我体验了好多AI应用。但是,是能让我持续使用、不得不用的,就两个:

  • GitHub Copilot
  • Perplexity AI

我强烈建议大家试一试Perplexity。它是对每一个人都有帮助的AI应用。用过之后,你大概率就不再需要Google了,更别提什么百度。

我用网页版做个演示。这款产品还有手机和iPad版本,非常方便。

“Copilot”打开之后,它会提供更准确、更深入的答案,代价是稍微慢一点点。免费版好像是每四个小时有5个额度,订阅版每天有300额度,基本够用。

“Focus”选项很好理解,可以让大模型聚集搜某个类型,比如:学术论文,Reddit讨论,或者YouTube视频。如果选择Writing的话,那么就不会联网,相当于直接用大模型的效果。

Perplexity订阅价格是每个月20刀。从实用角度来看,我建议大家可以不订阅ChatGPT Plus,但是要订阅这个。毕竟搜索是高频需求。Perplexity的搜索比ChatGPT强。而且,如果你需要GPT-4直接生成的话,选Writing模式就行。

我们来个简单的。比如,搜“GitHub Copilot”。大模型会先理解问题或者关键词,然后基于理解对它们做扩展。

由于我们只输入了“GitHub Copilot”,比较泛,大模型判断,用户此时大概率是想做个初步了解,比如它是什么、有什么用途、有什么优缺点等等。于是,它帮我们做了一系列扩展,再拿去搜索,找到一堆来源,最后给出答案。

有了第一次交互之后,Perplexity会引导用户,要么查询相关问题,要么继续追问。

从一个问题或者关键词出发展开的多轮交互,就形成了一个合集,存档在Library里,相当于历史记录,以后可以再来查询或者继续提问。这也是我非常喜欢这个产品的一个点。

“Collection”是最新功能。你可以针对某一个主题,通过Prompt的形式做更细致的设定,并且可以共享给其他小伙伴。

至于Discover,就是官方推的热点,无聊的时候可以看看。

Perplexity是公认的用户体验最好、结果精确度最高的AI问答引擎。

先说用户体验。

“以用户为中心”对他们来说不是一句口号,人家是真的信这个。我举两个例子。

第一、Perplexity为什么要帮用户先去扩展搜索关键词?

因为,绝大多数用户不懂得提问。

就像前边演示的那样,我只给了一个关键词。如果是传统搜索引擎的话,由于用户输入太少或者太不准确,往往结果不会太好。

那么,是用户的错吗?

用户没有错。是你技术的问题,是你产品设计的问题。这个就是做应用要面对现实情况。

多说一句,我觉得这一轮大模型技术爆发,带来的不是人机之间的自然语言交互,而是意图交互。有很多项目都在朝着这个方向走了,就看谁先跑出来。回到正题。

第二、Perplexity已经提供最终答案了,为什么要把来源列出来?

因为,用户总是会担心。

既担心你的答案的权威性,也担心大模型的幻觉会不会发作。

尤其是答案里要是有些观点跟我的预判不一致的话,我肯定会把来源的网页或者视频看一遍。

Perplexity是做产品的,技术只是实现的手段。但并不代表他们没技术。

他们CEO之所以会说开头那句拉仇恨的话,就是因为在起步阶段,Perplexity像很多别的项目一样,使用OpenAI的大模型,然后就被冠上了“套壳”的帽子。

不过,接了GPT-3.5或者GPT-4就完事儿了吗?

首先,Perplexity用的GPT-3.5,是自己微调后的版本,性能得到显著提升,但是费用比GPT-4低,速度也比GPT-4快。

其次,除了GPT,别的大模型他们也用,比如Claude,因为它支持更长的上下文,特别适合用来满足用户上传文档这个需求。

最后,Perplexity知道不能一直依赖OpenAI。所以,他们使用开源大模型进行微调,打造了两款大模型:pplx-7b-online和pplx-70b-online。

图片

前者是基于mistral-7b,后者是基于llama2-70b。这两款大模型专门用来处理网上的实时数据。而且,微调的工作也会持续进行,不断提升性能。训练用的数据也是他们自己准备的,高质量、多样化。

估计等开源大模型的性能跟GPT-4全面持平的时候,Perplexity肯定会把开源大模型作为基础,彻底摆脱对OpenAI的依赖。

有了为搜索定制化的大模型还不够,要做好这摊事儿,还需要很强的RAG技术。

所以,Perplexity绝对不是一个套壳项目,他们的技术实力绝对不差。同时,Perplexity也不是那种纯技术的项目,他们知道怎么用技术满足需求。

而且,搜索肯定不会是他们的唯一产品。随着大模型技术的发展,这个团队之后绝对会再拿出更多的新产品。这也是我会持续关注他们的一个原因。

继续滑动看下一个


Highlights

拥有十万用户的套壳产品,比拥有自有模型却没有用户更有意义。

如果你身边有投大模型或者做大模型的小伙伴,记得把这句话转给他。

这么拉仇恨的人是Perplexity的CEO。他们刚完成了B轮融资,估值5.2亿美元。跟投的公司包括英伟达,以及贝佐斯这样的大佬。 ⤴️

大模型的价值就体现在这里了:

它会帮我们把搜到的所有网页都过一遍,把相关的内容都抓出来,然后组织逻辑,最终把结果一步到位地呈现出来。 ⤴️

能让我持续使用、不得不用的,就两个:

  • GitHub Copilot
  • Perplexity AI ⤴️