经历了几轮爆料后,AI搜索赛道终于迎来了一位“重要玩家”——SearchGPT,一个由OpenAI推出的AI驱动的搜索引擎。
早在今年4月,就有工程师爆料OpenAI内部正在评估自己的AI搜索产品SONIC-SNC(SearchGPT);5月初,OpenAI即将发布搜索产品的消息更是在网上大面积传播。然而,直到三个月后,OpenAI的SearchGPT才正式亮相。
SearchGPT的推出并不让人意外,大家更关心的是,AI搜索到底行不行,有没有抢夺传统搜索引擎市场份额的机会?
OpenAI CEO萨姆·奥尔特曼(Sam Altman)对此似乎很有信心,他将SearchGPT称之为“new prototype(新的产品原型)”,并直言“我们认为今天的搜索还有改进空间”。他还表示,跟“老派(old-school)”搜索引擎相比,全新的SearchGPT令自己惊喜,对自家新产品毫不吝惜溢美之词的同时,也丝毫不给谷歌、Bing等竞争对手留面子。
目前,AI搜索赛道竞争激烈,不仅有New Bing、Perplexity、You.com、Lepton Search、Genspark、Hebbia等优秀的海外产品,还有秘塔AI搜索、360 AI搜索、天工AI搜索、博查AI搜索、Reportify、Devv等发展势头迅猛的国内产品。
在谈到SearchGPT时,360集团创始人周鸿祎告诉「甲子光年」:“OpenAI本来做的是ChatGPT,他们觉得聊天界面能够解决一些问题,但现在不得不做一个平行的SearchGPT,作为新的用户体验和入口。到底是Search好用还是Chat好用我们暂时不知道,有可能会平分秋色,也有可能一个被另外一个取代掉,但这至少说明AI搜索是重要的场景入口,大家都不能错过。”
都说AI搜索重要,但AI搜索面临一个挑战是商业模式到底如何建立。“成本如果很低,用广告可以,但现在很难放广告,广告都不一定cover你每个单词搜索的成本。”周鸿祎说,“不是所有用户都愿意付费的,这个需要探索。”
本文,「甲子光年」将拆解SearchGPT及相关AI搜索产品,分析AI搜索产品的壁垒、突破和未来。
1.AI搜索不是搜索
要理解OpenAI搜索产品的优势,首先要理解AI搜索产品底层的运作原理。
目前市面上的AI搜索产品主要有三大类,分别是专门的AI搜索产品、传统搜索引擎推出的加入了AI能力的产品和大模型厂商做的有搜索能力的产品。
第一类以Perplexity、秘塔AI搜索、Genspark为代表,第二类以New Bing、Google AI Overview为代表,第三类以Kimi、豆包、腾讯元宝为代表。OpenAI虽然也属于大模型厂商,但是由于他们有了ChatGPT这一大模型产品,因此重新开发了专门的AI搜索产品,SearchGPT也因而归属于第一类。
AI搜索的底层原理其实可以用“RAG(Retrieval-augmented Generation,检索增强生成)”来概括,涉及Retrieval和Generation两个步骤。其中,大部分的“Retrieval(检索)”是由传统搜索引擎的API来完成的,少部分采用自建索引库的形式;而AI搜索产品主要做的事情就是拿到结果后的“Generation(生成)”,用AI代替人工,阅读检索内容,总结归纳后给到用户一个直接的答案。
当然,这背后的链路会更加复杂,包括问题改写(Intent Detection)、检索结果重排(Reranking)、获取详情内容(Read Content)等一些重要的环节,大模型在读取检索内容之后,还要对检索结果做预处理、搜索解决方案展示等工作。AI搜索的整个过程会涉及对大模型的多次调用,比如360做一次AI搜索就要调用9次大模型。
但是总体来说,AI搜索产品仍然是基于成熟的搜索产品发展而来的,检索步骤调用外部的API就能解决,上下文增强和总结和生成步骤也只需调用底层大模型的能力。换句话说,AI搜索产品相较于传统的搜索产品,并不是在做技术层面的创新,更多是在做产品层面的创新。
这也是为什么Perplexity称自己为“答案引擎”的原因——作为一个从搜索API到底层大模型都直接“套壳”的产品,Perplexity并不提供直接的搜索能力,而是通过接入API获取了搜索引擎检索的内容之后,再通过GPT-4、Claude等大模型将答案进行总结,最终整理成固定的格式呈现给用户,帮用户省去了逐页查看和总结的时间。
能用“套壳”做出30亿美元的估值,可以说,“套壳之王”Perplexity的胜利,不是技术的胜利,而是技术之上产品封装的胜利,是对用户需求精准洞察后,快人一步出击的胜利。
因此,AI搜索不是搜索,而是总结。AI搜索产品真正比拼的也不是底层的技术能力,而是技术之上,谁能提供更准确的答案、更快的响应速度、更智能化的用户体验。
其中,“准确”是最关键的一点。AI搜索最大的壁垒是数据,要想得到准确的答案,底层数据的质量和数量至关重要。只有底层数据库足够大、容纳的信息足够多、信息更新得足够及时,才能保证大模型在内容获取的时候“有据可依”,从而总结和输出更准确、更有时效性的内容。这也是谷歌为什么在搜索引擎领域常年保持90%以上市占率的原因——他们从1998年成立的第一天起就开始做索引,拥有全世界最大、最全的索引库,能够提供最准确和及时的搜索结果。
因此,想要让搜索结果变得更准确,自建索引库是很重要的解决办法。
目前,绝大多数AI搜索产品都只是接入了传统搜索引擎的API,没有重新做一套底层的搜索系统,只有少部分如秘塔AI搜索(播客和文库板块)、360AI搜索以及少数的垂直AI搜索引擎搭建了索引库。这主要是由于接入传统搜索引擎的API已经能解决95%的问题了,加之自建索引库的成本非常高昂,需要大量的人力财力和时间,因此,如果自建的索引库不能提供比Google和Bing的API更加优质的内容,就没有必要自建索引库。
自建索引库的成本有多高呢?360副总裁梁志辉曾经在一次播客中表示,爬取5000万网页的成本大约在100万-200万人民币左右,但是5000万网页对于搜索引擎来说是很小的一个数字,基本上做一个搜索引擎,起码要爬取1000亿的网页;如果要索引全球网页的话,基本上需要3000台-1万台服务器提供支持。
也就是说,做一个最简单的搜索引擎,起码要有20亿-40亿元的预算,这还不包括PageRank(网页排名)的服务器成本、终端厂商的保护费成本和人员成本。这对于任何一家中小型创业公司都是难以逾越的成本。
这也是为什么目前搜索引擎只有谷歌、微软、百度等几家大厂在做的原因——做搜索引擎成本太高了,只有大厂才有充足的资金、人才和设备去做这件事。
而除了成本高昂,搜索技术和算法也是相当有壁垒的一件事。以谷歌引以为傲的排名算法为例,它考虑了数百个不同的因素,包括内容质量、用户体验、移动友好性、页面加载速度、安全性等,不仅结构复杂,而且还会根据外界环境实时进行更新。据悉,谷歌平均每天发布6次算法更新,每年高达2000次;而且算法保密度极高,谷歌公司内部都没几个人知道其搜索排名算法的全貌。
可以想见,在如此巨大的成本+超高的技术门槛下,中小搜索引擎/AI搜索公司想要自建面向全网索引库的难度无异于愚公移山。
然而,这难得倒中小公司,却难不倒OpenAI。
作为一家累计融资额超过200亿美元、以高人才密度著称的公司,OpenAI在“钱”和“人”上自然都是不缺的。因此,他们完全有能力自建索引库。
那SearchGPT到底有没有自建索引库呢?
「甲子光年」询问了一些工程师后,得到的普遍回答是:“以OpenAI的资金和人才体量,是有能力自建索引库的,只是由于构建全网的索引库太费时费力费钱,他们应该是构建了部分的索引库,但是不会放弃接入外部搜索API,并且用爬虫做实时搜索补充答案。”
科技媒体TestingCatalog News扒出了SearchGPT的源代码,印证了这一猜测——他们发现,SearchGPT仍然接入了Bing索引库的API,但是与当前ChatGPT提供的通用Bing搜索功能不同,SearchGPT更擅长提供实时信息。而这一点,主要是靠网络爬虫(Crawlers)实现的。
OpenAI开发者页面的声明进一步印证了这一猜测。他们在开发者平台的概述中写道:“OpenAI使用网络爬虫和用户代理为其产品执行操作,这些操作要么是自动的,要么是由用户请求触发的。”
综上,SearchGPT很有可能采用了“自建部分索引库+接入Bing的API+实时网络爬虫”三者结合的技术路线,来确保搜索结果的准确和及时。
除了自建索引库,OpenAI为自己的AI搜索产品建立起的另一道数据壁垒,是内容。
在SearchGPT的发布页面,OpenAI提到,他们致力于打造一个蓬勃的出版商和创作者生态系统,帮助用户发现出版商网站和体验,同时为搜索带来更多选择。
他们合作的媒体包括《大西洋月刊》、美联社和Business Insider的母公司Axel Springer,也包括下辖《华尔街日报》《泰晤士报》《太阳报》的媒体巨头News Corp。OpenAI试图以推荐链接去交换爬取这些媒体内容的权益,同时表示,媒体和出版商们可以自行选择内容来源在SearchGPT中的呈现方式。
与机构媒体等专业的信息提供内容商合作是OpenAI给竞争对手的有力一击。由于付费墙和反爬虫机制的存在,不少AI搜索产品是无法抓取到专业机构媒体提供的内容的,这也造成了AI搜索产品生成结果的不完整、体验性不佳。而与媒体建立合作关系后,不少媒体的独家报道都可以在SearchGPT里搜索到,这无疑繁荣了SearchGPT的内容生态,保障了其用户体验。
除了完善底层数据和内容生态,与媒体建立合作关系也是OpenAI为了确保版权合规的深思熟虑之举。
自ChatGPT推出以来,围绕生成式AI产品的版权诉讼就络绎不绝,比如《纽约时报》已经花费100万美元起诉OpenAI和微软,对冲基金Alden Global Capital 旗下的八家出版物集团(包括《纽约每日新闻》和《芝加哥论坛报》 )也对这两家公司提起了诉讼。同为生成式AI产品的Perplexity也因为在搜索结果中使用了《福布斯》的一篇报道,但没有准确注明来源,而收到了《福布斯》的律师函。
因此,与媒体、出版商建立一个良性合作的机制,不仅能获取更多内容来源,还能规避掉很多不必要的版权纠纷,未来或许还有机会通过广告盈利,是一个一举三得的美事。
无论是自建索引库,还是通过与媒体合作获取独家内容,都有助于SearchGPT获取高质量的数据,建立起数据和内容壁垒,进而在已经硝烟弥漫的AI搜索战争中获得一定的后发优势。
2.用低延迟和多模态重构用户体验
如果说自建索引库和与媒体合作是OpenAI为自己建立起的第一道数据壁垒,那么极低的延迟、多轮问答交互和多模态的结果呈现则是OpenAI为自己建立的第二道用户体验壁垒。
前文我们提到,AI搜索不是搜索,而是总结。AI技术本身解决的是“信息撮合”问题,用户使用AI搜索的目的也不只是单纯地获取信息,而是“雇佣”产品满足自己的需求。尽管大模型技术会在一定程度上强化原有的搜索能力,但想要做好一款AI搜索产品,除了信息层面之外,还要在用户端进行发力,与用户进行创意性地交互,让信息端和交互端“双轮滚动”起来,才能诞生现象级的AI搜索产品。
什么样的交互能带来好的用户体验呢?
独立开发者、ThinkAny创始人idoubi(艾逗笔)在其AI搜索引擎的万字复盘文章中提到:“做好 AI 搜索引擎,最重要的三点是准 / 快 / 稳,即回复结果要准,响应速度要快,服务稳定性要高。”
前文中提到的自建索引库和与媒体合作保证了“准”,那“快”和“稳”怎么保证呢?
降低回复的延迟、能进行多轮问答就很关键。
SearchGPT也确实做到了回复低延迟。从演示视频中我们可以看到,SearchGPT的响应速度堪称迅速,从输入问题到给出回答,几乎只用了1—2秒。
SearchGPT的低延迟回复,视频来源:OpenAI
如果说官方视频还有剪辑的嫌疑,那么部分获得体验资格的网友放出的体验视频则消除了这一嫌疑。从视频中我们发现,SearchGPT的响应速度确实很快,从提出问题到给出答案仅用了3秒。
SearchGPT实测视频,视频来源:X @Paul Covert
这种超高的“实时性”是怎么实现的呢?有两种方式:第一种是提前把数据爬好,embedding(嵌入)到向量数据库里面,第二种是实时搜索网络上的内容。这两点也是自建索引库的基础,需要用到向量搜索、实时索引、实时数据分析等技术。
OpenAI是怎么获得这些技术能力的呢?这就不得不提到他们最近的一个“大动作”。
今年6月,OpenAI以5亿美元的价格收购了实时分析数据库公司Rockset,这是OpenAI历史上规模最大的一笔交易。Rockset是一个实时全索引数据库,以其实时索引和查询功能著称,其服务主要针对那些需要对大量数据进行实时处理和查询的应用场景,比如实时仪表板、搜索索引、流式数据分析等。
Rockset拥有一个名为RocksDB的键值存储系统,它由之前同在Facebook工作过的两位联创Venkat Venkataramani和Dhruba Borthakur共同开发,特别擅长快速读写,也因此能让用户在毫秒级的时间内查询和分析大规模的数据集。
通过流式数据摄取、自动索引、内存优化、高并发查询等技术,Rockset可以极大提升SearchGPT对于用户问询的响应速度,确保了AI搜索产品的“快”。
除了“快”,Rockset也能保证AI搜索产品的“稳”,即多轮交互问答。
Rockset作为一个实时全索引数据库,可以提供更全面、完整的数据,也支持多维度查询,这意味着用户可以根据不同的属性和条件来筛选结果;此外,通过上下文索引、SQL查询等技术,Rockset可以让AI搜索产品更好地存储和检索上下文状态,保持会话的连续性,提升AI搜索产品的多轮交互问答体验。
SearchGPT的追问功能,视频来源:OpenAI
在OpenAI收购Rockset之前,在解决大模型的数据索引、查询和存储问题时,业内通用的方案是给大模型加一个“外挂”,也就是所谓的“向量数据库”。过去一年,向量数据库火遍大江南北,几乎每个向量数据库厂商都在以“大模型的记忆”为卖点进行营销。而Rockset不仅能做向量索引,还能做关键字索引、元数据索引等不同形态数据的索引,可以提供更高质量的搜索结果,同时满足多样化的查询需求。
这也是Rockset在RocksDB之外的另一项核心技术——混合搜索(Hybrid Search)。这是一种多方面的搜索方法(整合了向量搜索、文本搜索和元数据过滤等),灵活性强,允许索引和使用多种类型的数据,包括实时数据,也因此经常被用于上下文相关的产品推荐、个性化内容聚合等场景。这项技术在微软的New Bing和谷歌的AI Overview中发挥了重要作用。
也正是得益于这种“混合搜索”的技术能力,SearchGPT拥有了第三个亮点——多模态。它不仅能提供文字版本的答案,还在结果展示层面加入了多样式的内容维度,包括数据、列表、图片视频等,提升了信息的丰富度与可理解性。
比如,有拿到测试资格的网友问它伦敦的天气情况,SearchGPT直接给出了未来七天的天气预报,包含天气图标等小组件。
网友又问SearchGPT伦敦野餐的最佳时间和地点有什么,它在给出若干公园选项的同时,还在左侧列出了一些不同天气下伦敦的照片。
而在SearchGPT的移动端,其答案的多模态表现也很出色:比如查询英伟达的股票会给出股票走势图;再比如搜索一首歌,SearchGPT会直接给出Youtube的视频,用户无需点开网页即可播放。
为什么多模态的呈现结果这么重要?这主要是由于目前绝大多数的AI搜索产品仍然是用文字给出答案的。尽管文字回复能解决用户大部分的问题,但是在入局者增多、同质化内卷的竞争环境下,谁能提供更多维度、更丰富的答案,谁或许就能掌握开启AI搜索下一阶段竞争的钥匙。
多模态的检索不仅对于用户更直观地理解搜索内容、提升搜索体验有帮助,更是对于产品的迭代大有裨益——搭载了多模态模型的AI搜索产品能够同时处理文本、图像、声音、视频等不同类型的数据,从多元化的信息中获取更全面的知识和上下文,这对于复杂任务的理解和执行至关重要;通过跨模态学习,AI搜索产品及其背后的模型也可以更好地泛化到未见过的情境中,提高搜索结果的准确性、适应性和实用性。
搜索结果的多模态呈现,主要来自模型能力的加持。基本上,有能力做多模态大模型的厂商,也有能力做出多模态的AI搜索产品,这也是相当一部分多模态AI搜索产品出自大厂的原因——比如360集团推出的360AI搜索支持用户通过拍照的方式提问,也支持文档、图片、音频、视频搜索;昆仑万维推出的天工AI搜索不仅支持AI识图、AI图像生成等,还具备收、写、读、聊、说、话、听、唱的多模态能力,同时还生成思维导图和大纲;小度前CEO景鲲做的AI搜索产品Genspark也能根据用户问题生成可视化的图表和图片。
而OpenAI作为世界上实力最强的大模型公司之一,其模型的多模态处理能力自然不在话下。
在SearchGPT此次放出的演示Demo中,就展示了一个名为“视觉答案(Visual Answers)”的功能,但是OpenAI并没有详细解释其工作原理。
前文提到TestingCatalog News扒出了SearchGPT的源代码,这一源代码中,不仅露出了Bing的接口,而且可以发现,搜索结果由多模态模型提供支持。尽管看不出具体是什么模型和其处理流程,但该多模态模型应该具有自动理解图像的功能。
百度数据库部门产品总架构师朱洁认为,SearchGPT要想做出和Perplexity等产品不同的体验、实现作为后来者的弯道超车,最大的看点就在“多模态”。Rockset已经提供了多模态数据的检索能力,如果能依靠多模态大模型在交互端也玩出更多“花活”,那么获得更大的用户增长指日可待。
总之,Rockset的混合搜索能力,加上OpenAI的多模态大模型助力,让SearchGPT提供了更为良好的交互体验,而这也是OpenAI收购Rockset的初心。
在收购Rockset的公告中,OpenAI写道:“AI has the opportunity to transform how people and organizations leverage their own data……We will integrate Rockset’s technology to power our retrieval infrastructure across products, and members of Rockset’s world-class team will join OpenAI.”(AI 有机会改变个人和组织利用自身数据的方式……我们将整合Rockset的技术,为我们的跨产品检索基础设施提供支持,Rockset世界级团队的成员也将加入 OpenAI。)
OpenAI说希望收购Rockset是为其自家跨产品检索基础设施提供支持,由此可以看出,对实时数据的访问和处理已经成为当下AI军备竞赛中的重要一环。也有业内人士指出,这笔收购从本质上说明了向量数据库无法真正地解决“人工智能记忆(内存)”的问题,反倒是通用实时数据库才能做到。而意识到了这一点的OpenAI也正在试图为其内部的各个大模型建立一个扎实的“通用数据底座”,从而减少大模型的幻觉,提高AI生成内容的准确性、及时性和上下文相关性。
收购Rockset是OpenAI推出SearchGPT之前极其重要的一步棋,它补齐了OpenAI的数据短板,提高了OpenAI数据提取、处理和分析的效率和速度,也让OpenAI能够持续地从各种来源提取和索引数据。可以说,Rockset不仅帮助OpenAI降低了AI搜索产品的延迟,让SearchGPT“更快”地给出答案,更是对于构建一个高效、完整、实时更新的索引库有着巨大的助力,进一步提升了AI搜索产品回答的时效性和准确度。
3.SearchGPT,为什么是现在?
为什么是现在推出SearchGPT?这可能与OpenAI面临的财务困境有关。
在The Information最近的一篇报道中提到,截至今年3月,OpenAI的推理成本(租用微软服务器的成本)达到了40亿美元,训练成本今年可能会飙升至30亿美元,再加上15亿美元的人工成本,因此,OpenAI今年的企业运营成本在85亿美元左右。
而从收入端看,尽管OpenAI最近每月的总收入为2.83亿美元,全年收入也可能达到35亿-45亿美元(根据FutureSearch的估算,OpenAI 2024年的年度经常性收入约为34亿美元,相差不多),但是究竟能否达到这一数字,取决于今年下半年的销售额。
也就是说,即使OpenAI拼尽全力达到了全年35亿美元的销售额,账面上仍然会出现约50亿美元的亏损。
这就让OpenAI不得不拼尽全力想办法赚钱。在OpenAI的营收结构中,收入的大头仍然是由C端贡献的——55%的营收来自购买ChatGPT Plus的付费订阅用户(约为770万),剩余45%的营收分别来自ChatGPT企业版(21%)、API收入(15%)和ChatGPT团队版(8%)。因此,从强大的C端基本盘入手,是OpenAI实现营收破局的关键。
C端场景里,搜索是最有价值的商业模式之一。搜索作为一个天然的大用户量场景,曾经是PC端的第一流量入口,百度靠搜索成就了自己的江湖地位,谷歌也凭借搜索成为全球市值最高的互联网公司之一,在其母公司Alphabet 2023年3703.94亿美元的营收中,有1750.33亿美元的营收就是谷歌搜索业务贡献的(约占总营收的47.26%)。
尽管ChatGPT的日活保持在5000万上下,仍然是生成式AI领域唯一的杀手级应用,但是距离互联网时代的Facebook、Youtube、Instagram等仍然有一定的距离。
拾象科技CEO李广密在今年4月在受访时表示:“如果是我,我会先把ChatGPT从5000万的DAU做到3个亿……因为ChatGPT现在还不到1000万的付费用户,如果做到3000万的付费用户,就是每年60亿美金的订阅收入,那就可以比较健康地支撑AGI每年的投入。”
搜索是一个两千亿美元的市场。目前所谓的“AI原生搜索产品”市场规模只有几十亿美元,还有很多空间等待补足。一旦将搜索功能引入ChatGPT之后,ChatGPT可能就会在订阅制之外,衍生出广告、推荐等更多的商业模式,拓展更多的营收来源。
除了用搜索提振流量和营收,抓住推理成本下降带来的时间窗口期,或许是OpenAI选择在此时推出SearchGPT的第二个原因。
搜索产品的营收不是直接来自C端用户,而是源自C端用户积累到一定量之后带来的B端用户。因此,搜索产品在现金流跑正之前,不仅有相当长的用户获取和运营周期,还有相当大的产品和技术的建设维护成本。
以传统搜索引擎为例:根据摩根士丹利的报告,谷歌在2022年的搜索次数约为3.3万亿次,单次平均成本约为0.2美分。从收入看,根据昆仑万维董事长方汉在一次播客中透露的数据,2023年谷歌搜索的广告收入约为1600亿美元,照此计算,一次搜索产生的收入约为5美分。
那AI搜索的成本是多少呢?从前文我们可以得知,AI搜索是在传统搜索引擎的基础上又加入了大模型的能力,因此AI搜索的成本在原有的0.2美分基础之上,还要加入调用大模型所产生的算力、电力消耗和硬件投资,单次AI搜索的成本约为传统搜索引擎的10倍,也就是2美分。
而今年5月以来,随着硬件性能的提升、算法的优化和技术架构的创新,大模型的推理成本在不断下降:比如幻方量化发布的Deepseek-V2版本的模型,就通过创新性的MLA架构,把显存占用降到了过去的5%—13%,其独创的DeepSeekMoESparse架构更是将计算量降到了极致,这一切都助推了其模型推理成本的降低;再比如OpenAI自己,他们在7月19日发布了GPT-4o mini,通过改进模型结构、优化训练数据和流程,GPT-4o mini做到了在性能接近GPT-4的同时,但成本相比GPT-3.5 Turbo便宜了60%以上,相较于两年前GPT-3的text-davinci-003版本,成本更是降低了99%。
在大模型推理成本不断降低的情况下,此时推出SearchGPT,不仅本身模型调用成本上就有优势,更是能借助不断增长的用户量进一步摊平单次搜索的成本。
4.无论如何都不要单纯做搜索
如果OpenAI真的是把SearchGPT作为自己引流、商业化破局的重要一步,那么SearchGPT要怎么在产品上突破,才更有机会成为OpenAI的“流量突破口”,吸引更多日活、实现更好地转化呢?
「甲子光年」认为,有两个方向:
第一个是UGC+AIGC,第二个是自动化工作流。
先来说第一个。前文我们提到,AI搜索最大的壁垒是数据,也就是内容。中国互联网内容的阵地已经被划分成了百度、微信、知乎、小红书、淘宝等各种阵营,彼此之间门阀高筑,相当割裂。相比于中国,国外互联网的生态要更开放一些,各个内容阵营之间的数据流动和共享发生得更加频繁。
由此,有一部分海外的AI搜索产品抓住这一机会点,开始探索AIGC+UGC的内容生成方式,试图以此丰富自己的内容生态,典型代表就是Perplexity和Genspark。
Perplexity推出了Pages功能,允许用户直接在Perplexity平台上生成内容。用户不仅可以将原本搜索获取的答案转换成一篇文章形式的“Pages”,还可以直接输入问询词,Perplexity会搜索公开的文章或报道直接生成一篇Pages。不仅如此,Perplexity还能根据用户的需求对Pages进行重写、格式化或删除,或者插入相关的图片和视频。
小度科技前CEO景鲲创立的Genspark也不例外。
在ProductHunt上,Genspark对自己的介绍是:“一个AI代理引擎,其中专门的AI代理进行研究并生成名为Sparkpages的自定义页面。Sparkpages没有偏见和SEO驱动的内容,综合了可信的信息,提供更有价值的结果,为用户节省时间。”
Sparkpages是Genspark的核心:用户在搜索问题后,Genspark不仅像其他AI搜索产品一样先给出一个回答,还会通过整合搜索结果生成一个主题网页,该主题网页就是Sparkpages。它会以结构化的方式,展示搜索主题相关的文字、图片、视频等,以瀑布流的方式呈现给用户。
Sparkpage不仅通过“信息聚合网页”的形式让用户更快速有效地访问信息,更是允许用户对生成的页面进行复制和编辑:在每个Sparkpage的右上角都有一个按钮“Copy and Create My Plan”,点击后会打开一个已经复制了刚才Sparkpage内容的编辑页,用户可以在右侧的Copilot一栏针对左侧的Context Pool做上下文的提问、调用外部搜索获取答案、同时还可以把Copilot里的内容一键复制到左侧的Sparkpage里。和Perplexity的Pages一样,Sparkpage同样可以被搜索引擎的SEO索引到。
景鲲前下属、AI从业者刘佳(化名)告诉「甲子光年」,景鲲还在小度工作的时候,就多次提到要“重构搜索背后的内容生态”,因此Genspark走这种“AIGC+UGC”的模式并不意外。
“AI搜索目前最大的壁垒在于背后信息源的质量,Genspark的优势就在于,短期内可以通过高质量的信息源+AI理解满足搜索需求,满足后生成高质量的结构化总结页面Sparkpage,这些内容又再次被搜索收录,相当于AI搜索产品内容的‘自产自销’。这种方式可以形成一个内容的数据飞轮。假设这一飞轮能转起来,那么理论上用户用得越多,优质内容就会越多,能慢慢构建起搜索背后的内容壁垒。”刘佳说。
尽管SearchGPT在AIGC的内容方面已经做得很不错了,界面简洁、用户体验舒适、信息来源质量高,但是在UGC的方面依然做得不够,不知是否能在后续的正式版本中看到这一功能。
而AI搜索产品“自动化工作流”的实现,则主要依赖Agent,尤其是多Agent联用(Multi-Agent)的能力。AI搜索引擎与传统搜索引擎最大的不同,在于它们不只能将搜索结果进行总结与分类,还能在此之上有更进一步的动作,比如生成思维导图、生成PPT、进行工作和生活规划等。这背后的能力,都取决于Agent。
其实目前大部分的AI搜索产品都加入了AI Agent的能力,那些在资料整理之上“玩花活”式的呈现基本都是靠Agent插件实现的,比如360 AI搜索文档分析问答、分析网页内容、分析总结音视频、生成思维导图的功能,秘塔AI搜索的思维导图、梳理各种关联人物事件、搜索学术论文和播客的功能,天工AI搜索的文档+音视频分析、AI音乐、AI PPT等功能;
阿里国际最近推出的B2B AI搜索引擎,背后似乎也加入了AI Agent的能力。它能主动理解采购者的自然语言,并转化为专业的采购请求。更进一步,它还能根据全球市场数据预测需求、提供建议,实现更精准的匹配。用户只要在新的AI搜索引擎中用“大白话”询问,它会通过与用户的对话,更精确地理解用户的需求,为用户推荐多种选择,并主动比较、总结优劣,最终帮用户完成交易和履约送货。
但是在多Agent联用方面,目前能做到的AI搜索产品还比较少,只有博查AI搜索、Genspark等产品在尝试。
比如博查AI搜索首创了多智能体搜索(Agent Search)+多模态搜索(Media Search)的模式,引入了AI智能体和高质量UGC内容,会识别用户搜索需求,并匹配相应的智能体进行作答,还支持搜网页、搜短剧、搜视频、搜图片等。
博查AI搜索的整体架构基于字节扣子(Coze)开发者平台开发,并且和扣子合作打通了智能体发布渠道,未来开发者创作的智能体可以直接发布到博查,既能为大家提供更丰富的搜索内容,也能够为开发者的智能体提供定向流量。
Genspark也利用了多智能体框架,每个智能体都能针对特定类型的查询提供专业服务,确保搜索结果的精准性和相关性。有博主对Genspark的搜索流程进行了拆解后发现,每次搜索过程中,Genspark至少调用6个AI Agent,和4—14次的大模型。
上述Agent更多属于用Agent实现自动化的工作流,更多聚焦通用搜索;在垂直搜索方面,Genspark也用了三个Agent,来处理用户旅游、商品和图片的搜索意图。
用户不仅可以点击对应的标签进入到特定的Agent页面,也可以点击输入框,选择对应的Agent,进入针对性的Agent搜索。
在第十二届互联网安全大会期间,周鸿祎告诉「甲子光年」,Agent最重要的是解决了大模型无法“慢思考”的问题,Agent在AI搜索产品里是必不可少存在。
“人脑有快思考、慢思考两种方式。大模型常见的是快思考,问2+2等于几,它脱口而出。但是真的有复杂的问题,比如写一篇论文、做分析,人类是需要慢思考,需要调动规划和反思、逻辑推理能力,速度慢,但准确性高。大模型目前只有快思考没有慢思考的能力,我们提出用Agent的框架打造慢思考的系统,通过知识和工具、增强大模型的规划,打造大模型的慢思考的能力。”周鸿祎说。
不过,或许是还在产品原型阶段的原因,目前,我们没有看到SearchGPT里“多智能体”的能力,但是由于SearchGPT是集成在ChatGPT中的,未来OpenAI或许会将其与GPT Store中的智能体(GPTs)打通,联合起来为用户提供服务。
另外,周鸿祎还强调,大模型企业做AI产品时,一定要注意“与场景结合”,才能实现最好的用户体验。OpenAI推出搜索产品,也意味着其越来越注重“场景”的重要性。
正如a16z创始人马克·安德森(Marc Andresson)给Perplexity创始人阿拉文德·斯里尼瓦斯(Aravind Srinivas)的建议,“无论如何都不要单纯做搜索”——无论是UGC还是多Agent,都是搜索产品的“术”;只有找到合适的用户使用场景,才能“道术合一”,实现增长。
免责声明
本文内容(图片、文章)翻译/转载自国内外资讯/自媒体平台。文中内容不代表本站立场,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除。