科研版AI搜索来了!知乎直答接入正版论文库,一手实测在此
鱼羊 发自 凹非寺
量子位 | 公众号 QbitAI
人在知乎,正经搞科研,这事儿越来越有谱了(doge)。
想了解下学术热点,直接一搜,AI不仅一步到位给出总结,连参考文献都列好了。
想要进一步跟大模型探讨论文内容,也无需跳转,将论文一键选入暂存区,就能愉快开聊。
最新消息,知乎版AI搜索知乎直答,已正式上线“ 专业搜索 ”功能。
并且,是 国内首家提供AI搜索与正版论文库一站式解决方案 的那种:
引入维普、知乎精选等超过5000万篇中英文高质量文献数据,同时提供资料查询、上传和专业解读等一系列功能。
此前,就有不少知友推荐过知乎直答的学术用法,表示基于知乎的专业属性和知识分享环境,用它来跟踪热点、寻找思路颇有优势。
现在,知乎进一步接入国内外正版论文库,还加强了对论文的解析和问答能力,对科研党来说,属实是:
这不,已经有第一波尝鲜的网友发出感叹:专业搜索终于让知乎直答发挥出了独特价值。
话不多说,我们第一时间,上手实测。
写论文,真的可以先上知乎了
知乎直答的入口,就在首页顶部,也可以从单独的网址 https://zhida.ai/ 进入。
在原来通用搜索的基础之上,新版本更新了“专业搜索”按钮,在提问之前,可以勾选不同的公开知识库,包括 中文论文库 、 英文论文库 和 知乎精选 。
比如把范围限定在知乎精选,大模型就会根据答主们的高赞回答来总结生成内容。
而把范围限定在论文库,则可以找到更多相关的原始论文链接。
值得一提的是,知乎直答专业搜索背靠5000万+中英文高质量文献数据,覆盖的专业范围很广。像“深度学习如何提高地质储层属性预测的准确性”这样的问题,也能回答得有理有据,并且同样能溯源到原论文。
看样子 检索 这一步,知乎直答可以说是做到了全、专、精,并且充分利用了自身作为知识分享社区的高质量内容积累。
那么接下来,让我们进入 读论文 环节。
如果是维普收录的中文论文,想要详读很方便:无需跳转,点击论文标题下方的“预览文件”即可。
实测中,我们发现更实用的功能是,对于所有参考来源,都可以点击“暂存”将它们设置为暂存文件,在进一步与大模型的问答交互中作为新的参考范围。
也就是说,当你想对某个研究方向、研究课题进行更深入的了解时,不用费劲下载论文、跳转其他AI工具,直接就可以指定参考链接,跟知乎的大模型展开细节讨论。
比如从介绍Mamba的三篇文章中,总结出Mamba跟FlashAttention的关系:
对此,某不愿透露姓名的测评志愿者只想说:
另外,知乎直答专业搜索还支持上传本地文件。不使用搜索功能,直接拿它当个读论文工具也是OK的。
当然啦,作为一个以人类交流为核心的知识分享平台,在这样的AI产品中,我们发现知乎还是保留了一些传统艺能。
比如,如不满意,还可以 一键向知友提问 (doge)。
简单总结一下,知乎直答的这个专业搜索功能,相当于能把科研党们了解科研方向、收集相关文献、撰写文献综述这一套流程给一站式包办了。
技术细节:主打“靠谱”
量子位还了解到,针对科研AI搜索最大的挑战——幻觉问题,在技术方面,知乎直答采用了 稀疏检索(Sparse Retrieval)+稠密检索(Dense Retrieval)的混合检索方案 ,有效保障了召回过程的高效性和内容的高相关性。
并且基于知乎在知识问答领域的深厚积累,系统在召回环节融入了大量内容质量信号,如内容可信度、答主专业度和回答完整性等,以进一步提高生成结果的可靠性。
与此同时,在模型能力上,知乎直答专业搜索融合了多种前沿技术,来提升模型对复杂问题的分析、解决能力:
多智能体协同系统
基于定制大语言模型的函数调用能力,通过多智能体的协同工作,实现对信息查询、内容分析、数学计算等多种功能的支持。
简单来说,就是这些不同环节的功能是由一系列专用模型和工具分工负责的,好处是,能以较低的成本和延迟为用户提供高质量回答,同时能更灵活地满足用户的多样化需求。
基于推理的意图理解
能否深度理解用户意图,对于AI搜索的体验而言至关重要。
知乎直答融合知乎多年积累的自然语言理解技术,结合大语言模型强大的推理能力,对用户的上下文和提问进行深入分析,能多角度、多层次地召回多样且高质量的内容。
思维链提示词工程
为了提升模型在复杂问题上的表现能力,知乎直答采用了思维链和少样本学习等提示方法。
通过在提示中加入思维过程示例,模型能够更好地模拟人类的思考方式,提供更具逻辑性和解释性的回答。
自适应上下文重排
针对召回的文档,知乎直答采用动态文本切片算法进行内容分块。
通过训练的重排序模型(Reranker)对分块后的内容进行评分和排序,并采用智能组合策略将多个相关的文本块有机组合在一起,为复杂问题提供更完整、更丰富的上下文。
自适应的上下文重排机制能提升回答的连贯性和信息量,满足用户对内容深度和广度的需求。
除了 可靠性 ,对于AI搜索产品的用户体验而言, 响应速度 同样关键。
为此,知乎直答采用了基于前缀缓存(Prefix Cache)和分块预填充(Chunk Prefill)等技术,来降低首个标记和解码的时延,提升服务吞吐量和响应速度。
做AI搜索,知乎场景优势和专业性突出
有一说一,随着大模型推理价格的下降,近来AI搜索的市场竞争,属实有些激烈。
一方面作为目前最有可能盈利的AI应用,AI搜索市场反馈良好,数据蹭蹭上涨——比如行业标杆Perplexity,7月的月查询量达到了约2.5亿个问题,达到了2023年全年查询量的一半。
另一方面,在创业公司摩拳擦掌的同时,Google、OpenAI等新老巨头也纷纷下场,亲身开卷AI搜索产品。
知乎做AI搜索,入局时间不算最早,体量也不算最大,但就成效而言,显然已经在国内市场逐渐建立起了属于自己的优势。
知乎直答今年6月底上线,7月就已经在各大AI产品榜单上崭露头角了。
根据量子位智库数据,其7月总访问量增长达到了430%。
SimilarWeb的最新数据显示,其9月访问量达到470万,相较于8月份数据增长超过180%。
从访问量增长的趋势来看,知乎直答在一众AI搜索产品中,颇具竞争力。这实际上与知乎做AI搜索的天然优势不无关系:
知乎本身是国内最大的在线知识分享社区,积累了大量 问答形式 的专业、深度内容。无论是用户的使用习惯,还是平台的内容质量,都与AI搜索的产品形式相契合。
知乎CEO周源在与腾讯新闻的最新对话中也提到,知乎在成立初期就认为,提问跟搜索非常接近:搜索是搜索已经产生的信息,如果现有信息不能满足,那么就可以提问,用提问去连接还没产生的信息。
从这个角度来看,大模型技术的发展恰好进一步打破了“搜索”和“提问”的边界,使这种产品设计变得更为自然。
而正如不少知乎网友在专业搜索上线后的反馈中所提到的:
知乎直答的此番更新,有那么点进一步 突出核心竞争力 的意思。
在更好地满足用户在专业领域的信息搜索和查询需求的同时,标志着知乎在如今火热的AI搜索赛道中,正在朝向更强调 专业性 、 实用性 的方向占据属于自己的生态。
作为普通用户,值得期待的是,随着AI搜索产品的进一步落地和竞争,知乎直答专业搜索这样的更新迭代,意味着深度搜索需求开始有市场化产品来满足了。
从中可以观察到的是,专业、深度知识获取的成本正在大模型时代进一步降低,而无论是对科研方法,还是对商业模式而言,新的可能性已开始在此中酝酿。
— 完 —
点这里 ???? 关注我,记得标星哦~