革命性技术还是过度承诺 检索增强生成 (革命性科技产品)

革命性技术还是过度承诺 检索增强生成 (革命性科技产品)

本文将深入剖析 RAG(Retrieval-Augmented Generation)所宣称的能力和其在实际应用中的表现。我们首先将探讨 RAG 的工作原理,评估其潜在的优势。随后,我们将分享在实践中遇到的一些挑战,以及我们为应对这些挑战所开发的解决方案。此外,我们还将讨论那些我们仍在探索中的未解决的问题。通过这些内容,您将获得对 RAG 能力的全面了解,并认识到它在推动人工智能领域发展中所扮演的不断进化的角色。

设想一下,你正在与某人交谈,这个人不仅对当前事件缺乏了解,而且在面对不确定性时,还倾向于自信地编造细节。这种情况恰恰反映了传统生成式人工智能所面临的困境。尽管 AI 拥有广泛的知识储备,但它往往依赖于过时的数据源,并且容易陷入所谓的“幻觉”现象——即在缺乏确凿信息的情况下,虚构出细节。这种行为模式导致了一个严重的问题:AI 可能会基于某种虚构的细节,以一种不切实际的自信态度,提供错误的信息。

检索增强生成(Retrieval-Augmented Generation, RAG)技术为人工智能领域带来了革命性的变化。它的作用可以类比于为一个原本对当前事件一无所知的人提供了一部能够即时访问互联网上最新信息的智能手机。通过 RAG ,人工智能系统现在能够获取并整合实时数据,显著提升了其响应的准确性与相关性。然而,值得注意的是,RAG 技术并非一剂万能药。在不同的应用场景中,它仍在探索未知的领域,并没有一种放之四海而皆准的策略。有效的 RAG 落地方案往往需要根据具体的使用案例来定制,这是一个反复试验和不断试错的过程。

什么是 RAG 以及其工作原理

检索增强生成(RAG)是一种人工智能技术,它宣称通过在响应生成过程中整合外部最新信息,可以显著增强生成式模型的能力。该方法使人工智能系统能够获取最新可用数据,从而使生成的响应不仅准确,而且与当前上下文高度相关。

下面是 RAG 技术所涉及的各个关键步骤:

RAG 的开发过程

开发一个用于生成式人工智能的检索增强生成(RAG)系统是一个多步骤的过程,关键在于确保系统不仅能检索到相关信息,还能有效地整合这些信息,以提升响应的质量。以下是该过程的详细概述:

这些步骤构成了 RAG 开发的理想蓝图。然而,在实际实施过程中,通常需要进行额外的调整和优化,以适应特定项目的目标。因为在开发的每个阶段,都可能会遇到需要解决的难题。

RAG 的承诺

RAG 技术在人工智能系统中承诺可以发挥双重作用。首先,它致力于简化用户获取答案的流程。通过提供更准确和相关的响应,可以显著提升用户体验。这种改进使得用户在查询信息时能够体验到更加便捷和直观的交互过程。其次,RAG 技术为企业提供了深度利用其数据的能力。它使得原本庞大的信息库变得易于搜索,从而极大地促进了信息的可访问性。这种能力不仅提高了企业处理数据的效率,而且为企业的决策制定和洞见发掘提供了有力支持。

准确性提升

准确性仍然是大型语言模型的一个关键限制,这种表现出来通常有以下几种方式:

使用 RAG ,你可以限定模型只使用正确的数据,以确保响应与当前的任务相关且准确。

会话式搜索

RAG 旨在增强我们搜索信息的方式,允许用户通过类似人类的对话而非一系列不连贯的搜索查询来找到所需信息,从而有望超越传统搜索引擎(如谷歌)的表现。这一承诺提供了一种更流畅、更自然的交互方式,其中人工智能能够理解并在正常对话的流程中响应查询。

实事求是的看法

然而,不管 RAG 的承诺看起来多么诱人,重要的是要记住这项技术并非万能良药。虽然 RAG 可以提供无可否认的好处,但它并不能解决所有挑战。我们已在几个项目中实施了这项技术,我们将分享我们的经验,包括我们面临的障碍和我们找到的解决方案。这种来自实践的见解旨在提供一个客观的观点,说明 RAG 真正能提供什么,以及哪些方面仍需要持续进步。

RAG 落地的挑战

在现实世界的应用场景中实施检索增强生成(RAG)会带来一系列独特的挑战,这些挑战可能深刻影响人工智能的性能。尽管这种方法提高了准确答案的可能性,但依然无法保证完美无误的准确性。

我们在一个发电机维护项目中的经验表明,在确保人工智能正确使用检索到的数据方面存在重大障碍。通常,它会误解或误用信息,导致生成误导性的答案。

此外,处理会话中的细微语义差异、浏览庞大的数据库以及纠正人工智能“幻觉”——即它虚构信息的情况——进一步增加了 RAG 落地的复杂性。

这些挑战突显了 RAG 的落地方案必须视具体项目而定制化,同时也强调了在人工智能的发展中持续创新和适应的必要性。

确保准确性

尽管检索增强生成(RAG)显著提高了提供正确答案的可能性,但更重要的是要认识到它并不能保证 100% 的准确性。

在我们实际应用中,我们发现仅仅让模型从我们提供的外部数据源中获取正确的信息是不够的;它还必须有效地利用这些信息。即使模型确实使用了检索到的数据,但仍然存在它可能误解或扭曲这些信息的风险,使得这些信息变得不那么有用甚至不准确。

例如,当我们为发电机维护开发了一个 AI 助手时,我们努力让模型找到并使用正确的信息。AI 偶尔会“破坏”这些宝贵的数据,要么误用它,要么以削弱其效用的方式改变它。

这次经历突出了 RAG 实施的复杂性,其中检索信息仅仅只是第一步。真正的任务是将这些信息有效且准确地整合到 AI 的响应中。

会话搜索中的语义误差

使用搜索引擎搜索信息和与聊天机器人交谈之间存在很大差异。使用搜索引擎时,你通常会确保你的问题定义得很好以获得最佳结果。但在与聊天机器人的对话中,问题可以不那么正式和完整,比如问:“X 怎么样?”。例如,在我们为发电机维护开发 AI 助手的项目中,用户可能从询问一个发电机型号开始,然后突然转换到另一个型号。

处理这些快速变化和突然的问题要求聊天机器人理解对话的完整上下文,这是一个主要挑战。我们发现 RAG 很难根据正在进行的对话查找正确信息。

为了改进这一点,我们调整了我们的系统,让底层的大型语言模型(LLM)在尝试查找信息之前,使用对话的上下文重述用户的查询。这种方法帮助聊天机器人更好地理解和响应不完整的问题,并使交互更加准确和相关,尽管它并不总是完美的。

数据库访问

在实施检索增强生成(RAG)时,访问庞大的数据库以检索正确的信息是一个重大挑战。当我们有了明确定义的查询并理解了所需的信息,下一步就不仅仅是搜索,而是有效搜索。我们的经验表明,尝试梳理整个外部数据库是不切实际的。如果项目包括数百份文档,每份文档可能又包含数百页,那么这个体量就变得难以管理。

为了解决这个问题,我们开发了一种方法,首先通过将焦点缩小到可能包含所需信息的特定文档来简化流程。我们使用元数据来实现这一点——为我们数据库中的每份文档分配清晰、描述性的标题和详细的描述。这些元数据就像一个向导,帮助模型快速识别并选择响应用户查询的最相关文档。

一旦确定了正确的文档,我们随后在该文档内执行向量搜索,以定位最相关的部分或数据。这种有针对性的方法不仅加快了检索过程,还显著提高了检索信息的准确性,确保了由 AI 生成的响应尽可能与上下文相关和精确。在深入内容检索之前先细化搜索范围的策略,对于有效管理和访问 RAG 系统中的大型数据库至关重要。

幻觉

如果用户请求的信息在外部数据库中没找到,会发生什么?根据我们的经验,大型语言模型(LLM)可能会编造回答。这个问题——被称为“幻觉”——是一个重大挑战,我们仍在寻找解决方案。

例如,在我们的发电机项目中,用户可能会询问我们数据库中没有记录的型号。理想情况下,助手应该承认缺少信息,并声明它无法提供帮助。然而,LLM 有时会提取关于类似型号的信息,并将其呈现为相关。目前,我们正在探索解决这个问题的方法,以确保 AI 在无法根据现有数据提供准确信息时可靠地指出来。

寻找“正确”的方法

另一个我们从使用 RAG 的工作中学到的关键教训是,它的实施没有放之四海而皆准的解决方案。例如,我们为发电机维护项目开发的 AI 助手所采用的成功策略并不能直接应用到其他不同背景的项目中。

我们尝试将相同的 RAG 设置应用于为销售团队创建 AI 助手的项目中,该助手的目的是简化入职流程并增强知识传递。和许多其他企业一样,我们也需要花费精力处理大量且难以筛选的内部文档。因此该项目的目标是部署一个 AI 助手,使这些丰富的信息更容易被获取。

然而,销售文档的性质——相对于发电机项目文档,更侧重于流程和协议而非技术规格——与前一个项目中使用的技术设备手册大相径庭。内容类型和使用方式的差异意味着相同的 RAG 技术并未如预期那样发挥作用。销售文档的独特特点要求 AI 检索和呈现信息的方式有所不同。

这次经历强调了根据每个新项目的内容、目的和用户期望量身定制 RAG 策略的必要性,而不是依赖于通用模板。

关键收获与 RAG 的未来

当我们回顾在检索增强生成的挑战和复杂性中的过程时,出现了几个关键教训,这些教训不仅强调了该技术目前的能力,也暗示了其不断发展的未来。

展望未来:RAG 的前景

总之,尽管 RAG 在人工智能技术方面展现出了富有希望的前景,但它并非没有挑战。未来的路将需要持续的创新、定制化的策略和开放的心态,以充分实现 RAG 的潜力,使人工智能交互更加准确、相关且有用。

原文链接:

声明:本文来自用户分享和网络收集,仅供学习与参考,测试请备份。