LLM 可以根据一般知识或有限的训练数据编造信息。换句话说,它可以假设自己知道一些事情,但事实并非如此。
假设有客户询问我们的名称服务器是什么。LLM 的知识库中没有这些确切的信息,但它知道名称服务器的默认形式,因此它会自信地回答:“正确的 Hostinger 名称服务器是 ns1.hostinger.com、ns2.hostinger.com、ns3.hostinger.com 和 ns4.hostinger.com。请在注册域名的平台的域名管理部分中更新这些内容。”
同时,我们的名称服务器是 ns1.dns-parking.com 和 ns2.dns-parking.com。
我们有一个RAG 系统来控制幻觉。它根据相似性从矢量数据库中提取文档,并将其交给助手作为参考,以指导助手生成响应。
温度控制通过管理人工智能的创造力来减少不准确性:设置越接近 1,响应就越有创意;越接近零,响应就越确定。换句话说,如果你将温度设置为接近 1,由于概率分布,即使是相同的问题,答案也几乎永远不会匹配。
尽管在某些情况下可能会有益
但将温度设置为接近 1 会增加不准确的可能性。
RAG 系统的工作原理以及它解决上述幻觉的方法如下:
RAG系统架构。
该方案说明了整个过程,将其分解为系统的、相互关联的组成部分,这些组成部分共同作用以提供丰富的、符合情境的响应。
该过程从我们的数据来源开始,其中包括各种数据存储库、数据库甚至网站数据。嵌入过程将这些原始数据转换为密集的矢量表示,从而捕获内容的语义含义。
然后,将数据嵌入到向量(数据的数字语义摘要)和 企业电子邮件列表 元数据(即上下文信息,例如源、时间戳或类别)中。
我们将向量和元数据存储在向量数据库中,该数据库旨在处理大规模复杂数据。我们使用 Milvus。索引过程包括:
元数据索引——为元数据创建可搜索的索引。
向量索引—— 创建索引以快速找到相似的向量。
当收到查询时,无论是元数据还是文本,系统都会将其转换为矢量格式。这样可以轻松进行比较。
然后,矢量数据库使用近似最近邻 (ANN) 搜索等技术来快速找到最相似的矢量及其相关元数据。
这些检索到的相关文档和信息为LLM提供了背景,并通过精确、上下文丰富的信息增强了其响应。
此过程可确保 LLM 提供更具信息性、最新性和情境感知性的答案,从而提高整体交互质量。
利用法学硕士学位改进人工智能助手
数据分析在提高 AI 聊天助手的质量方面发挥着关键作用。通过详 旨在让智能思考变得轻松 细分析日志和 LLM 响应,我们可以准确了解哪里出了问题以及需要改进的地方。我们手动和使用 LLM 自动完成此操作。
我们将对话分为不同主题,以便团队可以评估客户最常问的问题,确定 Kodee 能回答好哪些问题,以及确定哪些问题需要改进。
我们还聘请 LLM 来评估 Kodee 的答案及其准确性、完整性、语气和参 选择加入列表 考资料。借助 GPT 比较功能,我们评估 Kodee 的答案,并根据我们的标准将其与现场代理提供的答案进行比较。我们还添加了其他步另项重要任务是减少 骤来验证参考资料。