LangChain 是大型语言模型领域中对这场革命贡献最大的库之一。它允许我们链接对模型和其他系统的调用,使我们能够基于大型语言模型构建应用程序。在课程中,我们将多次使用它,创建越来越复杂的项目。
3-1检索增强生成 (RAG):将 DataFrames 中的数据与 LLM 结合使用。 #
在本课中,我们使用 LangChain 增强了上一课中的笔记本,其中我们使用了来自两个数据集的数据来创建丰富的提示。这一次,在 LangChain 的帮助下,我们构建了一个管道,负责从向量数据库检索数据并将其传递给语言模型。该笔记本设置为使用两个不同的数据集和两个不同的模型。其中一个模型经过训练用于文本生成,而另一个模型经过训练用于 Text2Text 生成。
3-2 使用 LangChain 创建一个审核系统。 #
我们将使用由 LangChain 构建的双模型管道创建一个评论响应系统。在此设置中,第二个模型将负责审核第一个模型生成的响应。
防止我们的系统生成不必要的响应的一个有效方法是使用与用户没有直接交互的第二个模型来处理响应生成。
这种方法可以降低第一个模型响应用户输入而产生不良响应的风险。
我将为这项任务创建单独的笔记本。其中一个笔记本将涉及来自 OpenAI 的模型,其他笔记本将利用 Hugging Face 提供的开源模型。这三个笔记本中获得的结果非常不同。该系统与 OpenAI 和 LLAMA2 模型配合使用效果更好。
3-3 使用 LLM 代理创建数据分析师助理。 #
代理是大型语言模型领域中最强大的工具之一。代理能够解释用户的请求并使用可用的工具和库,直到实现预期结果。
使用 LangChain Agents,我们将仅用几行代码创建一个最简单但功能非常强大的代理。该代理将充当数据分析师助手,帮助我们分析任何 Excel 文件中包含的数据。它将能够识别趋势、使用模型、进行预测。总之,我们将创建一个简单的代理,我们可以在日常工作中使用它来分析数据。
3-4 使用 LangChain 和 ChromaDB 创建医疗聊天机器人。 #
在这个例子中,我们结合了之前见过的两种技术:代理和向量数据库。医疗信息存储在 ChromaDB 中,并创建了一个 LangChain 代理,该代理仅在必要时提取信息以创建丰富的提示,并将其发送给模型以回答用户的问题。
换句话说,创建一个 RAG 系统来协助医疗聊天机器人。