当前位置: 首页 > news >正文

Langchain之让LLM拥有记忆

langchain的Memory

如果AI有记忆,我们就不需要手动维护一个储存消息历史的列表

让LLM拥有记忆的方法有很多,我更喜欢使用的方法是以下方案,其优点是灵活度比较高

from langchain.memory import ConversationBufferMemory
from langchain_core.prompts import ChatPromptTemplate, MessagesPlaceholder
from langchain_core.output_parsers import StrOutputParser
from langchain_core.runnables import RunnablePassthrough
from langchain_openai import ChatOpenAI
from langchain_core._api.deprecation import LangChainDeprecationWarning
import os
import dotenv
import warningswarnings.filterwarnings('ignore', category=LangChainDeprecationWarning)dotenv.load_dotenv()
api_key = os.environ.get('API_KEY')llm = ChatOpenAI(model='deepseek-chat',base_url='https://api.deepseek.com/',openai_api_key=api_key
)memory = ConversationBufferMemory(memory_key='history' ,return_messages=True)
prompts = ChatPromptTemplate.from_messages([('system','你是一个ai旅伴,现在需要你回答用户的问题,请不要输出无关的内容'),MessagesPlaceholder(variable_name='history'),('human','{text}')]
)
chain = (RunnablePassthrough.assign(history = lambda x : memory.load_memory_variables({})['history'])| prompts| llm| StrOutputParser()
)flag = Truewhile flag:msg = input('请输入:')d_end = ['再见', '结束', 'end', 'bye', 'quit', 'Bye']for i in d_end:if i in msg:flag = Falseres = chain.invoke({'text':msg})print(res)memory.save_context({'input':msg}, {'output':res})

看起来比较晦涩难懂,不过没关系,我们只需要将最重要的步骤拆机出来:

  • 定义记忆

memory = ConversationBufferMemory(memory_key='history' ,return_messages=True) #注意此处的使用方法已经被新版本遗弃,需要忽略掉这个警告
  • 定义提示词

prompts = ChatPromptTemplate.from_messages([('system','你是一个ai旅伴,现在需要你回答用户的问题,请不要输出无关的内容'),MessagesPlaceholder(variable_name='history'),('human','{text}')]
)
  • 定义链

chain = (RunnablePassthrough.assign(history = lambda x : memory.load_memory_variables({})['history'])| prompts| llm| StrOutputParser()
)
  • 保存对话

memory.save_context({'input':msg}, {'output':res})

对于输出的地方,我们要想达到流式输出的效果只需要将管道中的StrOutputParser()去掉,循环遍历res,输出遍历后的chunk.content,然后把print()中的flush参数设置为True

while True:msg = input('请输入:')if '再见'in msg or 'quit'in msg or 'Bye'in msg or 'bye' in msg:print('再见啦,希望我们的下次见面')break# print(mchat(msg=msg))res = chain.stream({'text':msg})full_str = ''for chunk in res:print(chunk.content, end='', flush=True)full_str += chunk.contentprint('\n')memory.save_context({'input':msg},{'output':full_str})
http://www.wxhsa.cn/company.asp?id=4035

相关文章:

  • 25.9.14
  • .net PublishSingleFile 打包程序提取
  • 实用指南:Java类加载机制
  • C 语言注释
  • 扫描线
  • C语言中的查找与排序算法整理
  • k8s练习
  • css-2
  • AtCoder Beginner Contest 423 ABCDEF 题目解析
  • numpy中的shape属性
  • mac 查看fat32磁盘
  • 使用Smart-Doc为Java项目生成gRPC API文档
  • 数字时钟用的什么字体
  • Python数据分析零基础完整课程大纲(详细版)【202509第1版】 - 指南
  • 详细介绍:uni-app 根据用户不同身份显示不同的tabBar
  • VSTO QQ群 61840693 解散通知【新群193203228 】
  • kettle从入门到精通 第107课 ETL之kettle json_input 一个点号引发的血案
  • 【2024-2025第二学期】助教工作学期总结
  • Clion 实现多个 main 函数执行互不影响
  • 腾讯终于对Claude code下手了?我拿它跑完一个真实项目,结果有点意外…
  • 快速利用AI读论文
  • 第一周预习作业(AI)
  • HTTP协议核心概念全解析 - 实践
  • Django过时了吗?从ASGI到AI时代的思考
  • 日常练习一部分
  • 世界史
  • 罗技M275鼠标滚轮断轴维修:建模+3D打印修复全过程
  • Unity:网络编程
  • 【比赛记录】2025CSP-S模拟赛45
  • PWN手的成长之路-01