Làm cách nào để sử dụng Bộ đệm tóm tắt cuộc hội thoại trong LangChain?

Lam Cach Nao De Su Dung Bo Dem Tom Tat Cuoc Hoi Thoai Trong Langchain



LangChain là framework có tất cả các phần phụ thuộc và thư viện để xây dựng các mô hình có thể hiểu được tập dữ liệu bằng ngôn ngữ tự nhiên. Các mô hình này cũng có thể tạo văn bản bằng ngôn ngữ tự nhiên hoặc trích xuất dữ liệu giống nhau nhất dựa trên thông tin đầu vào do người dùng cung cấp. Chatbots hoặc LLM được sử dụng để xây dựng cuộc trò chuyện với con người và trích xuất bản tóm tắt cuộc trò chuyện bằng tất cả tin nhắn.

Hướng dẫn này sẽ minh họa quá trình sử dụng bộ đệm tóm tắt cuộc hội thoại trong LangChain.

Làm cách nào để sử dụng Bộ đệm tóm tắt cuộc hội thoại trong LangChain?

Cuộc hội thoại có thể bao gồm nhiều tin nhắn giống như sự tương tác giữa con người và máy và bộ đệm có thể lưu trữ những tin nhắn gần đây nhất. Các Cuộc hội thoạiTóm tắtBộ đệmBộ nhớ thư viện được sử dụng để kết hợp cả hai khái niệm như lưu trữ các tin nhắn gần đây nhất và trích xuất bản tóm tắt của chúng.







Để tìm hiểu quy trình sử dụng bộ đệm tóm tắt cuộc hội thoại trong LangChain, chỉ cần xem qua hướng dẫn sau:



Bước 1: Cài đặt mô-đun

Đầu tiên, cài đặt mô-đun LangChain bằng lệnh pip để lấy các thư viện cần thiết:



pip cài đặt langchain





Cài đặt mã thông báo tiktoken có thể được sử dụng để chia tài liệu văn bản thành các phần nhỏ:

pip cài đặt tiktoken



Sau đó, cài đặt các mô-đun OpenAI có thể được sử dụng để xây dựng các mô hình ngôn ngữ như LLM và chuỗi:

cài đặt pip openai

Hiện nay, thiết lập môi trường bằng cách lấy khóa API từ tài khoản OpenAI và sử dụng nó trong mô hình:

nhập khẩu Bạn
nhập khẩu vượt qua

Bạn . khoảng [ 'OPENAI_API_KEY' ] = vượt qua . vượt qua ( 'Khóa API OpenAI:' )

Bước 2: Sử dụng bộ đệm tóm tắt cuộc hội thoại

Bắt đầu quá trình sử dụng bộ đệm tóm tắt cuộc hội thoại bằng cách nhập thư viện để xây dựng LLM bằng phương thức OpenAI():

từ langchain. ký ức nhập khẩu Cuộc hội thoạiTóm tắtBộ đệmBộ nhớ

từ langchain. llms nhập khẩu OpenAI

ừm = OpenAI ( )

Xây dựng bộ nhớ bằng phương thức ConversationSummaryBufferMemory() rồi lưu trữ cuộc hội thoại vào bộ nhớ:

ký ức = Cuộc hội thoạiTóm tắtBộ đệmBộ nhớ ( ừm = ừm , max_token_limit = 10 )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Xin chào' } , { 'đầu ra' : 'Bạn dạo này thế nào' } )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Tôi ổn Còn bạn thì sao' } , { 'đầu ra' : 'không nhiều' } )

Bây giờ, thực thi bộ nhớ bằng cách gọi tải_memory_variables () để trích xuất tin nhắn từ bộ nhớ:

ký ức. tải_memory_variables ( { } )

Bây giờ, hãy sử dụng bản tóm tắt bộ đệm của cuộc hội thoại để định cấu hình bộ đệm bằng cách giới hạn số lượng tin nhắn được lưu trữ trong bộ đệm. Sau đó, trích xuất bản tóm tắt các tin nhắn này được lưu trong bộ đệm rồi lưu cuộc hội thoại vào bộ nhớ:

ký ức = Cuộc hội thoạiTóm tắtBộ đệmBộ nhớ (

ừm = ừm , max_token_limit = 10 , return_messages = ĐÚNG VẬY

)

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Xin chào' } , { 'đầu ra' : 'Bạn dạo này thế nào' } )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Tôi ổn Còn bạn thì sao' } , { 'đầu ra' : 'không nhiều' } )

Lấy bản tóm tắt các tin nhắn trước đó được lưu trong bộ nhớ đệm bằng mã sau:

tin nhắn = ký ức. trò chuyện_bộ nhớ . tin nhắn

trước_tóm tắt = ''

ký ức. dự đoán_new_tóm tắt ( tin nhắn , trước_tóm tắt )

Bước 3: Sử dụng bộ đệm tóm tắt cuộc hội thoại trong chuỗi

Xây dựng chuỗi bằng cách sử dụng Chuỗi hội thoại() phương thức chứa giá trị cho bộ nhớ đệm để lưu trữ thông báo trong đó:

từ langchain. dây chuyền nhập khẩu Chuỗi hội thoại

cuộc trò chuyện_với_tóm tắt = Chuỗi hội thoại (
ừm = ừm ,
ký ức = Cuộc hội thoạiTóm tắtBộ đệmBộ nhớ ( ừm = OpenAI ( ) , max_token_limit = 40 ) ,
dài dòng = ĐÚNG VẬY ,
)
cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Xin chào, có chuyện gì thế?' )

Cung cấp thông tin đầu vào dưới dạng văn bản bằng phương thức dự đoán() để có được bản tóm tắt của cuộc hội thoại:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Chỉ đang làm việc trên dự án NLP' )

Sử dụng đầu ra từ mô hình và thêm nhiều dữ liệu hơn bằng cách sử dụng các thông báo trong bộ nhớ đệm và hiển thị tóm tắt của nó:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'đúng rồi! Tôi đang thiết kế LLM' )

Tóm lại là đầu ra sẽ dễ hiểu, thân thiện với con người hơn và phù hợp hơn với chatbot:

cuộc trò chuyện_với_tóm tắt. dự đoán (

đầu vào = 'Tôi muốn sử dụng LangChain! Bạn đã nghe nói về nó chưa'

)

Đó là tất cả về việc sử dụng bộ đệm tóm tắt cuộc hội thoại trong LangChain.

Phần kết luận

Để sử dụng bộ nhớ đệm tóm tắt cuộc hội thoại trong LangChain, chỉ cần cài đặt các mô-đun hoặc khung để có được các thư viện cần thiết. Sau khi nhập thư viện, hãy xây dựng LLM hoặc chatbot để sử dụng hàm ConverstaionSummaryBufferMemory() nhằm nhận bản tóm tắt của cuộc hội thoại. Bộ nhớ đệm được sử dụng để giới hạn số lượng tin nhắn được lưu trong bộ nhớ dùng để trích xuất bản tóm tắt. Bài đăng này đã trình bày chi tiết về quy trình sử dụng bộ nhớ đệm tóm tắt cuộc hội thoại trong LangChain.