Làm cách nào để sử dụng cửa sổ bộ đệm hội thoại trong LangChain?

Lam Cach Nao De Su Dung Cua So Bo Dem Hoi Thoai Trong Langchain



LangChain là framework có thể được sử dụng trong sổ ghi chép Python để đào tạo các mô hình ngôn ngữ hoặc chatbot sử dụng mô hình học máy. Những mô hình ngôn ngữ này được sử dụng để trò chuyện với con người bằng ngôn ngữ tự nhiên của họ sau khi đào tạo họ bằng ngôn ngữ giống con người. Bài đăng này sẽ minh họa quá trình sử dụng cửa sổ bộ đệm hội thoại trong LangChain.

Làm cách nào để sử dụng cửa sổ bộ đệm hội thoại trong LangChain?

Cửa sổ bộ đệm hội thoại được sử dụng để lưu giữ các tin nhắn gần đây nhất của cuộc hội thoại trong bộ nhớ nhằm lấy bối cảnh gần đây nhất. Nó sử dụng giá trị của K để lưu trữ các tin nhắn hoặc chuỗi trong bộ nhớ bằng khung LangChain.

Để tìm hiểu quy trình sử dụng cửa sổ bộ đệm hội thoại trong LangChain, chỉ cần xem qua hướng dẫn sau:







Bước 1: Cài đặt mô-đun

Bắt đầu quá trình sử dụng cửa sổ bộ đệm hội thoại bằng cách cài đặt mô-đun LangChain với các phần phụ thuộc cần thiết để xây dựng mô hình hội thoại:



pip cài đặt langchain



Sau đó, cài đặt mô-đun OpenAI có thể được sử dụng để xây dựng Mô hình ngôn ngữ lớn trong LangChain:





cài đặt pip openai

Hiện nay, thiết lập môi trường OpenAI để xây dựng chuỗi LLM bằng khóa API từ tài khoản OpenAI:



nhập khẩu Bạn
nhập khẩu vượt qua

Bạn . khoảng [ 'OPENAI_API_KEY' ] = vượt qua . vượt qua ( 'Khóa API OpenAI:' )

Bước 2: Sử dụng bộ nhớ cửa sổ đệm hội thoại

Để sử dụng bộ nhớ cửa sổ bộ đệm hội thoại trong LangChain, hãy nhập Hội thoạiBộ đệmCửa sổBộ nhớ thư viện:

từ langchain. ký ức nhập khẩu Hội thoạiBộ đệmCửa sổBộ nhớ

Cấu hình bộ nhớ bằng cách sử dụng Hội thoạiBộ đệmCửa sổBộ nhớ () với giá trị k làm đối số. Giá trị của k sẽ được sử dụng để giữ các tin nhắn gần đây nhất từ ​​​​cuộc trò chuyện và sau đó định cấu hình dữ liệu huấn luyện bằng cách sử dụng các biến đầu vào và đầu ra:

ký ức = Hội thoạiBộ đệmCửa sổBộ nhớ ( k = 1 )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Xin chào' } , { 'đầu ra' : 'Bạn dạo này thế nào' } )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Tôi ổn Còn bạn thì sao' } , { 'đầu ra' : 'không nhiều' } )

Kiểm tra bộ nhớ bằng cách gọi tải_memory_variables () để bắt đầu cuộc trò chuyện:

ký ức. tải_memory_variables ( { } )

Để lấy lịch sử cuộc trò chuyện, hãy định cấu hình hàm ConversationBufferWindowMemory() bằng cách sử dụng hàm return_messages lý lẽ:

ký ức = Hội thoạiBộ đệmCửa sổBộ nhớ ( k = 1 , return_messages = ĐÚNG VẬY )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'CHÀO' } , { 'đầu ra' : 'Có chuyện gì vậy' } )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'không nhiều đâu bạn' } , { 'đầu ra' : 'không nhiều' } )

Bây giờ, hãy gọi bộ nhớ bằng cách sử dụng tải_memory_variables () để nhận phản hồi với lịch sử của cuộc trò chuyện:

ký ức. tải_memory_variables ( { } )

Bước 3: Sử dụng cửa sổ bộ đệm trong chuỗi

Xây dựng chuỗi bằng cách sử dụng OpenAI Chuỗi hội thoại thư viện rồi định cấu hình bộ nhớ đệm để lưu trữ các tin nhắn gần đây nhất trong cuộc hội thoại:

từ langchain. dây chuyền nhập khẩu Chuỗi hội thoại
từ langchain. llms nhập khẩu OpenAI
#xây dựng tóm tắt cuộc trò chuyện bằng nhiều tham số
cuộc trò chuyện_với_tóm tắt = Chuỗi hội thoại (
ừm = OpenAI ( nhiệt độ = 0 ) ,
#building bộ nhớ đệm sử dụng chức năng của nó với giá trị k để lưu trữ các tin nhắn gần đây
ký ức = Hội thoạiBộ đệmCửa sổBộ nhớ ( k = 2 ) ,
#configure biến dài dòng để có kết quả dễ đọc hơn
dài dòng = ĐÚNG VẬY
)
cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Chào, có chuyện gì vậy' )

Bây giờ hãy tiếp tục cuộc trò chuyện bằng cách đặt câu hỏi liên quan đến kết quả đầu ra do mô hình cung cấp:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Vấn đề của họ là gì' )

Mô hình được định cấu hình để chỉ lưu trữ một tin nhắn trước đó có thể được sử dụng làm ngữ cảnh:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Chuyện đó sẽ tốt chứ' )

Yêu cầu giải pháp cho vấn đề và cấu trúc đầu ra sẽ tiếp tục trượt cửa sổ bộ đệm bằng cách xóa các thông báo trước đó:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Giải pháp là gì' )

Đó là tất cả về quá trình sử dụng bộ đệm hội thoại windows LangChain.

Phần kết luận

Để sử dụng bộ nhớ cửa sổ bộ đệm hội thoại trong LangChain, chỉ cần cài đặt các mô-đun và thiết lập môi trường bằng khóa API của OpenAI. Sau đó, tạo bộ nhớ đệm bằng cách sử dụng giá trị k để giữ các tin nhắn gần đây nhất trong cuộc trò chuyện nhằm giữ nguyên ngữ cảnh. Bộ nhớ đệm cũng có thể được sử dụng với chuỗi để bắt đầu cuộc trò chuyện với LLM hoặc chuỗi. Hướng dẫn này đã trình bày chi tiết về quy trình sử dụng cửa sổ bộ đệm hội thoại trong LangChain.