Làm cách nào để thêm trạng thái bộ nhớ trong chuỗi bằng LangChain?

Lam Cach Nao De Them Trang Thai Bo Nho Trong Chuoi Bang Langchain



LangChain cho phép các nhà phát triển xây dựng các mô hình trò chuyện có thể trò chuyện với con người bằng ngôn ngữ tự nhiên. Để có một cuộc trò chuyện hiệu quả, mô hình cần có bộ nhớ về nơi lưu trữ bối cảnh của cuộc trò chuyện. Các mô hình LangChain có thể lưu trữ các tin nhắn trò chuyện dưới dạng quan sát để đầu ra luôn nằm trong bối cảnh của cuộc trò chuyện

Hướng dẫn này sẽ minh họa quá trình tải chuỗi từ LangChain Hub.

Làm cách nào để thêm trạng thái bộ nhớ trong chuỗi bằng LangChain?

Trạng thái bộ nhớ có thể được sử dụng để khởi tạo chuỗi vì nó có thể tham chiếu đến giá trị gần đây được lưu trữ trong chuỗi sẽ được sử dụng trong khi trả về đầu ra. Để tìm hiểu quy trình thêm trạng thái bộ nhớ vào chuỗi bằng khung LangChain, bạn chỉ cần xem qua hướng dẫn dễ dàng này:







Bước 1: Cài đặt mô-đun

Đầu tiên, bắt đầu quá trình bằng cách cài đặt khung LangChain với các phần phụ thuộc của nó bằng lệnh pip:



pip cài đặt langchain



Đồng thời cài đặt mô-đun OpenAI để có được các thư viện có thể được sử dụng để thêm trạng thái bộ nhớ trong chuỗi:





cài đặt pip openai

Nhận khóa API từ tài khoản OpenAI và thiết lập môi trường sử dụng nó để các chuỗi có thể truy cập nó:



nhập khẩu Bạn

nhập khẩu vượt qua

Bạn . khoảng [ 'OPENAI_API_KEY' ] = vượt qua . vượt qua ( 'Khóa API OpenAI:' )

Bước này rất quan trọng để mã hoạt động bình thường.

Bước 2: Nhập thư viện

Sau khi thiết lập môi trường, chỉ cần nhập các thư viện để thêm trạng thái bộ nhớ như LLMChain, ConversationBufferMemory, v.v.:

từ langchain. dây chuyền nhập khẩu Chuỗi hội thoại

từ langchain. ký ức nhập khẩu Bộ nhớ đệm hội thoại

từ langchain. chat_models nhập khẩu Trò chuyệnOpenAI

từ langchain. dây chuyền . ừm nhập khẩu Chuỗi LLM

từ langchain. lời nhắc nhập khẩu Mẫu nhắc nhở

Bước 3: Xây dựng chuỗi

Bây giờ, chỉ cần xây dựng chuỗi cho LLM bằng phương thức OpenAI() và mẫu lời nhắc bằng cách sử dụng truy vấn để gọi chuỗi:

trò chuyện = Trò chuyệnOpenAI ( nhiệt độ = 0 )

nhắc_mẫu = 'Viết một câu chuyện cười {style}'

llm_chain = Chuỗi LLM ( ừm = trò chuyện , lời nhắc = PromTemplate. từ_mẫu ( nhắc_mẫu ) )

llm_chain ( đầu vào = { 'phong cách' : 'xưa' } )

Mô hình đã hiển thị đầu ra bằng mô hình LLM như trong ảnh chụp màn hình bên dưới:

Bước 4: Thêm trạng thái bộ nhớ

Ở đây chúng ta sẽ thêm trạng thái bộ nhớ vào chuỗi bằng phương thức ConversationBufferMemory() và chạy chuỗi để lấy 3 màu từ cầu vồng:

cuộc hội thoại = Chuỗi hội thoại (

ừm = trò chuyện ,

ký ức = Bộ nhớ đệm hội thoại ( )

)

cuộc hội thoại. chạy ( 'Hãy nói ngắn gọn về 3 màu sắc của cầu vồng' )

Mô hình chỉ hiển thị ba màu của cầu vồng và bối cảnh được lưu trong bộ nhớ của chuỗi:

Ở đây chúng ta đang chạy chuỗi với một lệnh không rõ ràng là “ 4 người còn lại? ” do đó, bản thân mô hình sẽ lấy bối cảnh từ bộ nhớ và hiển thị các màu cầu vồng còn lại:

cuộc hội thoại. chạy ( '4 người còn lại?' )

Mô hình đã thực hiện chính xác điều đó vì nó hiểu ngữ cảnh và trả về bốn màu còn lại từ bộ cầu vồng:

Đó là tất cả về việc tải chuỗi từ LangChain Hub.

Phần kết luận

Để thêm bộ nhớ theo chuỗi bằng khung LangChain, chỉ cần cài đặt các mô-đun để thiết lập môi trường xây dựng LLM. Sau đó, nhập các thư viện cần thiết để xây dựng chuỗi trong LLM rồi thêm trạng thái bộ nhớ vào đó. Sau khi thêm trạng thái bộ nhớ vào chuỗi, chỉ cần đưa ra một lệnh cho chuỗi để nhận đầu ra, sau đó đưa ra một lệnh khác trong ngữ cảnh của lệnh trước đó để nhận được phản hồi chính xác. Bài đăng này đã trình bày chi tiết về quy trình thêm trạng thái bộ nhớ vào chuỗi bằng cách sử dụng khung LangChain.