Làm cách nào để sử dụng Tóm tắt cuộc hội thoại trong LangChain?

Lam Cach Nao De Su Dung Tom Tat Cuoc Hoi Thoai Trong Langchain



LangChain là framework có thể được sử dụng để xây dựng các mô hình ngôn ngữ bằng cách sử dụng số lượng lớn bộ dữ liệu đào tạo được xây dựng bằng ngôn ngữ tự nhiên. LangChain cung cấp các thư viện và phần phụ thuộc có thể được sử dụng để xây dựng và quản lý các chatbot cũng như mô hình ngôn ngữ như LLM. Những mô hình này hầu hết được coi là những cỗ máy thực hiện cuộc trò chuyện hoặc trích xuất một số thông tin dựa trên lời nhắc được viết bằng ngôn ngữ giống con người.

Hướng dẫn này sẽ minh họa quá trình sử dụng bản tóm tắt cuộc hội thoại trong LangChain.

Làm cách nào để sử dụng Tóm tắt cuộc hội thoại trong LangChain?

LangChain cung cấp các thư viện như ConversationSummaryMemory có thể trích xuất bản tóm tắt đầy đủ về cuộc trò chuyện hoặc cuộc trò chuyện. Nó có thể được sử dụng để lấy thông tin chính của cuộc trò chuyện mà không cần phải đọc tất cả tin nhắn và văn bản có sẵn trong cuộc trò chuyện.







Để tìm hiểu quy trình sử dụng tóm tắt cuộc trò chuyện trong LangChain, chỉ cần thực hiện các bước sau:



Bước 1: Cài đặt mô-đun

Trước tiên, hãy cài đặt khung LangChain để nhận các phần phụ thuộc hoặc thư viện của nó bằng mã sau:



pip cài đặt langchain





Bây giờ, hãy cài đặt các mô-đun OpenAI sau khi cài đặt LangChain bằng lệnh pip:

cài đặt pip openai



Sau khi cài đặt các mô-đun, chỉ cần thiết lập môi trường sử dụng đoạn mã sau sau khi nhận được khóa API từ tài khoản OpenAI:

nhập khẩu Bạn

nhập khẩu vượt qua

Bạn . khoảng [ 'OPENAI_API_KEY' ] = vượt qua . vượt qua ( 'Khóa API OpenAI:' )

Bước 2: Sử dụng Tóm tắt cuộc hội thoại

Tham gia vào quá trình sử dụng tóm tắt cuộc trò chuyện bằng cách nhập thư viện từ LangChain:

từ langchain. ký ức nhập khẩu Cuộc trò chuyệnTóm tắtBộ nhớ , Trò chuyệnTin nhắnLịch sử

từ langchain. llms nhập khẩu OpenAI

Định cấu hình bộ nhớ của mô hình bằng các phương thức ConversationSummaryMemory() và OpenAI() và lưu dữ liệu trong đó:

ký ức = Cuộc trò chuyệnTóm tắtBộ nhớ ( ừm = OpenAI ( nhiệt độ = 0 ) )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Xin chào' } , { 'đầu ra' : 'CHÀO' } )

Chạy bộ nhớ bằng cách gọi Load_memory_variables() phương pháp trích xuất dữ liệu từ bộ nhớ:

ký ức. tải_memory_variables ( { } )

Người dùng cũng có thể lấy dữ liệu dưới dạng hội thoại như từng thực thể bằng một tin nhắn riêng:

ký ức = Cuộc trò chuyệnTóm tắtBộ nhớ ( ừm = OpenAI ( nhiệt độ = 0 ) , return_messages = ĐÚNG VẬY )

ký ức. lưu_bối cảnh ( { 'đầu vào' : 'Xin chào' } , { 'đầu ra' : 'Chào, bạn thế nào rồi' } )

Để nhận thông báo của AI và con người một cách riêng biệt, hãy thực thi phương thức Load_memory_variables():

ký ức. tải_memory_variables ( { } )

Lưu tóm tắt cuộc trò chuyện vào bộ nhớ rồi thực thi bộ nhớ để hiển thị tóm tắt cuộc trò chuyện/cuộc trò chuyện trên màn hình:

tin nhắn = ký ức. trò chuyện_bộ nhớ . tin nhắn

trước_tóm tắt = ''

ký ức. dự đoán_new_tóm tắt ( tin nhắn , trước_tóm tắt )

Bước 3: Sử dụng Tóm tắt cuộc hội thoại với các tin nhắn hiện có

Người dùng cũng có thể nhận được bản tóm tắt cuộc trò chuyện tồn tại bên ngoài lớp học hoặc trò chuyện bằng tin nhắn ChatMessageHistory(). Những tin nhắn này có thể được thêm vào bộ nhớ để nó có thể tự động tạo bản tóm tắt của cuộc trò chuyện hoàn chỉnh:

lịch sử = Trò chuyệnTin nhắnLịch sử ( )

lịch sử. add_user_message ( 'CHÀO' )

lịch sử. add_ai_message ( 'Chào bạn!' )

Xây dựng mô hình như LLM bằng phương thức OpenAI() để thực thi các thông báo hiện có trong trò chuyện_bộ nhớ Biến đổi:

ký ức = Cuộc trò chuyệnTóm tắtBộ nhớ. từ_tin ​​nhắn (
ừm = OpenAI ( nhiệt độ = 0 ) ,
trò chuyện_bộ nhớ = lịch sử ,
return_messages = ĐÚNG VẬY
)

Thực thi bộ nhớ bằng bộ đệm để lấy bản tóm tắt các tin nhắn hiện có:

ký ức. đệm

Thực thi đoạn mã sau để xây dựng LLM bằng cách định cấu hình bộ nhớ đệm bằng tin nhắn trò chuyện:

ký ức = Cuộc trò chuyệnTóm tắtBộ nhớ (
ừm = OpenAI ( nhiệt độ = 0 ) ,
đệm = '''Con người hỏi máy hỏi về chính mình
Hệ thống trả lời rằng AI được xây dựng vì mục đích tốt đẹp vì nó có thể giúp con người phát huy hết tiềm năng của mình'''
,
trò chuyện_bộ nhớ = lịch sử ,
return_messages = ĐÚNG VẬY
)

Bước 4: Sử dụng Tóm tắt cuộc hội thoại theo chuỗi

Bước tiếp theo giải thích quy trình sử dụng bản tóm tắt cuộc trò chuyện trong chuỗi bằng LLM:

từ langchain. llms nhập khẩu OpenAI
từ langchain. dây chuyền nhập khẩu Chuỗi hội thoại
ừm = OpenAI ( nhiệt độ = 0 )
cuộc trò chuyện_với_tóm tắt = Chuỗi hội thoại (
ừm = ừm ,
ký ức = Cuộc trò chuyệnTóm tắtBộ nhớ ( ừm = OpenAI ( ) ) ,
dài dòng = ĐÚNG VẬY
)
cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Chào bạn khỏe không' )

Ở đây chúng tôi đã bắt đầu xây dựng chuỗi bằng cách bắt đầu cuộc trò chuyện bằng một câu hỏi lịch sự:

Bây giờ hãy bắt đầu cuộc trò chuyện bằng cách hỏi thêm một chút về kết quả cuối cùng để mở rộng về nó:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Nói thêm cho tôi về điều đó!' )

Mô hình đã giải thích tin nhắn cuối cùng với phần giới thiệu chi tiết về công nghệ AI hoặc chatbot:

Trích xuất một điểm quan tâm từ kết quả trước đó để đưa cuộc trò chuyện theo một hướng cụ thể:

cuộc trò chuyện_với_tóm tắt. dự đoán ( đầu vào = 'Thật ngạc nhiên Dự án này tốt đến mức nào?' )

Ở đây chúng tôi đang nhận được câu trả lời chi tiết từ bot bằng thư viện bộ nhớ tóm tắt cuộc trò chuyện:

Đó là tất cả về việc sử dụng bản tóm tắt cuộc trò chuyện trong LangChain.

Phần kết luận

Để sử dụng thông báo tóm tắt cuộc trò chuyện trong LangChain, chỉ cần cài đặt các mô-đun và khung cần thiết để thiết lập môi trường. Sau khi môi trường được thiết lập, hãy nhập Cuộc trò chuyệnTóm tắtBộ nhớ thư viện để xây dựng LLM bằng phương pháp OpenAI(). Sau đó, chỉ cần sử dụng bản tóm tắt cuộc trò chuyện để trích xuất đầu ra chi tiết từ các mô hình là bản tóm tắt của cuộc trò chuyện trước đó. Hướng dẫn này đã trình bày chi tiết về quy trình sử dụng bộ nhớ tóm tắt cuộc hội thoại bằng mô-đun LangChain.