Làm cách nào để sử dụng bộ nhớ trong LLMChain thông qua LangChain?

Lam Cach Nao De Su Dung Bo Nho Trong Llmchain Thong Qua Langchain



LangChain là khung có thể được sử dụng để nhập các thư viện và phần phụ thuộc nhằm xây dựng Mô hình ngôn ngữ lớn hoặc LLM. Các mô hình ngôn ngữ sử dụng bộ nhớ để lưu trữ dữ liệu hoặc lịch sử trong cơ sở dữ liệu dưới dạng quan sát nhằm lấy bối cảnh của cuộc trò chuyện. Bộ nhớ được cấu hình để lưu trữ các tin nhắn gần đây nhất để mô hình có thể hiểu được những lời nhắc mơ hồ do người dùng đưa ra.

Blog này giải thích quá trình sử dụng bộ nhớ trong LLMChain thông qua LangChain.







Làm cách nào để sử dụng bộ nhớ trong LLMChain thông qua LangChain?

Để thêm bộ nhớ và sử dụng nó trong LLMChain thông qua LangChain, bạn có thể sử dụng thư viện ConversationBufferMemory bằng cách nhập nó từ LangChain.



Để tìm hiểu quy trình sử dụng bộ nhớ trong LLMChain thông qua LangChain, hãy xem hướng dẫn sau:



Bước 1: Cài đặt mô-đun

Đầu tiên, bắt đầu quá trình sử dụng bộ nhớ bằng cách cài đặt LangChain bằng lệnh pip:





pip cài đặt langchain

Cài đặt các mô-đun OpenAI để lấy các phần phụ thuộc hoặc thư viện để xây dựng LLM hoặc mô hình trò chuyện:



cài đặt pip openai

Thiết lập môi trường đối với OpenAI bằng cách sử dụng khóa API bằng cách nhập thư viện os và getpass:

nhập khẩu chúng tôi
nhập khẩu

os.environ['OPENAI_API_KEY'] = getpass.getpass('Khóa API OpenAI:')

Bước 2: Nhập thư viện

Sau khi thiết lập môi trường, chỉ cần nhập các thư viện như ConversationBufferMemory từ LangChain:

từ langchain.chains nhập LLMChain
từ langchain.llms nhập OpenAI

từ nhập langchain.memory ConversationBufferMemory

từ langchain.prompts nhập NhắcTemplate

Định cấu hình mẫu cho lời nhắc bằng cách sử dụng các biến như “đầu vào” để nhận truy vấn từ người dùng và “lịch sử” để lưu trữ dữ liệu trong bộ nhớ đệm:

template = '''Bạn là Người mẫu đang trò chuyện với con người

{lịch sử}
Con người: {đầu vào}
Chatbot:'''

nhắc = NhắcTemplate(
input_variables=['hist', 'input'], template=template
)
bộ nhớ = ConversationBufferMemory(memory_key='hist')

Bước 3: Định cấu hình LLM

Sau khi mẫu cho truy vấn được tạo, hãy định cấu hình phương thức LLMChain() bằng nhiều tham số:

llm = OpenAI()
llm_chain = LLMChain(
llm=llm,
nhắc=nhắc,
dài dòng=Đúng,
bộ nhớ=bộ nhớ,
)

Bước 4: Kiểm tra LLMChain

Sau đó, kiểm tra LLMChain bằng biến đầu vào để nhận lời nhắc từ người dùng ở dạng văn bản:

llm_chain.predict(input='Xin chào bạn của tôi')

Sử dụng đầu vào khác để lấy dữ liệu được lưu trong bộ nhớ để trích xuất đầu ra bằng ngữ cảnh:

llm_chain.predict(input='Tốt! Tôi ổn - bạn khỏe không')

Bước 5: Thêm bộ nhớ vào mô hình trò chuyện

Bộ nhớ có thể được thêm vào LLMChain dựa trên mô hình trò chuyện bằng cách nhập các thư viện:

từ langchain.chat_models nhập ChatOpenAI
từ nhập langchain.schema SystemMessage
từ langchain.prompts nhập ChatPromptTemplate, HumanMessagePromptTemplate, MessagesPlaceholder

Định cấu hình mẫu lời nhắc bằng cách sử dụng ConversationBufferMemory() bằng các biến khác nhau để đặt dữ liệu đầu vào từ người dùng:

nhắc = ChatPromptTemplate.from_messages([
SystemMessage(content='Bạn là Người mẫu đang trò chuyện với con người'),
MessagesPlaceholder(variable_),
HumanMessagePromptTemplate.from_template('{input}'),
])

bộ nhớ = ConversationBufferMemory(memory_key='hist', return_messages=True)

Bước 6: Định cấu hình LLMChain

Thiết lập phương thức LLMChain() để định cấu hình mô hình bằng các đối số và tham số khác nhau:

llm = Trò chuyệnOpenAI()

chat_llm_chain = LLMChain(
llm=llm,
nhắc=nhắc,
dài dòng=Đúng,
bộ nhớ=bộ nhớ,
)

Bước 7: Kiểm tra LLMChain

Cuối cùng, chỉ cần kiểm tra LLMChain bằng dữ liệu đầu vào để mô hình có thể tạo văn bản theo lời nhắc:

chat_llm_chain.predict(input='Xin chào bạn của tôi')

Mô hình đã lưu cuộc hội thoại trước đó vào bộ nhớ và hiển thị nó trước đầu ra thực tế của truy vấn:

llm_chain.predict(input='Tốt! Tôi ổn - bạn khỏe không')

Đó là tất cả về việc sử dụng bộ nhớ trong LLMChain bằng LangChain.

Phần kết luận

Để sử dụng bộ nhớ trong LLMChain thông qua khung LangChain, chỉ cần cài đặt các mô-đun để thiết lập môi trường nhằm lấy các phần phụ thuộc từ các mô-đun. Sau đó, chỉ cần nhập thư viện từ LangChain để sử dụng bộ nhớ đệm lưu trữ cuộc trò chuyện trước đó. Người dùng cũng có thể thêm bộ nhớ vào mô hình trò chuyện bằng cách xây dựng LLMChain và sau đó kiểm tra chuỗi bằng cách cung cấp đầu vào. Hướng dẫn này đã trình bày chi tiết về quy trình sử dụng bộ nhớ trong LLMChain thông qua LangChain.