Làm cách nào để xây dựng LLM và LLMChain trong LangChain?

Lam Cach Nao De Xay Dung Llm Va Llmchain Trong Langchain



LangChain là khuôn khổ với ứng dụng trong miền Xử lý ngôn ngữ tự nhiên hoặc NLP để xây dựng các mô hình bằng ngôn ngữ giống con người. Những mô hình này có thể được con người sử dụng để nhận câu trả lời từ mô hình hoặc trò chuyện như bất kỳ con người nào khác. LangChain được sử dụng để xây dựng chuỗi bằng cách lưu trữ từng câu trong cuộc trò chuyện và tương tác sâu hơn bằng cách sử dụng câu đó làm ngữ cảnh.

Bài đăng này sẽ minh họa quá trình xây dựng LLM và LLMChain trong LangChain.







Làm cách nào để xây dựng LLM và LLMChain trong LangChain?

Để xây dựng LLM và LLMChain trong LangChain, chỉ cần thực hiện các bước được liệt kê:



Bước 1: Cài đặt mô-đun

Đầu tiên, cài đặt mô-đun LangChain để sử dụng các thư viện của nó nhằm xây dựng LLM và LLMChain:



pip cài đặt langchain





Một mô-đun khác cần thiết để xây dựng LLM là OpenAI và nó có thể được cài đặt bằng lệnh pip:

cài đặt pip openai



Bước 2: Thiết lập môi trường

Thiết lập môi trường bằng khóa API OpenAI từ môi trường của nó:

nhập khẩu chúng tôi
nhập getpassos.environ['OPENAI_API_KEY'] = getpass.getpass('Khóa API OpenAI:')

Ví dụ 1: Xây dựng LLM bằng LangChain

Ví dụ đầu tiên là xây dựng Mô hình ngôn ngữ lớn bằng LangChain bằng cách nhập thư viện OpenAI và ChatOpenAI và sử dụng hàm llm():

Bước 1: Sử dụng Mô hình trò chuyện LLM

Nhập mô-đun OpenAI và ChatOpenAI để xây dựng LLM đơn giản bằng môi trường OpenAI từ LangChain:

từ langchain.chat_models nhập ChatOpenAI

từ langchain.llms nhập OpenAI

llm = OpenAI()
chat_model=Trò chuyệnOpenAI()
llm.predict('xin chào!')

Người mẫu đã trả lời bằng câu trả lời “xin chào” như được hiển thị trong ảnh chụp màn hình bên dưới:

Hàm dự đoán() từ chat_model được sử dụng để nhận câu trả lời hoặc phản hồi từ mô hình:

chat_model.predict('xin chào!')

Đầu ra hiển thị rằng mô hình được người dùng sử dụng để đặt câu hỏi:

Bước 2: Sử dụng truy vấn văn bản

Người dùng cũng có thể nhận câu trả lời từ mô hình bằng cách đưa ra câu hoàn chỉnh trong biến văn bản:

text = 'Tên công ty hay cho một công ty sản xuất tất nhiều màu sắc sẽ là gì?'

llm.predict(văn bản)

Mẫu đã hiển thị nhiều cách kết hợp màu sắc cho những chiếc tất nhiều màu sắc:

Nhận câu trả lời chi tiết từ mô hình bằng cách sử dụng hàm dự đoán() với sự kết hợp màu sắc cho tất:

chat_model.predict(văn bản)

Bước 3: Sử dụng văn bản có nội dung

Người dùng có thể nhận được câu trả lời kèm theo một chút giải thích về câu trả lời:

từ nhập langchain.schema HumanMessage

text = 'Tiêu đề hay cho một công ty sản xuất quần áo nhiều màu sắc sẽ là gì'
tin nhắn = [HumanMessage(content=text)]

llm.predict_messages(tin nhắn)

Người mẫu đã đặt tên cho công ty là “Creative Clothing Co”:

Dự đoán tin nhắn để nhận được câu trả lời cho tiêu đề của công ty kèm theo lời giải thích:

chat_model.predict_messages(tin nhắn)

Ví dụ 2: Xây dựng LLMChain bằng LangChain

Ví dụ thứ hai trong hướng dẫn của chúng tôi xây dựng LLMChain để lấy mô hình ở định dạng tương tác giữa con người với nhau để kết hợp tất cả các bước từ ví dụ trước:

từ langchain.chat_models nhập ChatOpenAI
từ langchain.prompts.chat nhập ChatPromptTemplate
từ langchain.prompts.chat nhập ChatPromptTemplate
từ nhập langchain.prompts.chat  SystemMessagePromptTemplatetừ langchain.prompts.chat nhập HumanMessagePromptTemplate
từ langchain.chains nhập LLMChain
từ langchain.schema nhập BaseOutputParserclass CommaSeparatedListOutputParser(BaseOutputParser):

phân tích cú pháp def (tự, văn bản: str):
trả về text.strip().split(', ')

Xây dựng mẫu cho mô hình trò chuyện bằng cách đưa ra lời giải thích chi tiết về hoạt động của nó, sau đó xây dựng hàm LLMChain() chứa LLM, trình phân tích cú pháp đầu ra và thư viện chat_prompt:

template = '''Bạn phải trợ giúp tạo danh sách được phân tách bằng dấu phẩy
Nhận danh mục từ người dùng và tạo danh sách được phân tách bằng dấu phẩy với năm đối tượng
Điều duy nhất phải là đối tượng trong danh mục'''
system_message_prompt=SystemMessagePromptTemplate.from_template(template)
human_template = '{text}'
human_message_prompt=HumanMessagePromptTemplate.from_template(human_template)
#Định cấu hình LLMChain với cấu trúc truy vấn
chat_prompt = ChatPromptTemplate.from_messages([system_message_prompt, human_message_prompt])
chuỗi = LLMChain(
llm=Trò chuyệnOpenAI(),
nhắc=chat_prompt,
out_parser=CommaSeparatedListOutputParser()
)
chain.run('màu sắc')

Mô hình đã cung cấp câu trả lời kèm theo danh sách màu vì danh mục chỉ được chứa 5 đối tượng được đưa ra trong lời nhắc:

Đó là tất cả về việc xây dựng LLM và LLMChain trong LangChain.

Phần kết luận

Để xây dựng LLM và LLMChain bằng LangChain, chỉ cần cài đặt các mô-đun LangChain và OpenAI để thiết lập môi trường bằng khóa API của nó. Sau đó, xây dựng mô hình LLM bằng cách sử dụng chat_model sau khi tạo mẫu lời nhắc cho một truy vấn duy nhất để có một cuộc trò chuyện hoàn chỉnh. LLMChain được sử dụng để xây dựng chuỗi tất cả các quan sát trong cuộc trò chuyện và sử dụng chúng làm bối cảnh tương tác. Bài đăng này minh họa quá trình xây dựng LLM và LLMChain bằng khung LangChain.