Cách sử dụng Hàm LangChain LLMChain trong Python

Cach Su Dung Ham Langchain Llmchain Trong Python



LangChain có rất nhiều mô-đun để tạo các ứng dụng mô hình ngôn ngữ. Các ứng dụng có thể trở nên phức tạp hơn bằng cách kết hợp các mô-đun hoặc chúng có thể được làm đơn giản hơn bằng cách sử dụng một mô-đun duy nhất. Gọi một LLM trên một đầu vào nhất định là thành phần LangChain thiết yếu nhất.

Chuỗi không chỉ hoạt động cho một cuộc gọi LLM duy nhất; chúng là tập hợp các cuộc gọi, đến một LLM hoặc một tiện ích khác. Chuỗi đầu cuối cho các ứng dụng được sử dụng rộng rãi được cung cấp bởi LangChain cùng với API chuỗi tiêu chuẩn và nhiều tích hợp công cụ.

Tính linh hoạt và khả năng liên kết nhiều phần tử thành một thực thể duy nhất có thể hữu ích khi chúng ta muốn thiết kế một chuỗi chấp nhận thông tin đầu vào của người dùng, thiết lập chuỗi đó bằng cách sử dụng PromptTemplate rồi chuyển kết quả được tạo ra đến một LLM.







Bài viết này giúp bạn nắm bắt cách sử dụng hàm LangChain LLMchain trong Python.



Ví dụ: Cách sử dụng Chức năng LLMchain trong LangChain

Chúng tôi đã nói về chuỗi là gì. Bây giờ, chúng ta sẽ xem minh họa thực tế về các chuỗi này được triển khai trong tập lệnh Python. Trong ví dụ này, chúng tôi sử dụng chuỗi LangChain cơ bản nhất là LLMchain. Nó chứa PromptTemplate và LLM, đồng thời xâu chuỗi chúng lại với nhau để tạo ra đầu ra.



Để bắt đầu triển khai khái niệm này, chúng tôi phải cài đặt một số thư viện cần thiết không có trong thư viện chuẩn Python. Các thư viện mà chúng ta cần cài đặt là LangChain và OpenAI. Chúng tôi cài đặt thư viện LangChain vì chúng tôi cần sử dụng mô-đun LLMchain của nó cũng như PromptTemplate. Thư viện OpenAI cho phép chúng tôi sử dụng các mô hình của OpenAI để dự đoán kết quả đầu ra, tức là GPT-3.





Để cài đặt thư viện LangChain, hãy chạy lệnh sau trên thiết bị đầu cuối:

$ pip cài đặt langchain

Cài đặt thư viện OpenAI bằng lệnh sau:



$ pip cài đặt openai

Khi quá trình cài đặt hoàn tất, chúng ta có thể bắt đầu làm việc với dự án chính.

từ langchain. nhắc nhở nhập khẩu nhắc mẫu

từ langchain. llms nhập khẩu OpenAI

nhập khẩu Bạn

Bạn . khoảng [ 'OPENAI_API_KEY' ] = 'sk-KHÓA API CỦA BẠN'

Dự án chính bắt đầu bằng cách nhập các mô-đun cần thiết. Vì vậy, trước tiên chúng tôi nhập PromptTemplate từ thư viện “langchain.prompts”. Sau đó, chúng tôi nhập OpenAI từ thư viện “langchain.llms”. Tiếp theo, chúng tôi nhập “os” để đặt biến môi trường.

Ban đầu, chúng tôi đặt khóa API OpenAI làm biến môi trường. Biến môi trường là một biến bao gồm tên và giá trị và được đặt trên hệ điều hành của chúng tôi. “os.environ” là một đối tượng được sử dụng để ánh xạ các biến môi trường. Vì vậy, chúng tôi gọi là “os.environ”. Tên mà chúng tôi đặt cho khóa API là OPENAI_API_KEY. Sau đó, chúng tôi chỉ định khóa API làm giá trị của nó. Khóa API là duy nhất cho mỗi người dùng. Vì vậy, khi bạn đang thực hành đoạn mã này, hãy viết khóa API bí mật của bạn.

tôi = OpenAI ( nhiệt độ = 0,9 )

lời nhắc = nhắc mẫu (

input_variables = [ 'các sản phẩm' ] ,

bản mẫu = 'Thương hiệu bán {sản phẩm} sẽ được đặt tên là gì?' ,

)

Bây giờ khóa được đặt làm biến môi trường, chúng tôi khởi tạo một trình bao bọc. Đặt nhiệt độ cho các mẫu OpenAI GPT. Nhiệt độ là một đặc điểm giúp chúng ta xác định mức độ khó lường của phản ứng. Giá trị nhiệt độ càng cao, phản ứng càng thất thường. Chúng tôi đặt giá trị nhiệt độ thành 0,9 ở đây. Vì vậy, chúng tôi nhận được kết quả ngẫu nhiên nhất.

Sau đó, chúng tôi khởi tạo một lớp PromptTemplate. Khi chúng tôi sử dụng LLM, chúng tôi tạo một dấu nhắc từ đầu vào được lấy từ người dùng và sau đó chuyển nó tới LLM thay vì gửi đầu vào trực tiếp tới LLM yêu cầu mã hóa cứng (dấu nhắc là đầu vào mà chúng tôi đã lấy từ LLM). người dùng và trên đó mô hình AI được xác định sẽ tạo phản hồi). Vì vậy, chúng tôi khởi tạo PromptTemplate. Sau đó, trong dấu ngoặc nhọn, chúng tôi xác định input_variable là “Sản phẩm” và văn bản mẫu là “Thương hiệu bán {sản phẩm} sẽ được đặt tên là gì?” Đầu vào của người dùng cho biết thương hiệu làm gì. Sau đó, nó định dạng lời nhắc dựa trên thông tin này.

từ langchain. xiềng xích nhập khẩu LLMChain

xích = LLMChain ( tôi = tôi , lời nhắc = lời nhắc )

Bây giờ PromptTemplate của chúng ta đã được định dạng, bước tiếp theo là tạo một LLMchain. Đầu tiên, nhập mô-đun LLMchain từ thư viện “langchain.chain”. Sau đó, chúng tôi tạo một chuỗi bằng cách gọi hàm LLMchain() lấy đầu vào của người dùng và định dạng lời nhắc với nó. Cuối cùng, nó gửi phản hồi tới LLM. Vì vậy, nó kết nối PromptTemplate và LLM.

in ( xích. chạy ( 'Đồ dùng nghệ thuật' ) )

Để thực thi chuỗi, chúng tôi gọi phương thức chain.run() và cung cấp đầu vào của người dùng dưới dạng tham số được định nghĩa là “Đồ dùng nghệ thuật”. Sau đó, chúng tôi chuyển phương thức này tới hàm print() của Python để hiển thị kết quả dự đoán trên bảng điều khiển Python.

Mô hình AI đọc lời nhắc và đưa ra phản hồi dựa trên lời nhắc đó.

Vì chúng tôi đã yêu cầu đặt tên cho một thương hiệu bán đồ dùng nghệ thuật, nên có thể thấy tên dự đoán theo mô hình AI trong ảnh chụp nhanh sau:

Ví dụ này cho chúng ta thấy LLMchaining khi một biến đầu vào duy nhất được cung cấp. Điều này cũng có thể xảy ra khi sử dụng nhiều biến. Để làm được điều đó, chúng ta chỉ cần tạo một từ điển các biến để nhập chúng hoàn toàn. Hãy xem cách nó hoạt động:

từ langchain. nhắc nhở nhập khẩu nhắc mẫu

từ langchain. llms nhập khẩu OpenAI

nhập khẩu Bạn

Bạn . khoảng [ 'OPENAI_API_KEY' ] = 'sk- API-KEY của bạn”

llm = OpenAI(nhiệt độ=0,9)

dấu nhắc = PromptTemplate(

input_variables=['
Thương hiệu ', ' Sản phẩm '],

mẫu = '
Tên của nó sẽ là gì { Thương hiệu } bán { Sản phẩm } ? ',

)

từ langchain.chains nhập LLMChain

chain = LLMChain(llm=llm, prompt=prompt)

in (chain.run ({

'Thương hiệu': '
nguồn cung cấp nghệ thuật ',

'Sản phẩm': '
màu sắc '

})))

Mã thực hiện giống như ví dụ trước, ngoại trừ việc chúng ta phải chuyển hai biến trong lớp mẫu dấu nhắc. Vì vậy, hãy tạo một từ điển input_variables. Các dấu ngoặc dài đại diện cho một từ điển. Ở đây, chúng ta có hai biến – “Thương hiệu” và “Sản phẩm” – được phân tách bằng dấu phẩy. Bây giờ, văn bản mẫu mà chúng tôi cung cấp là 'Tên của {Brand} bán {Product} sẽ là gì?' Do đó, mô hình AI dự đoán một tên tập trung vào hai biến đầu vào này.

Sau đó, chúng tôi tạo một chuỗi LLM định dạng đầu vào của người dùng với lời nhắc gửi phản hồi tới LLM. Để chạy chuỗi này, chúng tôi sử dụng phương thức chain.run() và chuyển từ điển các biến với đầu vào của người dùng là “Thương hiệu”: “Đồ dùng nghệ thuật” và “Sản phẩm” là “Màu sắc”. Sau đó, chúng ta chuyển phương thức này tới hàm print() của Python để hiển thị phản hồi thu được.

Hình ảnh đầu ra hiển thị kết quả dự đoán:

Phần kết luận

Chuỗi là các khối xây dựng của LangChain. Bài viết này trình bày về khái niệm sử dụng LLMchain trong LangChain. Chúng tôi đã giới thiệu về LLMchain và mô tả nhu cầu sử dụng chúng trong dự án Python. Sau đó, chúng tôi đã thực hiện một minh họa thực tế thể hiện việc triển khai LLMchain bằng cách kết nối PromptTemplate và LLM. Bạn có thể tạo các chuỗi này bằng một biến đầu vào duy nhất cũng như nhiều biến do người dùng cung cấp. Các phản hồi được tạo từ mô hình GPT cũng được cung cấp.