পাইথনে ল্যাংচেইন এলএলএমচেইন ফাংশনটি কীভাবে ব্যবহার করবেন

Pa Ithane Lyance Ina Ela Ela Emace Ina Phansanati Kibhabe Byabahara Karabena



ভাষা মডেল অ্যাপ্লিকেশন তৈরি করার জন্য ল্যাংচেইনের প্রচুর মডিউল রয়েছে। মডিউলগুলি একত্রিত করে অ্যাপ্লিকেশনগুলিকে আরও জটিল করা যেতে পারে, বা একটি একক মডিউল ব্যবহার করে সেগুলিকে আরও সহজ করা যেতে পারে। একটি নির্দিষ্ট ইনপুটে একটি LLM কল করা হল সবচেয়ে প্রয়োজনীয় LangChain কম্পোনেন্ট৷

চেইন শুধুমাত্র একটি এলএলএম কলের জন্য কাজ করে না; এগুলি হল একটি এলএলএম বা অন্য ইউটিলিটি কলের সংগ্রহ। ব্যাপকভাবে ব্যবহৃত অ্যাপ্লিকেশনের জন্য এন্ড-টু-এন্ড চেইন একটি স্ট্যান্ডার্ড চেইন API এবং অসংখ্য টুল ইন্টিগ্রেশন সহ LangChain দ্বারা সরবরাহ করা হয়।

একটি একক সত্তার সাথে একাধিক উপাদান লিঙ্ক করার নমনীয়তা এবং ক্ষমতা উপযোগী হতে পারে যখন আমরা এমন একটি চেইন ডিজাইন করতে চাই যা ব্যবহারকারীর ইনপুট গ্রহণ করে, একটি প্রম্পট টেমপ্লেট ব্যবহার করে এটি সেট আপ করে এবং তারপরে জেনারেট করা ফলাফলকে একটি এলএলএম-এ প্রদান করে।







এই নিবন্ধটি আপনাকে পাইথনে একটি LangChain LLMchain ফাংশন ব্যবহার উপলব্ধি করতে সাহায্য করে।



উদাহরণ: LangChain-এ LLMchain Fuction কীভাবে ব্যবহার করবেন

আমরা চেইন কি সম্পর্কে কথা বললাম. এখন, আমরা পাইথন স্ক্রিপ্টে প্রয়োগ করা এই চেইনগুলির একটি ব্যবহারিক প্রদর্শন দেখতে পাব। এই উদাহরণে, আমরা সবচেয়ে মৌলিক LangChain চেইন ব্যবহার করি যা হল LLMchain। এটিতে একটি প্রম্পট টেমপ্লেট এবং একটি এলএলএম রয়েছে এবং একটি আউটপুট তৈরি করতে তাদের একসাথে চেইন করে।



ধারণাটি বাস্তবায়ন শুরু করতে, আমাদের কিছু প্রয়োজনীয় লাইব্রেরি ইনস্টল করতে হবে যা পাইথন স্ট্যান্ডার্ড লাইব্রেরিতে অন্তর্ভুক্ত নয়। আমাদের যে লাইব্রেরিগুলি ইনস্টল করতে হবে তা হল LangChain এবং OpenAI। আমরা LangChain লাইব্রেরি ইনস্টল করি কারণ আমাদের এর LLMchain মডিউলের পাশাপাশি PromptTemplate ব্যবহার করতে হবে। ওপেনএআই লাইব্রেরি আমাদের আউটপুটগুলির পূর্বাভাস দিতে ওপেনএআই-এর মডেলগুলি ব্যবহার করতে দেয়, যেমন GPT-3।





LangChain লাইব্রেরি ইনস্টল করতে, টার্মিনালে নিম্নলিখিত কমান্ডটি চালান:

$ pip ল্যাংচেইন ইনস্টল করুন

নিম্নলিখিত কমান্ড দিয়ে OpenAI লাইব্রেরি ইনস্টল করুন:



$pip ওপেনই ইনস্টল করুন

ইনস্টলেশন সম্পূর্ণ হলে, আমরা মূল প্রকল্পে কাজ শুরু করতে পারি।

থেকে ল্যাংচেইন প্রম্পট আমদানি প্রম্পট টেমপ্লেট

থেকে ল্যাংচেইন এলএমএস আমদানি OpenAI

আমদানি আপনি

আপনি . আন্দাজ [ 'OPENAI_API_KEY' ] = 'স্ক-আপনার API কী'

প্রয়োজনীয় মডিউল আমদানি করে মূল প্রকল্প শুরু হয়। তাই, আমরা প্রথমে “langchain.prompts” লাইব্রেরি থেকে PromptTemplate আমদানি করি। তারপর, আমরা “langchain.llms” লাইব্রেরি থেকে OpenAI আমদানি করি। এরপরে, আমরা এনভায়রনমেন্ট ভেরিয়েবল সেট করতে 'os' ইম্পোর্ট করি।

প্রাথমিকভাবে, আমরা OpenAI API কীকে পরিবেশ পরিবর্তনশীল হিসেবে সেট করি। এনভায়রনমেন্ট ভেরিয়েবল হল একটি পরিবর্তনশীল যা একটি নাম এবং একটি মান নিয়ে গঠিত এবং আমাদের অপারেটিং সিস্টেমে সেট করা আছে। 'os.environ' হল একটি বস্তু যা পরিবেশের ভেরিয়েবল ম্যাপ করতে ব্যবহৃত হয়। সুতরাং, আমরা 'os.environ' কল করি। এপিআই কী এর জন্য আমরা যে নামটি সেট করেছি তা হল OPENAI_API_KEY। তারপরে আমরা API কীটিকে এর মান হিসাবে বরাদ্দ করি। API কী প্রতিটি ব্যবহারকারীর জন্য অনন্য। সুতরাং, যখন আপনি এই কোড স্ক্রিপ্ট অনুশীলন করছেন, আপনার গোপন API কী লিখুন।

এলএলএম = OpenAI ( তাপমাত্রা = 0.9 )

শীঘ্র = প্রম্পট টেমপ্লেট (

input_variables = [ 'পণ্য' ] ,

টেমপ্লেট = 'একটি ব্র্যান্ডের নাম কি হবে যেটি {পণ্য} বিক্রি করে?' ,

)

এখন যেহেতু কীটি এনভায়রনমেন্ট ভেরিয়েবল হিসাবে সেট করা হয়েছে, আমরা একটি মোড়ক শুরু করি। OpenAI GPT মডেলের জন্য তাপমাত্রা সেট করুন। তাপমাত্রা একটি বৈশিষ্ট্য যা আমাদের নির্ধারণ করতে সাহায্য করে যে প্রতিক্রিয়া কতটা অপ্রত্যাশিত হবে। তাপমাত্রার মান যত বেশি হবে, প্রতিক্রিয়াগুলি তত বেশি অনিয়মিত হবে। আমরা এখানে তাপমাত্রা মান 0.9 সেট করেছি। এইভাবে, আমরা সবচেয়ে র্যান্ডম ফলাফল পেতে.

তারপর, আমরা একটি PromptTemplate ক্লাস শুরু করি। যখন আমরা এলএলএম ব্যবহার করি, তখন আমরা ব্যবহারকারীর কাছ থেকে নেওয়া ইনপুট থেকে একটি প্রম্পট তৈরি করি এবং তারপরে সরাসরি এলএলএম-এ ইনপুট পাঠানোর পরিবর্তে এটিকে এলএলএম-এ প্রেরণ করি যার জন্য হার্ড কোডিং প্রয়োজন (একটি প্রম্পট হল একটি ইনপুট যা আমরা আমাদের থেকে নিয়েছি। ব্যবহারকারী এবং যার উপর সংজ্ঞায়িত AI মডেল একটি প্রতিক্রিয়া তৈরি করা উচিত)। সুতরাং, আমরা PromptTemplate আরম্ভ করি। তারপর, এর কোঁকড়া ধনুর্বন্ধনীর মধ্যে, আমরা ইনপুট_ভেরিয়েবলকে 'পণ্য' হিসাবে সংজ্ঞায়িত করি এবং টেমপ্লেটের পাঠ্যটি হল 'একটি ব্র্যান্ডের নাম কি হবে যেটি {পণ্য} বিক্রি করে?' ব্যবহারকারীর ইনপুট ব্র্যান্ড কি করে তা বলে। তারপর, এটি এই তথ্যের উপর ভিত্তি করে প্রম্পট ফর্ম্যাট করে।

থেকে ল্যাংচেইন চেইন আমদানি এলএলএমচেইন

চেইন = এলএলএমচেইন ( এলএলএম = এলএলএম , শীঘ্র = শীঘ্র )

এখন যেহেতু আমাদের PromptTemplate ফরম্যাট করা হয়েছে, পরবর্তী ধাপ হল একটি LLMchain তৈরি করা। প্রথমে, 'langchain.chain' লাইব্রেরি থেকে LLMchain মডিউল আমদানি করুন। তারপর, আমরা LLMchain() ফাংশন কল করে একটি চেইন তৈরি করি যা ব্যবহারকারীর ইনপুট নেয় এবং এটির সাথে প্রম্পট ফর্ম্যাট করে। সবশেষে, এটি এলএলএম-এ প্রতিক্রিয়া পাঠায়। সুতরাং, এটি প্রম্পট টেমপ্লেট এবং এলএলএমকে সংযুক্ত করে।

ছাপা ( চেইন চালান ( 'চিত্র পরিবেশন' ) )

চেইন চালানোর জন্য, আমরা chain.run() পদ্ধতিকে কল করি এবং প্যারামিটার হিসাবে ব্যবহারকারীর ইনপুট প্রদান করি যা 'আর্ট সাপ্লাইস' হিসাবে সংজ্ঞায়িত করা হয়। তারপর, আমরা পাইথন কনসোলে পূর্বাভাসিত ফলাফল প্রদর্শন করতে Python print() ফাংশনে এই পদ্ধতিটি পাস করি।

এআই মডেল প্রম্পটটি পড়ে এবং এর উপর ভিত্তি করে একটি প্রতিক্রিয়া তৈরি করে।

যেহেতু আমরা শিল্প সরবরাহ বিক্রি করে এমন একটি ব্র্যান্ডের নাম বলতে বলেছি, তাই AI মডেলের পূর্বাভাসিত নামটি নিম্নলিখিত স্ন্যাপশটে দেখা যাবে:

এই উদাহরণটি আমাদের LLMchaining দেখায় যখন একটি একক ইনপুট ভেরিয়েবল প্রদান করা হয়। একাধিক ভেরিয়েবল ব্যবহার করার সময় এটিও সম্ভব। এর জন্য, আমাদের কেবলমাত্র ভেরিয়েবলের একটি অভিধান তৈরি করতে হবে যাতে সেগুলি সম্পূর্ণভাবে ইনপুট করা যায়। চলুন দেখি কিভাবে এটি কাজ করে:

থেকে ল্যাংচেইন প্রম্পট আমদানি প্রম্পট টেমপ্লেট

থেকে ল্যাংচেইন এলএমএস আমদানি OpenAI

আমদানি আপনি

আপনি . আন্দাজ [ 'OPENAI_API_KEY' ] = 'sk- আপনার-API-কী'

llm = OpenAI(তাপমাত্রা=0.9)

প্রম্পট = প্রম্পট টেমপ্লেট(

input_variables=['
ব্র্যান্ড ', ' পণ্য '],

টেমপ্লেট='
কি নাম হবে { ব্র্যান্ড } যে বিক্রি { পণ্য } ? ',

)

langchain.chains থেকে LLMCchain আমদানি করুন

চেইন = LLMCchain(llm=llm, prompt=prompt)

print(chain.run({

'ব্র্যান্ড': '
চিত্র পরিবেশন ',

'পণ্য': '
রং '

}))

কোডটি আগের উদাহরণের মতই চলে, আমাদের প্রম্পট টেমপ্লেট ক্লাসে দুটি ভেরিয়েবল পাস করতে হবে। সুতরাং, ইনপুট_ভেরিয়েবলের একটি অভিধান তৈরি করুন। দীর্ঘ বন্ধনী একটি অভিধান প্রতিনিধিত্ব করে। এখানে, আমাদের দুটি ভেরিয়েবল রয়েছে - 'ব্র্যান্ড' এবং 'প্রোডাক্ট' - যা একটি কমা দ্বারা পৃথক করা হয়েছে। এখন, আমরা যে টেমপ্লেট টেক্সট প্রদান করি তা হল '{Brand} যে {Product} বিক্রি করে তার নাম কী হবে?' সুতরাং, এআই মডেল একটি নামের ভবিষ্যদ্বাণী করে যা এই দুটি ইনপুট ভেরিয়েবলের উপর ফোকাস করে।

তারপর, আমরা একটি LLMchain তৈরি করি যা ব্যবহারকারীর ইনপুটকে LLM-এ প্রতিক্রিয়া পাঠাতে প্রম্পট সহ ফর্ম্যাট করে। এই চেইনটি চালানোর জন্য, আমরা chain.run() পদ্ধতি ব্যবহার করি এবং ব্যবহারকারীর ইনপুট সহ ভেরিয়েবলের অভিধানটি 'ব্র্যান্ড' হিসাবে পাস করি: 'আর্ট সরবরাহ' এবং 'পণ্য' 'রঙ' হিসাবে। তারপর, প্রাপ্ত প্রতিক্রিয়া প্রদর্শন করতে আমরা এই পদ্ধতিটি Python print() ফাংশনে পাস করি।

আউটপুট চিত্রটি পূর্বাভাসিত ফলাফল দেখায়:

উপসংহার

চেইন হল LangChain এর বিল্ডিং ব্লক। এই নিবন্ধটি ল্যাংচেইনে LLMchain ব্যবহারের ধারণার মধ্য দিয়ে যায়। আমরা LLMchain-এর সাথে একটি ভূমিকা তৈরি করেছি এবং পাইথন প্রকল্পে তাদের নিয়োগ করার প্রয়োজনীয়তা চিত্রিত করেছি। তারপরে, আমরা একটি ব্যবহারিক চিত্র তুলে ধরেছি যা প্রম্পট টেমপ্লেট এবং এলএলএম সংযোগ করে LLMchain এর বাস্তবায়ন প্রদর্শন করে। আপনি একটি একক ইনপুট ভেরিয়েবলের পাশাপাশি একাধিক ব্যবহারকারী-প্রদত্ত ভেরিয়েবল দিয়ে এই চেইনগুলি তৈরি করতে পারেন। GPT মডেল থেকে উত্পন্ন প্রতিক্রিয়া পাশাপাশি প্রদান করা হয়.