ল্যাংচেইনে 'অ্যাসিনসিও' লাইব্রেরি কীভাবে ব্যবহার করবেন?

Lyance Ine A Yasinasi O La Ibreri Kibhabe Byabahara Karabena



LangChain হল কৃত্রিম বুদ্ধিমত্তা ব্যবহার করে বড় ভাষার মডেল তৈরি করার একটি কাঠামো যাতে এটি পাঠ্য তৈরি করতে পারে এবং মানুষের সাথে যোগাযোগ করতে পারে। অ্যাসিনসিও হল সেই লাইব্রেরি যা একই কমান্ড বা ক্যোয়ারী ব্যবহার করে একাধিকবার এলএলএম-এর মতো মডেলকে কল করতে ব্যবহার করা যেতে পারে। এটি দক্ষতার সাথে পাঠ্য তৈরি করার জন্য আমাদের LLM মডেলের কাজের গতিতেও সহায়তা করে।

এই নিবন্ধটি দেখায় কিভাবে LangChain-এ 'অ্যাসিনসিও' লাইব্রেরি ব্যবহার করতে হয়।







ল্যাংচেইনে 'অ্যাসিনসিও' লাইব্রেরি কীভাবে ব্যবহার/চালনা করবেন?

Async API LLM-এর সমর্থন হিসাবে ব্যবহার করা যেতে পারে তাই LangChain-এ asyncio লাইব্রেরি ব্যবহার করার জন্য, কেবল এই নির্দেশিকা অনুসরণ করুন:



পূর্বশর্ত ইনস্টল করুন



একযোগে LLM কল করার জন্য LangChain-এ asyncio লাইব্রেরি ব্যবহার শুরু করতে LangChain মডিউলটি ইনস্টল করুন:





পিপ ইনস্টল ল্যাংচেইন



OpenAIEmbeddings ব্যবহার করে LLM তৈরি করতেও OpenAI মডিউল প্রয়োজন:

পিপ ইনস্টল openai

ইনস্টলেশনের পরে, নিম্নলিখিত কোড ব্যবহার করে OpenAI API কী কনফিগার করুন:

আমাদের আমদানি করুন
গেটপাস আমদানি করুন

os.environ [ 'OPENAI_API_KEY' ] = getpass.getpass ( 'ওপেনএআই এপিআই কী:' )

LLM তৈরি করতে asyncio ব্যবহার করে

অ্যাসিনসিও লাইব্রেরিটি এলএলএম সমর্থন করার জন্য ব্যবহার করা যেতে পারে কারণ নিম্নলিখিত কোডটি ল্যাংচেইনে এটি ব্যবহার করে:

আমদানি সময়
আমদানি asyncio
# এটি ব্যবহার করতে ল্যাংচেইন থেকে অ্যাসিনসিও লাইব্রেরি আমদানি করা হচ্ছে
langchain.llms আমদানি OpenAI থেকে

# সিরিয়াল জেনারেশনের টাইমস্ট্যাম্প পেতে ফাংশনটি সংজ্ঞায়িত করুন
def generate_serially ( ) :
llm = OpenAI ( তাপমাত্রা = 0.9 )
জন্য _ ভিতরে পরিসীমা ( 5 ) :
resp = llm.generate ( [ 'তুমি কি করছো?' ] )
ছাপা ( resp.generations [ 0 ] [ 0 ] .টেক্সট )

# সিঙ্ক্রোনাস জেনারেশনের টাইমস্ট্যাম্প পেতে ফাংশনটি সংজ্ঞায়িত করুন
async def async_generate ( এলএলএম ) :
resp = llm.agenerate অপেক্ষা করুন ( [ 'তুমি কি করছো?' ] )
ছাপা ( resp.generations [ 0 ] [ 0 ] .টেক্সট )

# একযোগে ডেটা জেনারেট করার টাইমস্ট্যাম্প পেতে ফাংশনটি সংজ্ঞায়িত করুন
async def generate_concurrently ( ) :
llm = OpenAI ( তাপমাত্রা = 0.9 )
কাজ = [ async_generate ( এলএলএম ) জন্য _ ভিতরে পরিসীমা ( 10 ) ]
asyncio.gather অপেক্ষা করুন ( * কাজ )

# সমসাময়িক আউটপুট পেতে asyncio ব্যবহার করে ফলাফল আউটপুট কনফিগার করুন
s = time.perf_counter ( )
generate_concurrently অপেক্ষা করুন ( )
অতিবাহিত = time.perf_counter ( ) - স
ছাপা ( '\033[1মি' + চ 'একসাথে এক্সিকিউট করা হয়েছে {বিগত:0.2f} সেকেন্ডে।' + '\033[0মি' )

# সিরিয়াল আউটপুট পেতে ফলাফলের জন্য টাইমস্ট্যাম্প কনফিগার করুন
s = time.perf_counter ( )
generate_serially ( )
অতিবাহিত = time.perf_counter ( ) - স
ছাপা ( '\033[1মি' + চ ' { অতিবাহিত:0.2f} সেকেন্ডের মধ্যে সিরিয়াল কার্যকর করা হয়েছে৷' + '\033[0মি' )

উপরের কোডটি দুটি স্বতন্ত্র ফাংশন ব্যবহার করে পাঠ্য তৈরির জন্য সময় পরিমাপ করতে asyncio লাইব্রেরি ব্যবহার করে যেমন generate_serially() এবং generate_concurrently() :

আউটপুট

নিম্নলিখিত স্ক্রিনশটটি দেখায় যে উভয় ফাংশনের জন্য সময় জটিলতা এবং সমসাময়িক পাঠ্য তৈরির সময় জটিলতা সিরিয়াল পাঠ্য প্রজন্মের চেয়ে ভাল:

ল্যাংচেইনে এলএলএম তৈরি করতে 'অ্যাসিনসিও' লাইব্রেরি ব্যবহার করার জন্য এটিই।

উপসংহার

LangChain-এ asyncio লাইব্রেরি ব্যবহার করতে, প্রক্রিয়াটি শুরু করতে কেবল LangChain এবং OpenAI মডিউল ইনস্টল করুন। পূর্ববর্তী কথোপকথন থেকে শিখতে চ্যাটবট তৈরি করার জন্য একটি LLM মডেল তৈরি করার সময় Async API সহায়ক হতে পারে। এই নির্দেশিকাটি ল্যাংচেইন ফ্রেমওয়ার্ক ব্যবহার করে এলএলএমগুলিকে সমর্থন করার জন্য অ্যাসিনসিও লাইব্রেরি ব্যবহার করার প্রক্রিয়া ব্যাখ্যা করেছে।