ল্যাংচেইনে একটি কথোপকথন টোকেন বাফার কীভাবে ব্যবহার করবেন?

Lyance Ine Ekati Kathopakathana Tokena Baphara Kibhabe Byabahara Karabena



ল্যাংচেইন ডেভেলপারদের মেশিন লার্নিং বা ডিপ লার্নিং ব্যবহার করে মডেল তৈরি করতে সক্ষম করে যা ডেটাসেট ব্যবহার করে মডেলদের প্রশিক্ষণ দিতে পারে। এই মডেলগুলি ডেটা থেকে বিভিন্ন প্যাটার্ন পেতে পারে বা তথ্য বের করার জন্য ডেটাসেটের ফর্ম এবং এর ভাষা বুঝতে পারে। বড় ভাষার মডেল বা এলএলএমগুলি ল্যাংচেইন ফ্রেমওয়ার্ক ব্যবহার করে কনফিগার বা ডিজাইন করা যেতে পারে যা প্রাকৃতিক ভাষায় পাঠ্য বুঝতে এবং তৈরি করতে পারে।

এই নির্দেশিকা LangChain-এ কথোপকথনের টোকেন বাফার ব্যবহার করার প্রক্রিয়াটি ব্যাখ্যা করবে।

ল্যাংচেইনে একটি কথোপকথন টোকেন বাফার কীভাবে ব্যবহার করবেন?

দ্য কথোপকথন টোকেনবাফার মেমোরি বাফার মেমরিতে সাম্প্রতিক বার্তা সংরক্ষণ করতে ল্যাংচেইন ফ্রেমওয়ার্ক থেকে লাইব্রেরি আমদানি করা যেতে পারে। বাফারে সংরক্ষিত বার্তার সংখ্যা সীমিত করতে টোকেনগুলি কনফিগার করা যেতে পারে এবং আগের বার্তাগুলি স্বয়ংক্রিয়ভাবে ফ্লাশ করা হবে।







LangChain-এ কথোপকথনের টোকেন বাফার ব্যবহার করার প্রক্রিয়া শিখতে, নিম্নলিখিত নির্দেশিকাটি ব্যবহার করুন:



ধাপ 1: মডিউল ইনস্টল করুন

প্রথমে, পিপ কমান্ড ব্যবহার করে সমস্ত প্রয়োজনীয় মডিউল ধারণকারী ল্যাংচেইন ফ্রেমওয়ার্ক ইনস্টল করুন:



পিপ ল্যাংচেইন ইনস্টল করুন





এখন, OpenAI() পদ্ধতি ব্যবহার করে LLM এবং চেইন তৈরি করতে OpenAI মডিউল ইনস্টল করুন:

পিপ ইনস্টল ওপেনই



মডিউলগুলি ইনস্টল করার পরে, সহজভাবে OpenAI এর API কী ব্যবহার করুন পরিবেশ স্থাপন করুন OS এবং getpass লাইব্রেরি ব্যবহার করে:

আমদানি আপনি

আমদানি গেটপাস

আপনি . আন্দাজ [ 'OPENAI_API_KEY' ] = গেটপাস . গেটপাস ( 'ওপেনএআই এপিআই কী:' )

ধাপ 2: কথোপকথন টোকেন বাফার মেমরি ব্যবহার করা

আমদানি করার পর OpenAI() পদ্ধতি ব্যবহার করে LLM তৈরি করুন কথোপকথন টোকেনবাফার মেমোরি ল্যাংচেইন ফ্রেমওয়ার্ক থেকে লাইব্রেরি:

থেকে ল্যাংচেইন স্মৃতি আমদানি কথোপকথন টোকেনবাফার মেমোরি

থেকে ল্যাংচেইন এলএমএস আমদানি OpenAI

এলএলএম = OpenAI ( )

টোকেন সেট করতে মেমরি কনফিগার করুন, এটি পুরানো বার্তাগুলিকে ফ্লাশ করে এবং বাফার মেমরিতে সংরক্ষণ করে। এর পরে, কথোপকথন থেকে বার্তাগুলি সংরক্ষণ করুন এবং প্রসঙ্গ হিসাবে ব্যবহার করার জন্য সাম্প্রতিকতমগুলি পান:

স্মৃতি = কথোপকথন টোকেনবাফার মেমোরি ( এলএলএম = এলএলএম , সর্বোচ্চ_টোকেন_সীমা = 10 )

স্মৃতি. সংরক্ষণ_প্রসঙ্গ ( { 'ইনপুট' : 'হ্যালো' } , { 'আউটপুট' : 'তুমি কেমন আছ' } )

স্মৃতি. সংরক্ষণ_প্রসঙ্গ ( { 'ইনপুট' : 'আমি ভাল আছি, তুমি কেমন আছো' } , { 'আউটপুট' : 'বেশি না' } )

load_memory_variables() পদ্ধতি ব্যবহার করে বাফার মেমরিতে সংরক্ষিত ডেটা পেতে মেমরিটি চালান:

স্মৃতি. load_memory_variables ( { } )

ধাপ 3: একটি চেইনে কথোপকথন টোকেন বাফার মেমরি ব্যবহার করা

কনফিগার করে চেইন তৈরি করুন কথোপকথন চেইন() কথোপকথন টোকেন বাফার মেমরি ব্যবহার করার জন্য একাধিক আর্গুমেন্ট সহ পদ্ধতি:

থেকে ল্যাংচেইন চেইন আমদানি কথোপকথন চেইন

কথোপকথন_সাথে_সারাংশ = কথোপকথন চেইন (
এলএলএম = এলএলএম ,
স্মৃতি = কথোপকথন টোকেনবাফার মেমোরি ( এলএলএম = OpenAI ( ) , সর্বোচ্চ_টোকেন_সীমা = 60 ) ,
ভার্বোস = সত্য ,
)
কথোপকথন_সাথে_সারাংশ। ভবিষ্যদ্বাণী ( ইনপুট = 'ওহে কি খবর?' )

এখন, স্বাভাবিক ভাষায় লেখা প্রম্পট ব্যবহার করে প্রশ্ন জিজ্ঞাসা করে কথোপকথন চালিয়ে যান:

কথোপকথন_সাথে_সারাংশ। ভবিষ্যদ্বাণী ( ইনপুট = 'শুধু NLP প্রকল্পে কাজ করছি' )

টোকেনের সংখ্যা ব্যবহার করে বাফার মেমরিতে সংরক্ষিত ডেটা থেকে আউটপুট পান:

কথোপকথন_সাথে_সারাংশ। ভবিষ্যদ্বাণী ( ইনপুট = 'শুধু এলএলএম ডিজাইন করার জন্য কাজ করছি' )

বাফার প্রতিটি নতুন ইনপুটের সাথে আপডেট হতে থাকে কারণ আগের বার্তাগুলি নিয়মিতভাবে ফ্লাশ করা হচ্ছে:

কথোপকথন_সাথে_সারাংশ। ভবিষ্যদ্বাণী (

ইনপুট = 'LangChain ব্যবহার করে এলএলএম! আপনি কি এটা শুনেছেন'

)

এটি ল্যাংচেইনে কথোপকথনের টোকেন বাফার ব্যবহার করার বিষয়ে।

উপসংহার

LangChain-এ কথোপকথন টোকেন বাফার ব্যবহার করতে, OpenAI অ্যাকাউন্ট থেকে API কী ব্যবহার করে পরিবেশ সেট আপ করতে মডিউলগুলি ইনস্টল করুন। এর পরে, বাফারে কথোপকথন সংরক্ষণ করতে LangChain মডিউল ব্যবহার করে ConversationTokenBufferMemory লাইব্রেরি আমদানি করুন। চ্যাটের প্রতিটি নতুন বার্তার সাথে পুরানো বার্তাগুলিকে ফ্লাশ করতে বাফার মেমরিটি একটি চেইনে ব্যবহার করা যেতে পারে। এই পোস্টে LangChain-এ কথোপকথনের টোকেন বাফার মেমরি ব্যবহার করার বিষয়ে বিস্তারিত বলা হয়েছে।