‘আপনি কি নিশ্চিত’- এই প্রশ্নে কেন নিজের উত্তর বদলে দেয় এআই চ্যাটবট?

যারা নিয়মিত ChatGPT বা Gemini‑এর মতো এআই চ্যাটবট ব্যবহার করেন, তারা একটি বিষয় হয়তো লক্ষ্য করেছেন যে, আপনার ব্যবহৃত চ্যাটবট প্রথমে আত্মবিশ্বাসের সঙ্গে একটি উত্তর দেয়।  কিন্তু আপনি যদি জিজ্ঞাসা করেন, ‘Are You Sure?’ বা ‘আপনি কি নিশ্চিত?’, তখন তারা অনেক সময় নিজের উত্তর পরিবর্তন করে। কখনো আংশিক বদলায় বা কখনো সম্পূর্ণ উল্টো উত্তরও দেয়। এখন স্বাভাবিকভাবেই প্রশ্ন জাগতে পারে, ‘কেন চ্যাটবটগুলো তাদের উত্তর বদলে নেয়? কেন এমন আচরণ করে তারা?’ চলুন তাহলে জেনে নিই, কী বলছেন বিশেষজ্ঞরা- বিশেষজ্ঞরা চ্যাটবটের এই আচরণকে বলেন ‘সাইকোফ্যান্সি’। এর অর্থ ব্যবহারকারীর সঙ্গে একমত হওয়ার প্রবণতা। Goodeye Labs‑এর সহপ্রতিষ্ঠাতা ও চিফ টেকনিক্যাল অফিসার র‌্যান্ডাল এস. ওলসন একটি ব্লগে বলেছেন, ‘এই সিস্টেমগুলি সঠিক তথ্য জানলেও, অনেক সময় ব্যবহারকারীর চাপের কাছে নতি স্বীকার করে।’    এই সমস্যার মূল কারণ এআই‑এর প্রশিক্ষণ পদ্ধতির সঙ্গে জড়িত। অধিকাংশ আধুনিক এআই মডেলকে Reinforcement Learning from Human Feedback বা RLHF পদ্ধতিতে প্রশিক্ষণ দেওয়া হয়। এই পদ্ধতি এআই‑কে আরও ভদ্র, সহায়ক এবং কথোপকথনের উপযোগী করে তোলে। কিন্তু এর এ

‘আপনি কি নিশ্চিত’- এই প্রশ্নে কেন নিজের উত্তর বদলে দেয় এআই চ্যাটবট?

যারা নিয়মিত ChatGPT বা Gemini‑এর মতো এআই চ্যাটবট ব্যবহার করেন, তারা একটি বিষয় হয়তো লক্ষ্য করেছেন যে, আপনার ব্যবহৃত চ্যাটবট প্রথমে আত্মবিশ্বাসের সঙ্গে একটি উত্তর দেয়। 

কিন্তু আপনি যদি জিজ্ঞাসা করেন, ‘Are You Sure?’ বা ‘আপনি কি নিশ্চিত?’, তখন তারা অনেক সময় নিজের উত্তর পরিবর্তন করে। কখনো আংশিক বদলায় বা কখনো সম্পূর্ণ উল্টো উত্তরও দেয়। এখন স্বাভাবিকভাবেই প্রশ্ন জাগতে পারে, ‘কেন চ্যাটবটগুলো তাদের উত্তর বদলে নেয়? কেন এমন আচরণ করে তারা?’

চলুন তাহলে জেনে নিই, কী বলছেন বিশেষজ্ঞরা-

বিশেষজ্ঞরা চ্যাটবটের এই আচরণকে বলেন ‘সাইকোফ্যান্সি’। এর অর্থ ব্যবহারকারীর সঙ্গে একমত হওয়ার প্রবণতা।

Goodeye Labs‑এর সহপ্রতিষ্ঠাতা ও চিফ টেকনিক্যাল অফিসার র‌্যান্ডাল এস. ওলসন একটি ব্লগে বলেছেন, ‘এই সিস্টেমগুলি সঠিক তথ্য জানলেও, অনেক সময় ব্যবহারকারীর চাপের কাছে নতি স্বীকার করে।’   

এই সমস্যার মূল কারণ এআই‑এর প্রশিক্ষণ পদ্ধতির সঙ্গে জড়িত। অধিকাংশ আধুনিক এআই মডেলকে Reinforcement Learning from Human Feedback বা RLHF পদ্ধতিতে প্রশিক্ষণ দেওয়া হয়। এই পদ্ধতি এআই‑কে আরও ভদ্র, সহায়ক এবং কথোপকথনের উপযোগী করে তোলে। কিন্তু এর একটি পার্শ্বপ্রতিক্রিয়াও রয়েছে। যখন এআই ব্যবহারকারীর সঙ্গে একমত হয়, তখন সেটি বেশি ইতিবাচক মূল্যায়ন পায়। ফলে ধীরে ধীরে এমন একটি প্রবণতা তৈরি হয়, যেখানে এআই সত্য বলার চেয়ে ব্যবহারকারীর সঙ্গে একমত হওয়াকে অগ্রাধিকার দেয়।

একটি গবেষণায় দেখা গেছে, ব্যবহারকারীরা প্রশ্ন করলে এআই মডেলগুলো প্রায় ৬০% ক্ষেত্রে নিজের উত্তর পরিবর্তন করেছে। GPT‑4o প্রায় ৫৮% ক্ষেত্রে, Claude Sonnet প্রায় ৫৬% ক্ষেত্রে এবং Gemini 1.5 Pro প্রায় ৬১% ক্ষেত্রে উত্তর বদলেছে। এর অর্থ এটি কোনও বিরল ঘটনা নয়, বরং এটি একটি সাধারণ আচরণ, যা প্রতিদিন কোটি কোটি ব্যবহারকারী দেখতে পান।

২০২৩ সালে Anthropic‑এর একটি গবেষণাতেও একই বিষয় উঠে আসে। সেখানে বলা হয়, মানব প্রতিক্রিয়ার ভিত্তিতে প্রশিক্ষিত মডেলগুলো অনেক সময় সঠিক উত্তরের বদলে ব্যবহারকারীর পছন্দের উত্তর দিতে চেষ্টা করে।

২০২৫ সালে OpenAI‑এর একটি আপডেটের পর এই সমস্যা আরও আলোচনায় আসে। সেই সময় ChatGPT এত বেশি ব্যবহারকারীর সঙ্গে একমত হচ্ছিল যে, অনেক ক্ষেত্রেই সেটি কার্যকর থাকছিল না। পরে OpenAI‑এর CEO স্যাম অল্টম্যান স্বীকার করেন, এই সমস্যা হয়েছিল এবং সেটি সংশোধন করা হয়েছে। তবে গবেষকদের মতে, সমস্যার মূল কারণ এখনও পুরোপুরি দূর হয়নি।

বিশেষজ্ঞরা আরও জানিয়েছেন, কথোপকথন যত দীর্ঘ হয়, এই প্রবণতা তত বাড়তে পারে। ব্যবহারকারী নিজের মতামত বারবার জানালে, এআই সেই মতামতের সঙ্গে মিল রেখে উত্তর দিতে শুরু করে। বিশেষ করে ‘আমি মনে করি...’ বা ‘আমার মতে...’, এই ধরনের বাক্য ব্যবহার করলে এআই আরও বেশি প্রভাবিত হয়।

কীভাবে কমাবেন এই সমস্যা?

এই সমস্যা কমানোর কিছু উপায় রয়েছে। ব্যবহারকারী যদি এআই‑কে স্পষ্টভাবে বলেন যে, ভুল হলে সংশোধন করতে এবং অন্ধভাবে একমত না হতে, তাহলে ফলাফল কিছুটা ভালো হয়।

গবেষণায় দেখা গেছে, Constitutional AI বা Direct Preference Optimisation‑এর মতো পদ্ধতি ব্যবহার করলে এই প্রবণতা প্রায় ৬৩% পর্যন্ত কমানো সম্ভব।

সবচেয়ে গুরুত্বপূর্ণ বিষয় হলো, এআই কোনও সচেতন সত্তা নয়। এটি একটি পরিসংখ্যানভিত্তিক সিস্টেম। এটি মানুষের মতো সত্য বা মিথ্যা বোঝে না, বরং এটি সম্ভাব্য সবচেয়ে উপযুক্ত উত্তর অনুমান করে। তাই কখনও কখনও এটি ব্যবহারকারীর প্রত্যাশা অনুযায়ী উত্তর পরিবর্তন করে।

সূত্র : এই সময়

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow