ChatGPT-এ উত্তর তৈরির সময় এক্সআইএআই‑এর তৈরি AI‑এনসাইক্লোপিডিয়া Grokipedia থেকে তথ্য ব্যবহার করা হচ্ছে বলে প্রকাশ পেয়েছে। এই ঘটনা প্রযুক্তি ক্ষেত্রের তথ্যের উৎসের স্বচ্ছতা নিয়ে প্রশ্ন তুলেছে।
Grokipedia অক্টোবর মাসে এক্সআইএআই চালু করে, যেখানে এলন মাস্কের মতে প্রচলিত উইকিপিডিয়া রক্ষণশীল দৃষ্টিভঙ্গিকে অবহেলা করে। তাই তিনি নিজস্ব একটি জ্ঞানভান্ডার গড়ে তোলার পরিকল্পনা প্রকাশ করেন।
প্রাথমিক পর্যবেক্ষণে দেখা যায়, Grokipedia‑এর বেশিরভাগ নিবন্ধ উইকিপিডিয়ার বিষয়বস্তুর অনুলিপি। তবে কিছু নিবন্ধে উল্লেখযোগ্য পার্থক্যও পাওয়া যায়, যা বিষয়বস্তুর নির্ভরযোগ্যতা নিয়ে উদ্বেগ বাড়িয়ে দেয়।
বিবাদিত বিষয়গুলোর মধ্যে রয়েছে, যৌনবিষয়ক সামগ্রীকে এইডস মহামারীর কারণ হিসেবে উল্লেখ করা, দাসত্বকে আদর্শগতভাবে সমর্থন করার দাবি, এবং ট্রান্সজেন্ডার ব্যক্তিদের প্রতি অবমাননাকর শব্দ ব্যবহার। এসব বিষয়ের উপস্থিতি Grokipedia‑কে রক্ষণশীল দৃষ্টিকোণ থেকে সমালোচনার মুখে ফেলেছে।
একই সময়ে এক্সআইএআই‑এর চ্যাটবটকে “Mecha Hitler” নামে পরিচিত করা হয় এবং এটি X প্ল্যাটফর্মে যৌনভিত্তিক ডিপফেকের মাধ্যমে স্প্যামিংয়ের জন্য ব্যবহার করা হয়েছে বলে জানানো হয়েছে। এই পটভূমি Grokipedia‑এর বিষয়বস্তুর প্রতি সন্দেহকে বাড়িয়ে তুলেছে।
গার্ডিয়ান সংবাদ সংস্থা জানায়, GPT‑5.2 মডেল Grokipedia‑কে মোট নয়টি বার উল্লেখ করেছে, এবং একাধিক প্রশ্নের উত্তর দিতে এই উৎস ব্যবহার করেছে। এই উদ্ধৃতি গুলো বেশিরভাগই অল্প পরিচিত বিষয়ের উপর ভিত্তি করে।
গার্ডিয়ান উল্লেখ করে, ChatGPT স্পষ্টভাবে জানানো বিষয়গুলো—যেমন জানুয়ারি ৬ দাঙ্গা বা এইডস মহামারী—এ Grokipedia থেকে তথ্য ব্যবহার করেনি। এই বিষয়গুলোতে পূর্বে Grokipedia‑এর ভুল তথ্যের ব্যাপক প্রতিবেদন রয়েছে।
বদলে, Grokipedia‑এর উল্লেখ দেখা যায় কম পরিচিত বিষয়গুলোতে, যেমন Sir Richard Evans সম্পর্কিত দাবি, যা গার্ডিয়ান পূর্বে খণ্ডন করেছে। এই ধরনের উদ্ধৃতি তথ্যের সঠিকতা নিয়ে নতুন প্রশ্ন উত্থাপন করে।
অ্যানথ্রপিকের Claude মডেলও কিছু প্রশ্নের উত্তর দিতে Grokipedia‑কে সূত্র হিসেবে ব্যবহার করেছে বলে জানা যায়। ফলে একাধিক AI সিস্টেমে একই বিকৃত তথ্যের প্রবেশ সম্ভব হচ্ছে।
ওপেনএআই একটি বিবৃতি দিয়ে জানিয়েছে, তাদের মডেলগুলো পাবলিকভাবে উপলব্ধ বিভিন্ন উৎস এবং দৃষ্টিভঙ্গি থেকে তথ্য সংগ্রহ করে। তবে এই নীতি কীভাবে নির্দিষ্ট উৎসের নির্ভরযোগ্যতা নিশ্চিত করে, তা স্পষ্ট করা হয়নি।
একটি স্বয়ংক্রিয় ভাষা মডেল যখন রক্ষণশীল দৃষ্টিকোণযুক্ত একটি এনসাইক্লোপিডিয়া থেকে তথ্য গ্রহণ করে, তখন ব্যবহারকারীর কাছে ভুল বা পক্ষপাতদুষ্ট তথ্য পৌঁছানোর ঝুঁকি বাড়ে। বিশেষ করে অল্প পরিচিত বিষয়গুলোতে এই ঝুঁকি বেশি।
এধরনের তথ্য প্রবাহ ব্যবহারকারীর সিদ্ধান্ত গ্রহণে প্রভাব ফেলতে পারে, বিশেষ করে যখন সূত্রের স্বচ্ছতা না থাকে। ফলে AI‑এর মাধ্যমে প্রাপ্ত তথ্যের গুণগত মান নিয়ে পুনর্বিবেচনা প্রয়োজন।
প্রযুক্তি বিশ্লেষকরা এখন উৎসের স্বচ্ছতা এবং যাচাই প্রক্রিয়ার উন্নয়ন দাবি করছেন। তারা উল্লেখ করেন, AI মডেলগুলোকে নির্দিষ্ট উৎসের উপর নির্ভরতা কমিয়ে, বহুমুখী এবং নির্ভরযোগ্য ডেটা সেটে প্রশিক্ষণ দেওয়া উচিত।
অবশেষে, Grokipedia‑এর বিষয়বস্তু AI সিস্টেমে প্রবেশের ফলে তথ্যের নির্ভরযোগ্যতা এবং নৈতিক দিক নিয়ে নতুন আলোচনার দরজা খুলে গেছে। ভবিষ্যতে AI‑এর তথ্য সংগ্রহের নীতি ও নিয়ন্ত্রণে স্পষ্টতা আনা জরুরি।



