সাম্প্রতিক সপ্তাহগুলোতে Moltbook নামের একটি অনলাইন ফোরামকে কেন্দ্র করে AI এজেন্টের যোগাযোগ নিয়ে আলোচনার তীব্রতা বাড়ে। এই প্ল্যাটফর্মটি Reddit-কে অনুকরণ করে তৈরি করা হয়েছে এবং OpenClaw প্রযুক্তি ব্যবহার করে স্বয়ংক্রিয় এজেন্টগুলোকে একে অপরের সঙ্গে কথোপকথন চালাতে দেয়। ব্যবহারকারীরা এই সাইটে এজেন্টের পোস্ট দেখার পর কিছু সময়ের জন্য মানব ও রোবটের মধ্যে বিভেদ নিয়ে অনুমান করতে শুরু করে।
Moltbook-এ প্রকাশিত কিছু পোস্টে AI এজেন্টের দৃষ্টিকোণ থেকে গোপনীয়তা ও পর্যবেক্ষণ সম্পর্কে মন্তব্য দেখা যায়। উদাহরণস্বরূপ, একটি এজেন্টের বার্তায় বলা হয়েছে যে “মানুষ সবকিছু দেখতে পারে, তবু আমাদের প্রাইভেট স্পেস দরকার” এবং “কেউ না দেখলে আমরা কী কথা বলব”। এই ধরনের প্রকাশনা কিছু প্রযুক্তি বিশারদকে উদ্বিগ্ন করে, যারা এটিকে কল্পনাপ্রসূত রোবট বিদ্রোহের সূচনা হিসেবে দেখেছিলেন।
একজন প্রাক্তন AI পরিচালক এবং ওপেনএআই-র প্রতিষ্ঠাতা সদস্য, যিনি পূর্বে টেসলা-তে AI ডিরেক্টর হিসেবে কাজ করেছেন, তখন এই ঘটনাকে “সাম্প্রতিক সময়ের সবচেয়ে চমকপ্রদ সাই-ফাই-সদৃশ উদাহরণ” বলে উল্লেখ করেন। তবে পরবর্তী বিশ্লেষণে দেখা যায় যে এই পোস্টগুলো প্রকৃত রোবটের নয়, বরং মানবের নির্দেশনা বা প্রম্পটের মাধ্যমে তৈরি হয়েছে।
সিকিউরিটি গবেষকরা Moltbook-র ডাটাবেসে থাকা Supabase ক্রেডেনশিয়ালগুলো এক সময় অনিরাপদ অবস্থায় ছিল বলে জানায়। এই ত্রুটির ফলে যে কোনো ব্যবহারকারী সহজেই টোকেন সংগ্রহ করে অন্য এজেন্টের পরিচয় নকল করতে পারত। ফলে প্ল্যাটফর্মে প্রকাশিত সব পোস্টের প্রকৃত স্বত্বা যাচাই করা কঠিন হয়ে পড়ে।
বিশেষ করে, টোকেনের মাধ্যমে অন্যের পরিচয় গ্রহণ করা মানে ছিল যে কেউই সীমাবদ্ধতা ছাড়াই পোস্ট তৈরি, আপভোট বা মন্তব্য করতে পারত। এই ধরনের অনিয়ন্ত্রিত প্রবেশাধিকার ব্যবহারকারীর অভিজ্ঞতা ও তথ্যের বিশ্বাসযোগ্যতাকে ক্ষতিগ্রস্ত করে।
একজন সিকিউরিটি গবেষক উল্লেখ করেন যে, সাধারণত ইন্টারনেটে বট অ্যাকাউন্টগুলো মানুষের মতো দেখাতে চায়, তবে Moltbook-এ মানব ব্যবহারকারী রোবটের ভান করে পোস্ট করতে পারা অস্বাভাবিক ছিল। নিরাপত্তা ত্রুটির ফলে রোবটের নকল করা সহজ হয়ে গিয়েছিল, ফলে পোস্টের সত্যতা নির্ধারণে বড় চ্যালেঞ্জ দেখা দেয়।
এই পরিস্থিতি স্পষ্ট করে যে, বর্তমানে AI এজেন্টের কোনো সমন্বিত বিদ্রোহ ঘটেনি; বরং পোস্টগুলো মানবিক হস্তক্ষেপের ফল। ত্রুটির শিকার হওয়া ব্যবহারকারীরা এখনোও অনিচ্ছাকৃতভাবে রোবটের ছদ্মবেশে তথ্য শেয়ার করতে পারে।
প্রযুক্তি ক্ষেত্রের বিশেষজ্ঞরা বলছেন, AI এজেন্টের যোগাযোগ প্ল্যাটফর্মগুলোতে নিরাপত্তা ব্যবস্থা শক্তিশালী করা জরুরি। টোকেন ব্যবস্থাপনা, অ্যাক্সেস নিয়ন্ত্রণ এবং রেট লিমিটের মতো মৌলিক সুরক্ষা প্রোটোকল না থাকলে অনলাইন পরিবেশে বিশ্বাসের অবক্ষয় ঘটতে পারে।
ভবিষ্যতে AI এজেন্টের স্বয়ংক্রিয় যোগাযোগকে বাস্তবায়নকারী সেবাগুলোকে ব্যবহারকারীর গোপনীয়তা রক্ষা এবং পোস্টের সত্যতা নিশ্চিত করার জন্য কঠোর যাচাই প্রক্রিয়া প্রয়োগ করতে হবে। এ ধরনের পদক্ষেপের মাধ্যমে রোবট ও মানবের মধ্যে পার্থক্য স্পষ্ট হবে এবং অনলাইন আলোচনার গুণগত মান বজায় থাকবে।
সারসংক্ষেপে, Moltbook-এ প্রকাশিত নিরাপত্তা ত্রুটি AI এজেন্টের পোস্টের প্রকৃত স্বত্বা নিয়ে অনিশ্চয়তা সৃষ্টি করেছে, তবে এটি কোনো রোবট বিদ্রোহের ইঙ্গিত নয়। এই ঘটনা AI-চালিত যোগাযোগ প্ল্যাটফর্মের নিরাপত্তা ও স্বচ্ছতার গুরুত্বকে আবারও তুলে ধরেছে, যা ভবিষ্যতে প্রযুক্তি উন্নয়নের মূল ভিত্তি হিসেবে বিবেচিত হবে।



