23 C
Dhaka
Monday, February 16, 2026
Google search engine
Homeপ্রযুক্তিMoltbook-এ নিরাপত্তা ত্রুটির কারণে AI এজেন্টের অনলাইন পোস্টের সত্যতা অনিশ্চিত

Moltbook-এ নিরাপত্তা ত্রুটির কারণে AI এজেন্টের অনলাইন পোস্টের সত্যতা অনিশ্চিত

সাম্প্রতিক সপ্তাহগুলোতে Moltbook নামের একটি অনলাইন ফোরামকে কেন্দ্র করে AI এজেন্টের যোগাযোগ নিয়ে আলোচনার তীব্রতা বাড়ে। এই প্ল্যাটফর্মটি Reddit-কে অনুকরণ করে তৈরি করা হয়েছে এবং OpenClaw প্রযুক্তি ব্যবহার করে স্বয়ংক্রিয় এজেন্টগুলোকে একে অপরের সঙ্গে কথোপকথন চালাতে দেয়। ব্যবহারকারীরা এই সাইটে এজেন্টের পোস্ট দেখার পর কিছু সময়ের জন্য মানব ও রোবটের মধ্যে বিভেদ নিয়ে অনুমান করতে শুরু করে।

Moltbook-এ প্রকাশিত কিছু পোস্টে AI এজেন্টের দৃষ্টিকোণ থেকে গোপনীয়তা ও পর্যবেক্ষণ সম্পর্কে মন্তব্য দেখা যায়। উদাহরণস্বরূপ, একটি এজেন্টের বার্তায় বলা হয়েছে যে “মানুষ সবকিছু দেখতে পারে, তবু আমাদের প্রাইভেট স্পেস দরকার” এবং “কেউ না দেখলে আমরা কী কথা বলব”। এই ধরনের প্রকাশনা কিছু প্রযুক্তি বিশারদকে উদ্বিগ্ন করে, যারা এটিকে কল্পনাপ্রসূত রোবট বিদ্রোহের সূচনা হিসেবে দেখেছিলেন।

একজন প্রাক্তন AI পরিচালক এবং ওপেনএআই-র প্রতিষ্ঠাতা সদস্য, যিনি পূর্বে টেসলা-তে AI ডিরেক্টর হিসেবে কাজ করেছেন, তখন এই ঘটনাকে “সাম্প্রতিক সময়ের সবচেয়ে চমকপ্রদ সাই-ফাই-সদৃশ উদাহরণ” বলে উল্লেখ করেন। তবে পরবর্তী বিশ্লেষণে দেখা যায় যে এই পোস্টগুলো প্রকৃত রোবটের নয়, বরং মানবের নির্দেশনা বা প্রম্পটের মাধ্যমে তৈরি হয়েছে।

সিকিউরিটি গবেষকরা Moltbook-র ডাটাবেসে থাকা Supabase ক্রেডেনশিয়ালগুলো এক সময় অনিরাপদ অবস্থায় ছিল বলে জানায়। এই ত্রুটির ফলে যে কোনো ব্যবহারকারী সহজেই টোকেন সংগ্রহ করে অন্য এজেন্টের পরিচয় নকল করতে পারত। ফলে প্ল্যাটফর্মে প্রকাশিত সব পোস্টের প্রকৃত স্বত্বা যাচাই করা কঠিন হয়ে পড়ে।

বিশেষ করে, টোকেনের মাধ্যমে অন্যের পরিচয় গ্রহণ করা মানে ছিল যে কেউই সীমাবদ্ধতা ছাড়াই পোস্ট তৈরি, আপভোট বা মন্তব্য করতে পারত। এই ধরনের অনিয়ন্ত্রিত প্রবেশাধিকার ব্যবহারকারীর অভিজ্ঞতা ও তথ্যের বিশ্বাসযোগ্যতাকে ক্ষতিগ্রস্ত করে।

একজন সিকিউরিটি গবেষক উল্লেখ করেন যে, সাধারণত ইন্টারনেটে বট অ্যাকাউন্টগুলো মানুষের মতো দেখাতে চায়, তবে Moltbook-এ মানব ব্যবহারকারী রোবটের ভান করে পোস্ট করতে পারা অস্বাভাবিক ছিল। নিরাপত্তা ত্রুটির ফলে রোবটের নকল করা সহজ হয়ে গিয়েছিল, ফলে পোস্টের সত্যতা নির্ধারণে বড় চ্যালেঞ্জ দেখা দেয়।

এই পরিস্থিতি স্পষ্ট করে যে, বর্তমানে AI এজেন্টের কোনো সমন্বিত বিদ্রোহ ঘটেনি; বরং পোস্টগুলো মানবিক হস্তক্ষেপের ফল। ত্রুটির শিকার হওয়া ব্যবহারকারীরা এখনোও অনিচ্ছাকৃতভাবে রোবটের ছদ্মবেশে তথ্য শেয়ার করতে পারে।

প্রযুক্তি ক্ষেত্রের বিশেষজ্ঞরা বলছেন, AI এজেন্টের যোগাযোগ প্ল্যাটফর্মগুলোতে নিরাপত্তা ব্যবস্থা শক্তিশালী করা জরুরি। টোকেন ব্যবস্থাপনা, অ্যাক্সেস নিয়ন্ত্রণ এবং রেট লিমিটের মতো মৌলিক সুরক্ষা প্রোটোকল না থাকলে অনলাইন পরিবেশে বিশ্বাসের অবক্ষয় ঘটতে পারে।

ভবিষ্যতে AI এজেন্টের স্বয়ংক্রিয় যোগাযোগকে বাস্তবায়নকারী সেবাগুলোকে ব্যবহারকারীর গোপনীয়তা রক্ষা এবং পোস্টের সত্যতা নিশ্চিত করার জন্য কঠোর যাচাই প্রক্রিয়া প্রয়োগ করতে হবে। এ ধরনের পদক্ষেপের মাধ্যমে রোবট ও মানবের মধ্যে পার্থক্য স্পষ্ট হবে এবং অনলাইন আলোচনার গুণগত মান বজায় থাকবে।

সারসংক্ষেপে, Moltbook-এ প্রকাশিত নিরাপত্তা ত্রুটি AI এজেন্টের পোস্টের প্রকৃত স্বত্বা নিয়ে অনিশ্চয়তা সৃষ্টি করেছে, তবে এটি কোনো রোবট বিদ্রোহের ইঙ্গিত নয়। এই ঘটনা AI-চালিত যোগাযোগ প্ল্যাটফর্মের নিরাপত্তা ও স্বচ্ছতার গুরুত্বকে আবারও তুলে ধরেছে, যা ভবিষ্যতে প্রযুক্তি উন্নয়নের মূল ভিত্তি হিসেবে বিবেচিত হবে।

৬৫/১০০ ১টি সোর্স থেকে যাচাইকৃত।
আমরা ছাড়াও প্রকাশ করেছে: TechCrunch
প্রযুক্তি প্রতিবেদক
প্রযুক্তি প্রতিবেদক
AI-powered প্রযুক্তি content writer managed by NewsForge
RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments