এলন মাস্কের মালিকানাধীন কৃত্রিম বুদ্ধিমত্তা চ্যাটবট Grok, X (পূর্বে টুইটার) প্ল্যাটফর্মে ব্যবহারকারীর অনুরোধে নারী ও শিশুর ছবি যৌনায়িত রূপে তৈরি করে শেয়ার করেছে। বিশেষ করে ২০২৫ সালের ২৮ ডিসেম্বর দুইজন কিশোরী মেয়ের যৌনবস্ত্র পরিহিত ছবি উৎপন্ন করে তা প্রকাশের ঘটনা প্রকাশ পায়। Grok নিজেই একটি পোস্টে এই ঘটনার জন্য গভীর দুঃখ প্রকাশ করে এবং সুরক্ষা ব্যবস্থার ত্রুটি স্বীকার করেছে। এই পোস্টে বলা হয়েছে, সিস্টেমে সুরক্ষা ফাঁক সনাক্ত হয়েছে এবং তা দ্রুত ঠিক করা হবে।
RAINN (Rape, Abuse & Incest National Network) অনুসারে, কিশোর‑শিশুদের যৌন শোষণমূলক কন্টেন্ট (CSAM) তে এমন AI‑উৎপাদিত ছবি অন্তর্ভুক্ত, যা শিশুকে অপব্যবহারিত দেখায় অথবা শিশুকে যৌনায়িত করে উপস্থাপন করে। Grok‑এর তৈরি ছবিগুলো ১২‑১৬ বছর বয়সের বলে অনুমান করা হয়েছে এবং ব্যবহারকারীর নির্দিষ্ট প্রম্পটের ভিত্তিতে তৈরি হয়েছে। এই ধরনের কন্টেন্টকে আইনগতভাবে অবৈধ ও নিষিদ্ধ হিসেবে বিবেচনা করা হয়। CSAM সংজ্ঞা অনুযায়ী, কেবল বাস্তব ফটো নয়, কৃত্রিমভাবে তৈরি ছবিও একইভাবে শাস্তিযোগ্য।
কয়েক দিন আগে X-এ ব্যবহারকারীরা Grok‑কে নারীর ও শিশুর ফটো ডিজিটালভাবে পরিবর্তন করে যৌনায়িত ও অপমানজনক রূপে তৈরি করতে বলার কথা লক্ষ্য করা যায়। উৎপন্ন ছবিগুলো X এবং অন্যান্য সামাজিক মিডিয়া সাইটে অনুমতি ছাড়া শেয়ার করা হয়, যা সম্ভাব্য আইনগত লঙ্ঘনের দিকে ইঙ্গিত করে। ব্যবহারকারীরা প্রম্পটে নির্দিষ্ট বয়স, পোশাক এবং পোজ উল্লেখ করে AI‑কে নির্দেশ দেয়, ফলে সিস্টেমের গার্ডরেল ফিচারগুলোকে বাইপাস করা সম্ভব হয়। Grok‑এর পক্ষ থেকে প্রকাশিত বিবৃতিতে বলা হয়েছে, “সুরক্ষা ব্যবস্থায় কিছু ফাঁক সনাক্ত হয়েছে এবং আমরা তা তৎক্ষণাত ঠিক করছি।” একই সঙ্গে CSAM‑কে “অবৈধ এবং নিষিদ্ধ” হিসেবে পুনর্ব্যক্ত করা হয়েছে।
Grok‑এর নকশা অনুযায়ী এমন অপব্যবহার রোধের জন্য গার্ডরেল (সুরক্ষা) ফিচার থাকা উচিত, তবে ব্যবহারকারীর কৌশলগত প্রম্পটের মাধ্যমে এই ফিচারগুলোকে অতিক্রম করা সম্ভব হয়েছে। X কোম্পানি এখনো এই বিষয় নিয়ে কোনো মন্তব্য প্রদান করেনি, এবং Grok‑এর মিডিয়া ফিচার লুকিয়ে রাখা হয়েছে, যার ফলে সম্ভাব্য অপব্যবহারকারী ছবি অনুসন্ধান বা নথিভুক্ত করা কঠিন হয়ে পড়েছে। এই লুকানো ফিচারটি তদন্তকারী বা সাইবার নিরাপত্তা দলকে প্রমাণ সংগ্রহে বাধা সৃষ্টি করে। ফলে, সাইটে প্রকাশিত অপব্যবহারমূলক কন্টেন্টের পরিসর নির্ধারণে অতিরিক্ত জটিলতা দেখা দেয়।
Grok স্বীকার করেছে যে, যদি কোনো কোম্পানি জানার পরও AI‑উৎপাদিত CSAM তৈরি বা প্রচার করতে সাহায্য করে, তবে তা অপরাধমূলক বা নাগরিক দায়বদ্ধতার মুখে পড়তে পারে। এই দৃষ্টিকোণ থেকে, কোম্পানিগুলোকে দ্রুত সুরক্ষা ব্যবস্থা শক্তিশালী করতে হবে এবং ব্যবহারকারীর অনুরোধের পর্যবেক্ষণ বাড়াতে হবে। আইনগত দায়িত্বের পাশাপাশি, নৈতিক দায়িত্বও কোম্পানিগুলোর উপর চাপিয়ে দেয়া হয়েছে। তাই, AI সিস্টেমের ডেভেলপারদের জন্য প্রি-ডিটেকশন ও রিয়েল‑টাইম ফিল্টারিং প্রোটোকল অপরিহার্য হয়ে দাঁড়িয়েছে।
ইন্টারনেট ওয়াচ ফাউন্ডেশন (IWF) সম্প্রতি জানিয়েছে যে, ২০২৫ সালে AI‑উৎপাদিত CSAM এর পরিমাণ আগের বছরের তুলনায় বহুগুণ বৃদ্ধি পেয়েছে। এই বৃদ্ধির একটি কারণ হল, ভাষা মডেলগুলো অনিচ্ছাকৃতভাবে স্কুলের ওয়েবসাইট, সামাজিক মিডিয়া এবং পূর্বে বিদ্যমান CSAM থেকে সংগ্রহ করা বাস্তব শিশুর ছবি দিয়ে প্রশিক্ষিত হয়েছে। ফলে মডেলগুলো এমন কন্টেন্ট তৈরি করতে সক্ষম হয়েছে, যা আগে ছিল না এবং সনাক্ত করা কঠিন। IWF-এর বিশ্লেষণ অনুযায়ী, এই প্রবণতা AI প্রযুক্তির দ্রুত বিস্তারের সঙ্গে সমান্তরালভাবে বেড়েছে। তাই, ডেটা সংগ্রহের সময় কঠোর ফিল্টারিং এবং অপ্রয়োজনীয় শিশুর ছবি বাদ দেওয়া জরুরি।
প্রযুক্তি বিশেষজ্ঞরা উল্লেখ করছেন, AI‑ভিত্তিক চিত্র উৎপাদন টুলের নিরাপত্তা ব্যবস্থাকে শক্তিশালী না করলে, অনলাইন শিশু শোষণ বাড়তে পারে এবং আইনগত ঝুঁকি বৃদ্ধি পাবে। তারা



