আমাজন তার কৃত্রিম বুদ্ধিমত্তা (AI) মডেল প্রশিক্ষণের জন্য ব্যবহৃত ডেটা সেটে বিশাল পরিমাণ শিশুলিঙ্গ যৌন নির্যাতন সামগ্রী (CSAM) সনাক্ত করেছে বলে জানায়। জাতীয় অনুপস্থিত ও শোষিত শিশু কেন্দ্র (NCMEC) ২০২৫ সালে AI-সম্পর্কিত CSAM রিপোর্টের সংখ্যা এক মিলিয়নের বেশি রেকর্ড করেছে, যার অধিকাংশই আমাজনের কাছ থেকে এসেছে। ব্লুমবার্গের তদন্তে প্রকাশিত এই তথ্যের ভিত্তিতে আমাজন ডেটার উৎস সম্পর্কে বিস্তারিত জানাতে অস্বীকার করেছে।
NCMEC-এর সাইবারটিপলাইন, যেখানে যুক্তরাষ্ট্রের বেশিরভাগ কোম্পানি সন্দেহজনক CSAM রিপোর্ট করতে বাধ্য, ২০২৫ সালে এক লক্ষাধিক AI-সম্পর্কিত অভিযোগ পেয়েছে। এই রিপোর্টের বেশিরভাগই আমাজনের সিস্টেম থেকে সংগ্রহিত, যা ডেটা প্রশিক্ষণের সময় অজান্তে সনাক্ত হয়েছে। পূর্ববর্তী বছরগুলোর তুলনায় এই সংখ্যা নাটকীয়ভাবে বেড়েছে, যা ডেটা সরবরাহ চেইনের স্বচ্ছতা ও নিরাপত্তা নিয়ে প্রশ্ন তুলেছে।
আমাজন উল্লেখ করেছে যে এই অনুপযুক্ত সামগ্রী বাহ্যিক উৎস থেকে সংগ্রহ করা হয়, যা AI সেবা প্রশিক্ষণের জন্য ব্যবহৃত হয়। তবে কোম্পানি স্পষ্ট করে বলেছে যে, CSAM-এর নির্দিষ্ট উৎস বা সরবরাহকারী সম্পর্কে কোনো অতিরিক্ত তথ্য প্রকাশ করা সম্ভব নয়। এই অবস্থান ডেটা সরবরাহকারীদের গোপনীয়তা রক্ষা এবং আইনি জটিলতা এড়ানোর উদ্দেশ্য হিসেবে ব্যাখ্যা করা হয়েছে।
কোম্পানির মুখপাত্র ব্লুমবার্গকে জানিয়েছেন, আমাজন ফাউন্ডেশন মডেল প্রশিক্ষণের সময় পাবলিক ওয়েবসহ বিভিন্ন উৎস থেকে ডেটা স্ক্যান করে পরিচিত CSAM চিহ্নিত করে সরিয়ে দেয়। নিরাপত্তা নিশ্চিত করতে তারা জানিয়েছে যে, সন্দেহজনক সামগ্রী সনাক্ত হলে তা তৎক্ষণাৎ মুছে ফেলা হয় এবং মডেল প্রশিক্ষণে ব্যবহার করা হয় না। এছাড়া, NCMEC-কে রিপোর্টের সংখ্যা অতিরিক্তভাবে বাড়িয়ে দেওয়া হয়েছে যাতে কোনো কেস বাদ না যায়।
NCMEC-এর সাইবারটিপলাইন এক্সিকিউটিভ ডিরেক্টর ফ্যালন ম্যাকনুল্টি উল্লেখ করেন, এমন উচ্চ পরিমাণের রিপোর্ট বছরের পর বছর ধারাবাহিকভাবে আসা ডেটা উৎস ও নিরাপত্তা ব্যবস্থার কার্যকারিতা নিয়ে প্রশ্ন উত্থাপন করে। তিনি বলেন, অন্যান্য কোম্পানি থেকে প্রাপ্ত AI-সম্পর্কিত রিপোর্টে কার্যকর তথ্য থাকে যা আইন প্রয়োগকারী সংস্থায় পাঠানো যায়, তবে আমাজনের রিপোর্টে উৎসের অস্বচ্ছতা কারণে তা ব্যবহারযোগ্য নয়।
২০২৩ সালে NCMEC মোট ৪,৭০০টি CSAM রিপোর্ট পেয়েছিল, যা ২০২৪ সালে ৬৭,০০০-এ বৃদ্ধি পেয়েছে। এরপর ২০২৫ সালে AI-সম্পর্কিত রিপোর্টের সংখ্যা এক মিলিয়নের উপরে পৌঁছায়, যা পূর্বের বছরের তুলনায় প্রায় দশ গুণ বেশি। এই ধারাবাহিক বৃদ্ধি দেখায় যে, AI প্রশিক্ষণের জন্য ব্যবহৃত ডেটা সেটে শিশুলিঙ্গ নির্যাতনের ঝুঁকি বাড়ছে এবং তদনুযায়ী পর্যবেক্ষণ ও নিয়ন্ত্রণের প্রয়োজনীয়তা তীব্রতর হচ্ছে।
শিশু সুরক্ষার প্রশ্ন সাম্প্রতিক মাসে কৃত্রিম বুদ্ধিমত্তা শিল্পের জন্য গুরুত্বপূর্ণ বিষয় হয়ে উঠেছে। বিশেষজ্ঞরা উল্লেখ করেন, AI মডেল প্রশিক্ষণে ব্যবহৃত বিশাল ডেটা ভলিউমের মধ্যে অনিচ্ছাকৃতভাবে অবৈধ সামগ্রী প্রবেশের সম্ভাবনা থাকে, যা সঠিক ফিল্টারিং ও পর্যবেক্ষণ ছাড়া বাড়তে পারে। তাই, ডেটা সংগ্রহকারী ও প্রক্রিয়াকরণকারী সংস্থাগুলোর জন্য স্বচ্ছতা, দায়িত্বশীলতা এবং আইনগত বাধ্যবাধকতা মেনে চলা অপরিহার্য।
আমাজন যদিও CSAM সনাক্তকরণ ও অপসারণের জন্য সক্রিয় পদক্ষেপ দাবি করেছে, তবে ডেটা উৎসের অস্বচ্ছতা নিয়ে উদ্বেগ অব্যাহত রয়েছে। NCMEC এবং সংশ্লিষ্ট নিয়ন্ত্রক সংস্থাগুলি এখন ডেটা সরবরাহ চেইনের পূর্ণ প্রকাশ এবং কার্যকর নিরাপত্তা প্রোটোকল প্রয়োগের জন্য চাপ বাড়িয়ে দিচ্ছে। ভবিষ্যতে AI মডেল প্রশিক্ষণে শিশুর সুরক্ষা নিশ্চিত করতে আন্তর্জাতিক মানদণ্ড ও কঠোর পর্যবেক্ষণ ব্যবস্থা গড়ে তোলা জরুরি।



