18 C
Dhaka
Friday, January 30, 2026
Google search engine
Homeপ্রযুক্তিআমাজন AI প্রশিক্ষণ ডেটায় বিশাল পরিমাণ CSAM সনাক্ত, উৎস প্রকাশে অস্বীকার

আমাজন AI প্রশিক্ষণ ডেটায় বিশাল পরিমাণ CSAM সনাক্ত, উৎস প্রকাশে অস্বীকার

আমাজন তার কৃত্রিম বুদ্ধিমত্তা (AI) মডেল প্রশিক্ষণের জন্য ব্যবহৃত ডেটা সেটে বিশাল পরিমাণ শিশুলিঙ্গ যৌন নির্যাতন সামগ্রী (CSAM) সনাক্ত করেছে বলে জানায়। জাতীয় অনুপস্থিত ও শোষিত শিশু কেন্দ্র (NCMEC) ২০২৫ সালে AI-সম্পর্কিত CSAM রিপোর্টের সংখ্যা এক মিলিয়নের বেশি রেকর্ড করেছে, যার অধিকাংশই আমাজনের কাছ থেকে এসেছে। ব্লুমবার্গের তদন্তে প্রকাশিত এই তথ্যের ভিত্তিতে আমাজন ডেটার উৎস সম্পর্কে বিস্তারিত জানাতে অস্বীকার করেছে।

NCMEC-এর সাইবারটিপলাইন, যেখানে যুক্তরাষ্ট্রের বেশিরভাগ কোম্পানি সন্দেহজনক CSAM রিপোর্ট করতে বাধ্য, ২০২৫ সালে এক লক্ষাধিক AI-সম্পর্কিত অভিযোগ পেয়েছে। এই রিপোর্টের বেশিরভাগই আমাজনের সিস্টেম থেকে সংগ্রহিত, যা ডেটা প্রশিক্ষণের সময় অজান্তে সনাক্ত হয়েছে। পূর্ববর্তী বছরগুলোর তুলনায় এই সংখ্যা নাটকীয়ভাবে বেড়েছে, যা ডেটা সরবরাহ চেইনের স্বচ্ছতা ও নিরাপত্তা নিয়ে প্রশ্ন তুলেছে।

আমাজন উল্লেখ করেছে যে এই অনুপযুক্ত সামগ্রী বাহ্যিক উৎস থেকে সংগ্রহ করা হয়, যা AI সেবা প্রশিক্ষণের জন্য ব্যবহৃত হয়। তবে কোম্পানি স্পষ্ট করে বলেছে যে, CSAM-এর নির্দিষ্ট উৎস বা সরবরাহকারী সম্পর্কে কোনো অতিরিক্ত তথ্য প্রকাশ করা সম্ভব নয়। এই অবস্থান ডেটা সরবরাহকারীদের গোপনীয়তা রক্ষা এবং আইনি জটিলতা এড়ানোর উদ্দেশ্য হিসেবে ব্যাখ্যা করা হয়েছে।

কোম্পানির মুখপাত্র ব্লুমবার্গকে জানিয়েছেন, আমাজন ফাউন্ডেশন মডেল প্রশিক্ষণের সময় পাবলিক ওয়েবসহ বিভিন্ন উৎস থেকে ডেটা স্ক্যান করে পরিচিত CSAM চিহ্নিত করে সরিয়ে দেয়। নিরাপত্তা নিশ্চিত করতে তারা জানিয়েছে যে, সন্দেহজনক সামগ্রী সনাক্ত হলে তা তৎক্ষণাৎ মুছে ফেলা হয় এবং মডেল প্রশিক্ষণে ব্যবহার করা হয় না। এছাড়া, NCMEC-কে রিপোর্টের সংখ্যা অতিরিক্তভাবে বাড়িয়ে দেওয়া হয়েছে যাতে কোনো কেস বাদ না যায়।

NCMEC-এর সাইবারটিপলাইন এক্সিকিউটিভ ডিরেক্টর ফ্যালন ম্যাকনুল্টি উল্লেখ করেন, এমন উচ্চ পরিমাণের রিপোর্ট বছরের পর বছর ধারাবাহিকভাবে আসা ডেটা উৎস ও নিরাপত্তা ব্যবস্থার কার্যকারিতা নিয়ে প্রশ্ন উত্থাপন করে। তিনি বলেন, অন্যান্য কোম্পানি থেকে প্রাপ্ত AI-সম্পর্কিত রিপোর্টে কার্যকর তথ্য থাকে যা আইন প্রয়োগকারী সংস্থায় পাঠানো যায়, তবে আমাজনের রিপোর্টে উৎসের অস্বচ্ছতা কারণে তা ব্যবহারযোগ্য নয়।

২০২৩ সালে NCMEC মোট ৪,৭০০টি CSAM রিপোর্ট পেয়েছিল, যা ২০২৪ সালে ৬৭,০০০-এ বৃদ্ধি পেয়েছে। এরপর ২০২৫ সালে AI-সম্পর্কিত রিপোর্টের সংখ্যা এক মিলিয়নের উপরে পৌঁছায়, যা পূর্বের বছরের তুলনায় প্রায় দশ গুণ বেশি। এই ধারাবাহিক বৃদ্ধি দেখায় যে, AI প্রশিক্ষণের জন্য ব্যবহৃত ডেটা সেটে শিশুলিঙ্গ নির্যাতনের ঝুঁকি বাড়ছে এবং তদনুযায়ী পর্যবেক্ষণ ও নিয়ন্ত্রণের প্রয়োজনীয়তা তীব্রতর হচ্ছে।

শিশু সুরক্ষার প্রশ্ন সাম্প্রতিক মাসে কৃত্রিম বুদ্ধিমত্তা শিল্পের জন্য গুরুত্বপূর্ণ বিষয় হয়ে উঠেছে। বিশেষজ্ঞরা উল্লেখ করেন, AI মডেল প্রশিক্ষণে ব্যবহৃত বিশাল ডেটা ভলিউমের মধ্যে অনিচ্ছাকৃতভাবে অবৈধ সামগ্রী প্রবেশের সম্ভাবনা থাকে, যা সঠিক ফিল্টারিং ও পর্যবেক্ষণ ছাড়া বাড়তে পারে। তাই, ডেটা সংগ্রহকারী ও প্রক্রিয়াকরণকারী সংস্থাগুলোর জন্য স্বচ্ছতা, দায়িত্বশীলতা এবং আইনগত বাধ্যবাধকতা মেনে চলা অপরিহার্য।

আমাজন যদিও CSAM সনাক্তকরণ ও অপসারণের জন্য সক্রিয় পদক্ষেপ দাবি করেছে, তবে ডেটা উৎসের অস্বচ্ছতা নিয়ে উদ্বেগ অব্যাহত রয়েছে। NCMEC এবং সংশ্লিষ্ট নিয়ন্ত্রক সংস্থাগুলি এখন ডেটা সরবরাহ চেইনের পূর্ণ প্রকাশ এবং কার্যকর নিরাপত্তা প্রোটোকল প্রয়োগের জন্য চাপ বাড়িয়ে দিচ্ছে। ভবিষ্যতে AI মডেল প্রশিক্ষণে শিশুর সুরক্ষা নিশ্চিত করতে আন্তর্জাতিক মানদণ্ড ও কঠোর পর্যবেক্ষণ ব্যবস্থা গড়ে তোলা জরুরি।

৬৫/১০০ ১টি সোর্স থেকে যাচাইকৃত।
আমরা ছাড়াও প্রকাশ করেছে: Engadget
প্রযুক্তি প্রতিবেদক
প্রযুক্তি প্রতিবেদক
AI-powered প্রযুক্তি content writer managed by NewsForge
RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments