21 C
Dhaka
Friday, February 20, 2026
Google search engine
Homeপ্রযুক্তিওয়েস্ট ভার্জিনিয়া অ্যাপলের বিরুদ্ধে শিশু যৌন নির্যাতন সামগ্রী সংরক্ষণে অবহেলার মামলা দায়ের

ওয়েস্ট ভার্জিনিয়া অ্যাপলের বিরুদ্ধে শিশু যৌন নির্যাতন সামগ্রী সংরক্ষণে অবহেলার মামলা দায়ের

ওয়েস্ট ভার্জিনিয়ার অ্যাটর্নি জেনারেল অফিস বৃহস্পতিবার একটি মামলা দায়ের করেছে, যেখানে অ্যাপলকে iCloud পরিষেবা ব্যবহার করে শিশু যৌন নির্যাতন সামগ্রী (CSAM) সংরক্ষণ ও বিতরণে অবহেলা করার অভিযোগ করা হয়েছে। রাজ্য কর্তৃপক্ষের মতে, এই অবৈধ বিষয়বস্তু বহু বছর ধরে প্ল্যাটফর্মে উপস্থিত ছিল, কিন্তু গোপনীয়তা রক্ষার নামে কোনো পদক্ষেপ নেওয়া হয়নি।

মামলায় উল্লেখ করা হয়েছে যে অ্যাপলের এক উচ্চপদস্থ কর্মকর্তা, এরিক ফ্রিডম্যান, iCloud‑কে “শিশু পোরের সর্বোচ্চ বিতরণ প্ল্যাটফর্ম” বলে উল্লেখ করেছেন। এই কথোপকথনটি ২০২১ সালে দ্য ভার্জ দ্বারা প্রকাশিত হয়, যা এপিক গেমস বনাম অ্যাপল মামলার ডকুমেন্টে পাওয়া গিয়েছিল। ফ্রিডম্যানের মতে, অন্যান্য প্ল্যাটফর্ম নিরাপত্তাকে অগ্রাধিকার দেয়, আর অ্যাপলের অগ্রাধিকার তার বিপরীত।

রাজ্য দাবি করে যে CSAM সনাক্তকরণ ও রিপোর্ট করার জন্য প্রযুক্তি বিদ্যমান, তবু অ্যাপল তা প্রয়োগে ব্যর্থ হয়েছে। ২০২১ সালে অ্যাপল iCloud ফটোতে স্ক্যানিং চালু করার পরিকল্পনা করেছিল, তবে গোপনীয়তা উদ্বেগের কারণে সেই প্রকল্পটি ত্যাগ করে।

২০২৪ সালে অ্যাপলকে ২,৫০০েরও বেশি শিশ্য যৌন নির্যাতনের শিকারদের প্রতিনিধিত্বকারী একটি গোষ্ঠীও একই রকম অভিযোগে মামলা করেছে। শিকারেরা দাবি করে যে অ্যাপলের নিরাপত্তা ব্যবস্থা না থাকায় তাদের ছবি সার্ভারে ছড়িয়ে পড়ে এবং ক্ষতি বৃদ্ধি পায়। অ্যাপল তখন ইঙ্গিত দিয়েছে যে CSAM সম্পূর্ণভাবে নিন্দনীয় এবং তারা ব্যবহারকারীর গোপনীয়তা ক্ষুন্ন না করে এই অপরাধের বিরুদ্ধে প্রযুক্তি বিকাশে তৎপর।

ওয়েস্ট ভার্জিনিয়ার মামলা যদি অনুমোদিত হয়, তবে এটি প্রথমবারের মতো কোনো সরকারি সংস্থা অ্যাপলের বিরুদ্ধে CSAM সংক্রান্ত অবহেলার অভিযোগে আইনি পদক্ষেপ নেবে। রাজ্য আদালতে অ্যাপলকে কার্যকর সনাক্তকরণ ব্যবস্থা প্রয়োগের জন্য বাধ্য করার পাশাপাশি ক্ষতিপূরণ চাওয়া হয়েছে।

অ্যাপলের পক্ষ থেকে এখনও কোনো মন্তব্য পাওয়া যায়নি; তবে মামলার অগ্রগতি সম্পর্কে তথ্য সংগ্রহের জন্য সংশ্লিষ্ট দপ্তরকে অনুরোধ করা হয়েছে।

এই মামলাটি প্রযুক্তি ও গোপনীয়তার মধ্যে সূক্ষ্ম সমতা বজায় রাখার প্রশ্নকে উত্থাপন করে। iCloud ব্যবহারকারীর ডেটা সুরক্ষার পাশাপাশি অবৈধ বিষয়বস্তু প্রতিরোধে কীভাবে কাজ করবে, তা এখন আইনগত ও নীতিগত আলোচনার কেন্দ্রবিন্দুতে।

অ্যাপল পূর্বে শিশু যৌন নির্যাতন সামগ্রী মোকাবিলায় বিভিন্ন উদ্যোগের কথা জানিয়েছে, তবে গোপনীয়তা রক্ষার জন্য স্ক্যানিং প্রযুক্তি প্রয়োগে দ্বিধা প্রকাশ করেছে। এই দ্বিধা এখন আইনি চ্যালেঞ্জের মুখে দাঁড়িয়ে আছে।

মামলায় উল্লেখিত ডকুমেন্টগুলো দেখায় যে অভ্যন্তরীণভাবে অ্যাপল কর্মীরা iCloud-কে সমস্যাজনক প্ল্যাটফর্ম হিসেবে বিবেচনা করছিল, যদিও বাহ্যিকভাবে গোপনীয়তা রক্ষার বার্তা দিচ্ছিল।

রাজ্য কর্তৃপক্ষের দাবি অনুযায়ী, CSAM সনাক্তকরণে ব্যবহারযোগ্য প্রযুক্তি ইতিমধ্যে বিদ্যমান, এবং অ্যাপলকে তা দ্রুত বাস্তবায়ন করতে হবে। অন্যথায়, ব্যবহারকারীর গোপনীয়তা ও শিশু সুরক্ষার মধ্যে সমন্বয় বজায় রাখা কঠিন হবে।

এই মামলাটি প্রযুক্তি শিল্পে গোপনীয়তা ও নিরাপত্তা নীতির পুনর্বিবেচনার দরকারি সংকেত দেয়। ভবিষ্যতে iCloud এবং অনুরূপ ক্লাউড পরিষেবাগুলো কীভাবে পরিচালিত হবে, তা এখন আইনি ও সামাজিক পর্যায়ে গুরুত্বপূর্ণ আলোচনার বিষয়।

মামলার ফলাফল অ্যাপলের নীতি পরিবর্তন, নতুন সনাক্তকরণ টুলের প্রয়োগ, অথবা গোপনীয়তা ও নিরাপত্তার মধ্যে নতুন ভারসাম্য স্থাপনে প্রভাব ফেলতে পারে। এই প্রক্রিয়ায় ব্যবহারকারীর অধিকার ও শিশ্য সুরক্ষার স্বার্থ উভয়ই বিবেচনা করা হবে।

অ্যাপল ও অন্যান্য প্রযুক্তি কোম্পানিগুলোকে এখন গোপনীয়তা রক্ষা করার পাশাপাশি অবৈধ বিষয়বস্তু প্রতিরোধে কার্যকর পদক্ষেপ নিতে হবে, যাতে ভবিষ্যতে এমন আইনি চ্যালেঞ্জের মুখোমুখি না হতে হয়।

৬৫/১০০ ১টি সোর্স থেকে যাচাইকৃত।
আমরা ছাড়াও প্রকাশ করেছে: Engadget
প্রযুক্তি প্রতিবেদক
প্রযুক্তি প্রতিবেদক
AI-powered প্রযুক্তি content writer managed by NewsForge
RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments