बाल यौन शोषण सामग्री के प्रसार को धीमा करने के लिए Apple की सुविधा जल्द ही कभी भी जारी नहीं की जाएगी

Apple ने पहले कहा था कि वह उन बच्चों को शिकारियों से बचाना चाहता है जो भर्ती करने और उनका शोषण करने के लिए संचार साधनों का उपयोग करते हैं और बाल यौन शोषण सामग्री (CSAM) के प्रसार को सीमित करते हैं।

प्रकाश डाला गया

  • Apple पिछले महीने घोषित किए गए चाइल्ड प्रोटेक्शन फीचर को रोल आउट करने से पहले एक सूचित निर्णय लेना चाहता है।
  • क्यूपर्टिनो-जाइंट ने एक ताजा बयान में कहा कि वह फीडबैक के आधार पर इसमें सुधार किए बिना फीचर को रोल आउट नहीं करेगा।
  • Apple ने घोषणा की थी कि उसका नया फीचर बाल यौन शोषण सामग्री के लिए उपयोगकर्ताओं की तस्वीरों को स्कैन करेगा।

Apple पिछले महीने घोषित किए गए चाइल्ड प्रोटेक्शन फीचर को रोल आउट करने से पहले एक सूचित निर्णय लेना चाहता है। क्यूपर्टिनो-जाइंट ने एक ताजा बयान में कहा कि वह फीडबैक के आधार पर इसमें सुधार किए बिना फीचर को रोल आउट नहीं करेगा। Apple ने घोषणा की थी कि उसका नया फीचर बाल यौन शोषण सामग्री के लिए उपयोगकर्ताओं की तस्वीरों को स्कैन करेगा। हालाँकि, इस कदम की गोपनीयता की वकालत करने वालों ने कड़ी आलोचना की क्योंकि यह स्पष्ट रूप से उपयोगकर्ताओं की गोपनीयता का उल्लंघन करता है और सरकारों द्वारा इसका फायदा उठाया जा सकता है।

“पिछले महीने हमने बच्चों को उन शिकारियों से बचाने में मदद करने के उद्देश्य से सुविधाओं की योजना की घोषणा की जो संचार साधनों का उपयोग करते हैं और उनका शोषण करते हैं और बाल यौन शोषण सामग्री के प्रसार को सीमित करते हैं। ग्राहकों, वकालत करने वाले समूहों, शोधकर्ताओं और अन्य लोगों की प्रतिक्रिया के आधार पर, हमने इन महत्वपूर्ण बाल सुरक्षा सुविधाओं को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए आने वाले महीनों में अतिरिक्त समय लेने का फैसला किया है, “एप्पल के प्रवक्ता ने एक बयान में द वर्ज को बताया।

Apple ने पहले कहा था कि वह उन बच्चों को शिकारियों से बचाना चाहता है जो संचार साधनों का उपयोग करते हैं और उनका शोषण करते हैं, और बाल यौन शोषण सामग्री (CSAM) के प्रसार को सीमित करते हैं। जबकि इस क्षेत्र में काम करने का Apple का इरादा प्रशंसनीय था, यह कदम अप्रत्याशित था। ऐप्पल ने कहा था कि वह आईओएस और आईपैडओएस में नई तकनीक की घोषणा करेगा ताकि आईक्लाउड फोटोज में संग्रहीत ज्ञात सीएसएएम छवियों का पता लगाया जा सके। इसका स्पष्ट अर्थ है कि ऐप्पल संदिग्धों के आईक्लाउड स्टोरेज में घुस जाएगा और नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (एनसीएमईसी) को मामलों की रिपोर्ट करेगा।

“ज्ञात CSAM का पता लगाने के लिए Apple का तरीका उपयोगकर्ता की गोपनीयता को ध्यान में रखकर बनाया गया है। क्लाउड में छवियों को स्कैन करने के बजाय, सिस्टम NCMEC और अन्य बाल सुरक्षा संगठनों द्वारा प्रदान किए गए ज्ञात CSAM छवि हैश के डेटाबेस का उपयोग करके ऑन-डिवाइस मिलान करता है। Apple आगे इस डेटाबेस को हैश के एक अपठनीय सेट में बदल देता है जो उपयोगकर्ताओं के उपकरणों पर सुरक्षित रूप से संग्रहीत होता है, ”Apple ने एक ब्लॉग में कहा।

बाल यौन शोषण सामग्री के प्रसार को सीमित करने के लिए Apple के कदम की न केवल गोपनीयता और सुरक्षा विशेषज्ञों द्वारा बल्कि व्हाट्सएप प्रमुख विल कैथकार्ट द्वारा भी आलोचना की गई थी। उन्होंने ट्वीट्स की एक श्रृंखला में समझाया था कि वह CSAM सामग्री के प्रसार को रोकने के लिए Apple जैसी प्रणाली को कभी नहीं अपनाएंगे। उन्होंने आरोप लगाया था कि ऐप्पल की नई निगरानी प्रणाली का उपयोग निजी सामग्री को स्कैन करने के लिए बहुत आसानी से किया जा सकता है, जो वे या सरकार तय करती है कि वह इसे नियंत्रित करना चाहती है। उन्होंने पूरे सिस्टम को लेकर कई सवाल भी उठाए हैं.

STORY BY -: indiatoday.in

यह भी पढ़ें…Apple वॉच सीरीज़ 7 में चापलूसी वाले पक्ष, बड़ी स्क्रीन और नए वॉच फ़ेस हो सकते हैं

Leave a Reply

Your email address will not be published. Required fields are marked *