Apple को चाइल्ड प्रोटेक्शन फीचर को शुरू करने के लिए और अधिक समय चाहिए

apple-to-take-more-time-to-roll-out-child-safety-features
apple-to-take-more-time-to-roll-out-child-safety-features

Apple पिछले महीने घोषित किए गए चाइल्ड प्रोटेक्शन फीचर को रोल आउट करने से पहले एक सूचित निर्णय लेना चाहता है। क्यूपर्टिनो-जाइंट ने एक ताजा बयान में कहा कि वह फीडबैक के आधार पर इसमें सुधार किए बिना फीचर को रोल आउट नहीं करेगा। Apple ने घोषणा की थी कि उसका नया फीचर बाल यौन शोषण सामग्री के लिए उपयोगकर्ताओं की तस्वीरों को स्कैन करेगा। हालाँकि, इस कदम की गोपनीयता की वकालत करने वालों ने कड़ी आलोचना की क्योंकि यह स्पष्ट रूप से उपयोगकर्ताओं की गोपनीयता का उल्लंघन करता है और सरकारों द्वारा इसका फायदा उठाया जा सकता है।

पिछले महीने हमने उन सुविधाओं के लिए योजनाओं की घोषणा की, जो बच्चों को उन शिकारियों से बचाने में मदद करती हैं जो संचार साधनों का उपयोग करते हैं और उनका शोषण करते हैं और बाल यौन शोषण सामग्री के प्रसार को सीमित करते हैं। ग्राहकों, वकालत करने वाले समूहों, शोधकर्ताओं और अन्य लोगों की प्रतिक्रिया के आधार पर, हमने इन महत्वपूर्ण बाल सुरक्षा सुविधाओं को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए आने वाले महीनों में अतिरिक्त समय लेने का फैसला किया है, “एप्पल के प्रवक्ता ने एक बयान में द वर्ज को बताया।

READ ALSO  नवरात्रि में मां दुर्गा को प्रसन्न कैसे करें?

Apple child abuse detection system, Apple child abuse detection, Apple child abuse new systems

Apple ने पहले कहा था कि वह उन बच्चों को शिकारियों से बचाना चाहता है जो संचार साधनों का उपयोग करते हैं और उनका शोषण करते हैं, और बाल यौन शोषण सामग्री (CSAM) के प्रसार को सीमित करते हैं। जबकि इस क्षेत्र में काम करने का Apple का इरादा प्रशंसनीय था, यह कदम अप्रत्याशित था। ऐप्पल ने कहा था कि वह आईओएस और आईपैडओएस में नई तकनीक की घोषणा करेगा ताकि आईक्लाउड फोटोज में संग्रहीत ज्ञात सीएसएएम छवियों का पता लगाया जा सके। इसका स्पष्ट अर्थ है कि ऐप्पल संदिग्धों के आईक्लाउड स्टोरेज में घुस जाएगा और नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (एनसीएमईसी) को मामलों की रिपोर्ट करेगा।

“ज्ञात CSAM का पता लगाने के लिए Apple का तरीका उपयोगकर्ता की गोपनीयता को ध्यान में रखकर बनाया गया है। क्लाउड में छवियों को स्कैन करने के बजाय, सिस्टम NCMEC और अन्य बाल सुरक्षा संगठनों द्वारा प्रदान किए गए ज्ञात CSAM छवि हैश के डेटाबेस का उपयोग करके ऑन-डिवाइस मिलान करता है। Apple आगे इस डेटाबेस को हैश के एक अपठनीय सेट में बदल देता है जो उपयोगकर्ताओं के उपकरणों पर सुरक्षित रूप से संग्रहीत होता है, ”Apple ने एक ब्लॉग में कहा।

READ ALSO  Instagram Story को हाईलाइट में कैसे जोड़ें?

बाल यौन शोषण सामग्री के प्रसार को सीमित करने के लिए Apple के कदम की न केवल गोपनीयता और सुरक्षा विशेषज्ञों द्वारा बल्कि व्हाट्सएप प्रमुख विल कैथकार्ट द्वारा भी आलोचना की गई थी। उन्होंने ट्वीट्स की एक श्रृंखला में समझाया था कि वह CSAM सामग्री के प्रसार को रोकने के लिए Apple जैसी प्रणाली को कभी नहीं अपनाएंगे। उन्होंने आरोप लगाया था कि ऐप्पल की नई निगरानी प्रणाली का उपयोग निजी सामग्री को स्कैन करने के लिए बहुत आसानी से किया जा सकता है, जो वे या सरकार तय करती है कि वह इसे नियंत्रित करना चाहती है। उन्होंने पूरे सिस्टम को लेकर कई सवाल भी उठाए हैं.

You may also like...

Leave a Reply

Your email address will not be published. Required fields are marked *