Apple को चाइल्ड प्रोटेक्शन फीचर को शुरू करने के लिए और अधिक समय चाहिए

apple-to-take-more-time-to-roll-out-child-safety-features

 34 total views,  1 views today

Apple पिछले महीने घोषित किए गए चाइल्ड प्रोटेक्शन फीचर को रोल आउट करने से पहले एक सूचित निर्णय लेना चाहता है। क्यूपर्टिनो-जाइंट ने एक ताजा बयान में कहा कि वह फीडबैक के आधार पर इसमें सुधार किए बिना फीचर को रोल आउट नहीं करेगा। Apple ने घोषणा की थी कि उसका नया फीचर बाल यौन शोषण सामग्री के लिए उपयोगकर्ताओं की तस्वीरों को स्कैन करेगा। हालाँकि, इस कदम की गोपनीयता की वकालत करने वालों ने कड़ी आलोचना की क्योंकि यह स्पष्ट रूप से उपयोगकर्ताओं की गोपनीयता का उल्लंघन करता है और सरकारों द्वारा इसका फायदा उठाया जा सकता है।

पिछले महीने हमने उन सुविधाओं के लिए योजनाओं की घोषणा की, जो बच्चों को उन शिकारियों से बचाने में मदद करती हैं जो संचार साधनों का उपयोग करते हैं और उनका शोषण करते हैं और बाल यौन शोषण सामग्री के प्रसार को सीमित करते हैं। ग्राहकों, वकालत करने वाले समूहों, शोधकर्ताओं और अन्य लोगों की प्रतिक्रिया के आधार पर, हमने इन महत्वपूर्ण बाल सुरक्षा सुविधाओं को जारी करने से पहले इनपुट एकत्र करने और सुधार करने के लिए आने वाले महीनों में अतिरिक्त समय लेने का फैसला किया है, “एप्पल के प्रवक्ता ने एक बयान में द वर्ज को बताया।

READ ALSO  Reliance Jio ने JioPhone 2021 के लिए निकाले नए plans देखे विवरण

Apple child abuse detection system, Apple child abuse detection, Apple child abuse new systems

Apple ने पहले कहा था कि वह उन बच्चों को शिकारियों से बचाना चाहता है जो संचार साधनों का उपयोग करते हैं और उनका शोषण करते हैं, और बाल यौन शोषण सामग्री (CSAM) के प्रसार को सीमित करते हैं। जबकि इस क्षेत्र में काम करने का Apple का इरादा प्रशंसनीय था, यह कदम अप्रत्याशित था। ऐप्पल ने कहा था कि वह आईओएस और आईपैडओएस में नई तकनीक की घोषणा करेगा ताकि आईक्लाउड फोटोज में संग्रहीत ज्ञात सीएसएएम छवियों का पता लगाया जा सके। इसका स्पष्ट अर्थ है कि ऐप्पल संदिग्धों के आईक्लाउड स्टोरेज में घुस जाएगा और नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रन (एनसीएमईसी) को मामलों की रिपोर्ट करेगा।

“ज्ञात CSAM का पता लगाने के लिए Apple का तरीका उपयोगकर्ता की गोपनीयता को ध्यान में रखकर बनाया गया है। क्लाउड में छवियों को स्कैन करने के बजाय, सिस्टम NCMEC और अन्य बाल सुरक्षा संगठनों द्वारा प्रदान किए गए ज्ञात CSAM छवि हैश के डेटाबेस का उपयोग करके ऑन-डिवाइस मिलान करता है। Apple आगे इस डेटाबेस को हैश के एक अपठनीय सेट में बदल देता है जो उपयोगकर्ताओं के उपकरणों पर सुरक्षित रूप से संग्रहीत होता है, ”Apple ने एक ब्लॉग में कहा।

READ ALSO  OSI Model क्या है ?

बाल यौन शोषण सामग्री के प्रसार को सीमित करने के लिए Apple के कदम की न केवल गोपनीयता और सुरक्षा विशेषज्ञों द्वारा बल्कि व्हाट्सएप प्रमुख विल कैथकार्ट द्वारा भी आलोचना की गई थी। उन्होंने ट्वीट्स की एक श्रृंखला में समझाया था कि वह CSAM सामग्री के प्रसार को रोकने के लिए Apple जैसी प्रणाली को कभी नहीं अपनाएंगे। उन्होंने आरोप लगाया था कि ऐप्पल की नई निगरानी प्रणाली का उपयोग निजी सामग्री को स्कैन करने के लिए बहुत आसानी से किया जा सकता है, जो वे या सरकार तय करती है कि वह इसे नियंत्रित करना चाहती है। उन्होंने पूरे सिस्टम को लेकर कई सवाल भी उठाए हैं.

Leave a Reply

Your email address will not be published. Required fields are marked *