Apple अपनी सुरक्षा और गोपनीयता नीतियों के लिए प्रसिद्ध है . लेकिन iPhone तस्वीरों को स्कैन करने की हालिया योजना तकनीक की दुनिया में अलार्म बजा रही है। बाल यौन शोषण सामग्री (CASM) के बढ़ते मामलों पर रोक लगाने के लिए Apple इस योजना को लागू करने की योजना बना रहा है।
यौन रूप से स्पष्ट सामग्री समाज में नैतिक और कानूनी रूप से स्वीकार्य नहीं है, लेकिन यौन तस्करी ने Apple जैसी कंपनियों के लिए कुछ कठोर कदम उठाना अनिवार्य कर दिया है। Apple iPhone पर फ़ोटो स्कैन करेगा और यह पता लगाएगा कि उपयोगकर्ता यौन/मानव तस्करी में शामिल है या नहीं और यह उपाय समाज में इस बुराई को समाप्त करने के लिए एक कदम आगे होगा।
हालांकि, Apple के इस नए प्लान को इसके यूजर्स नीचा दिखाते हैं क्योंकि यूजर्स अपनी प्राइवेसी को लेकर चिंतित हैं। यह निस्संदेह एक गोपनीयता भंग है जहाँ आपके फ़ोन का डेटा सुरक्षित नहीं रहेगा क्योंकि iPhone पर Apple के नए फ़ोटो स्कैनिंग सिस्टम में आपकी जानकारी होगी।
क्या Apple आपके iPhone तस्वीरें स्कैन कर रहा है? यहां बताया गया है कि यह कैसे स्कैन होता है?
CSAM डिटेक्शन तकनीक नए iOS 15 अपडेट के साथ उपलब्ध होगी जिसमें CASM को नियंत्रित करने के लिए तीन सुविधाएं शामिल होंगी।
- अपडेट में पहली विशेषता होगी माता-पिता का नियंत्रण . जब यह फीचर इनेबल हो जाएगा तो यह बच्चों के फोन पर मैसेज एप में फोटो को स्कैन करेगा और अगर कोई स्पष्ट सामग्री का पता चलता है तो एक नोटिफिकेशन भेजा जाएगा।
- अपडेट की दूसरी विशेषता बाल यौन शोषण सामग्री के लिए iCloud में फ़ोटो स्कैन करेगी।
- अपडेट में तीसरी विशेषता उपयोगकर्ताओं को स्पष्ट सामग्री के लिए सफारी में सिरी या सर्च बार का उपयोग करने पर चेतावनी देगी।
तीनों सुविधाएं डिवाइस पर बच्चों से जुड़ी अश्लील सामग्री का पता लगाकर और उसे फ़्लैग करके समाज से CSAM बुराई को मिटाने में मदद करेंगी। सीएसएएम लाखों वीडियो और छवियों के साथ एक वायरस की तरह फैल रहा है। समय के साथ कानून प्रवर्तन द्वारा लगभग 19000 पीड़ितों की पहचान की गई है।
Apple ने कहा कि इसकी नई सुविधाओं का उद्देश्य "बच्चों को उन शिकारियों से बचाने में मदद करना है जो संचार साधनों का उपयोग करके उन्हें भर्ती करते हैं और उनका शोषण करते हैं, और बाल यौन शोषण सामग्री के प्रसार को सीमित करते हैं।" पी>
यह फीचर कैसे काम करेगा?
Apple की CSAM डिटेक्शन तकनीक एक कंप्यूटर-आधारित एल्गोरिथम पर आधारित है जो iCloud इमेज को स्कैन करेगी और फिर उनकी तुलना ज्ञात बाल यौन शोषण छवियों के कोड से करेगी। ये कोड नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) सहित बाल सुरक्षा संगठनों के डेटाबेस में संग्रहीत हैं।
अगर फ़ोटो का मिलान डेटाबेस से हो जाता है, तो कोई व्यक्ति छवि की समीक्षा करके देखेगा कि यह CSAM है या नहीं। अगर फ़ोटो को CSAM के रूप में निर्धारित किया जाएगा तो आपका खाता Apple द्वारा बंद कर दिया जाएगा और इसकी सूचना कानून प्रवर्तन और NCMEC को दी जाएगी।
क्या नई तकनीक सुरक्षा के लिए खतरा बन जाएगी?
अपडेट में नई सुविधाओं को शामिल करने के साथ, Apple निश्चित रूप से उपयोगकर्ताओं की सुरक्षा को शामिल करेगा क्योंकि यह एंड-टू-एंड एन्क्रिप्शन को प्रभावित करेगा। यह स्कैनिंग सुविधा सरकार के लिए एक बचाव का रास्ता बन सकती है, हैकर्स, स्वयं Apple के कर्मचारी जो आपके डेटा तक अनधिकृत पहुँच प्राप्त कर सकते हैं, वे इसे व्यक्तिगत उद्देश्यों के लिए उपयोग कर सकते हैं। यह उपयोगकर्ता की गोपनीयता के लिए एक गंभीर खतरा हो सकता है क्योंकि इस तरह के संवेदनशील डेटा से किसी भी प्राधिकरण द्वारा समझौता किया जा सकता है और इससे गोपनीयता का बड़ा पतन हो सकता है।
हिजाज़ी के अनुसार। "मेरा मानना है कि Apple का दिल सही जगह पर है, और वह यहाँ सही काम करने की कोशिश कर रहा है, लेकिन यह उपाय बहुत व्यापक है क्योंकि यह प्रक्रिया में सभी की गोपनीयता का त्याग करता है"।
क्या Apple को फ़ोटो स्कैन करने से रोकने का कोई तरीका है?
हिजाज़ी के अनुसार। "यदि आप अपनी गोपनीयता की परवाह करते हैं, तो आपको यह मान लेना चाहिए कि कोई भी आईओएस डिवाइस एंड-टू-एंड एन्क्रिप्शन बाईपास और पूर्ण फोटो एक्सेस के लिए कमजोर है," वे कहते हैं। "ऑनलाइन या किसी भी कनेक्टेड डिवाइस पर गोपनीयता जैसी कोई चीज़ नहीं है, और आपको हमेशा यह मान लेना चाहिए कि यह मामला है और तदनुसार व्यवहार करें।"
खैर, एक तरीका है जिससे आप Apple को अपने iCloud फ़ोटो स्कैन करने से रोक सकते हैं और अपनी गोपनीयता की रक्षा कर सकते हैं। आप अपनी तस्वीरों के लिए iCloud संग्रहण को अक्षम कर सकते हैं और अपनी गोपनीयता सुनिश्चित कर सकते हैं।
iCloud फोटो को अक्षम करने के लिए चरणों का पालन करें:-
- सेटिंग चुनें> फ़ोटो
- iCloud फ़ोटो स्लाइडर बंद करें
- इसके बजाय अपने iCloud से डिवाइस पर फ़ोटो डाउनलोड करने के लिए पॉप-अप विंडो में फ़ोटो और वीडियो डाउनलोड करें चुनें।
निष्कर्ष:-
CSAM बाल यौन शोषण को रोकने के लिए एक अच्छा कदम है, लेकिन हां इस तथ्य को नजरअंदाज नहीं किया जाना चाहिए कि गोपनीयता इस तरह से लीक हुई है। ऐप्पल कुछ अन्य कदम उठा सकता था जो उपयोगकर्ताओं की गोपनीयता का उल्लंघन नहीं करता है और साथ ही, बाल यौन शोषण को रोका जा सकता है।
हालांकि, यदि कोई व्यक्ति साफ-सुथरा है और जानता है कि उसके डेटा में कुछ भी गड़बड़ नहीं है, तो उसे नेक काम में किसी भी अफवाह और समर्थन पर कान नहीं देना चाहिए और एक कदम उठाया जाना चाहिए। सेब द्वारा। सोशल मीडिया - फेसबुक, इंस्टाग्राम और यूट्यूब पर हमें फॉलो करें।