Computer >> कंप्यूटर >  >> नेटवर्किंग >> नेटवर्क सुरक्षा

क्या Apple आपके iPhone फ़ोटो स्कैन कर रहा है? आपको यह जानने की आवश्यकता है

Apple अपनी सुरक्षा और गोपनीयता नीतियों के लिए प्रसिद्ध है . लेकिन iPhone तस्वीरों को स्कैन करने की हालिया योजना तकनीक की दुनिया में अलार्म बजा रही है। बाल यौन शोषण सामग्री (CASM) के बढ़ते मामलों पर रोक लगाने के लिए Apple इस योजना को लागू करने की योजना बना रहा है।

यौन रूप से स्पष्ट सामग्री समाज में नैतिक और कानूनी रूप से स्वीकार्य नहीं है, लेकिन यौन तस्करी ने Apple जैसी कंपनियों के लिए कुछ कठोर कदम उठाना अनिवार्य कर दिया है। Apple iPhone पर फ़ोटो स्कैन करेगा और यह पता लगाएगा कि उपयोगकर्ता यौन/मानव तस्करी में शामिल है या नहीं और यह उपाय समाज में इस बुराई को समाप्त करने के लिए एक कदम आगे होगा।

हालांकि, Apple के इस नए प्लान को इसके यूजर्स नीचा दिखाते हैं क्योंकि यूजर्स अपनी प्राइवेसी को लेकर चिंतित हैं। यह निस्संदेह एक गोपनीयता भंग है जहाँ आपके फ़ोन का डेटा सुरक्षित नहीं रहेगा क्योंकि iPhone पर Apple के नए फ़ोटो स्कैनिंग सिस्टम में आपकी जानकारी होगी।

क्या Apple आपके iPhone तस्वीरें स्कैन कर रहा है? यहां बताया गया है कि यह कैसे स्कैन होता है?

CSAM डिटेक्शन तकनीक नए iOS 15 अपडेट के साथ उपलब्ध होगी जिसमें CASM को नियंत्रित करने के लिए तीन सुविधाएं शामिल होंगी।

  • अपडेट में पहली विशेषता होगी माता-पिता का नियंत्रण . जब यह फीचर इनेबल हो जाएगा तो यह बच्चों के फोन पर मैसेज एप में फोटो को स्कैन करेगा और अगर कोई स्पष्ट सामग्री का पता चलता है तो एक नोटिफिकेशन भेजा जाएगा।
  • अपडेट की दूसरी विशेषता बाल यौन शोषण सामग्री के लिए iCloud में फ़ोटो स्कैन करेगी।
  • अपडेट में तीसरी विशेषता उपयोगकर्ताओं को स्पष्ट सामग्री के लिए सफारी में सिरी या सर्च बार का उपयोग करने पर चेतावनी देगी।

तीनों सुविधाएं डिवाइस पर बच्चों से जुड़ी अश्लील सामग्री का पता लगाकर और उसे फ़्लैग करके समाज से CSAM बुराई को मिटाने में मदद करेंगी। सीएसएएम लाखों वीडियो और छवियों के साथ एक वायरस की तरह फैल रहा है। समय के साथ कानून प्रवर्तन द्वारा लगभग 19000 पीड़ितों की पहचान की गई है।

Apple ने कहा कि इसकी नई सुविधाओं का उद्देश्य "बच्चों को उन शिकारियों से बचाने में मदद करना है जो संचार साधनों का उपयोग करके उन्हें भर्ती करते हैं और उनका शोषण करते हैं, और बाल यौन शोषण सामग्री के प्रसार को सीमित करते हैं।" पी>

यह फीचर कैसे काम करेगा?

Apple की CSAM डिटेक्शन तकनीक एक कंप्यूटर-आधारित एल्गोरिथम पर आधारित है जो iCloud इमेज को स्कैन करेगी और फिर उनकी तुलना ज्ञात बाल यौन शोषण छवियों के कोड से करेगी। ये कोड नेशनल सेंटर फॉर मिसिंग एंड एक्सप्लॉइटेड चिल्ड्रेन (NCMEC) सहित बाल सुरक्षा संगठनों के डेटाबेस में संग्रहीत हैं।

अगर फ़ोटो का मिलान डेटाबेस से हो जाता है, तो कोई व्यक्ति  छवि की समीक्षा करके देखेगा कि यह CSAM है या नहीं। अगर फ़ोटो को CSAM के रूप में निर्धारित किया जाएगा तो आपका खाता Apple द्वारा बंद कर दिया जाएगा और इसकी सूचना कानून प्रवर्तन और NCMEC को दी जाएगी।

क्या नई तकनीक सुरक्षा के लिए खतरा बन जाएगी?

अपडेट में नई सुविधाओं को शामिल करने के साथ, Apple निश्चित रूप से उपयोगकर्ताओं की सुरक्षा को शामिल करेगा क्योंकि यह एंड-टू-एंड एन्क्रिप्शन को प्रभावित करेगा। यह स्कैनिंग सुविधा सरकार के लिए एक बचाव का रास्ता बन सकती है, हैकर्स, स्वयं Apple के कर्मचारी जो आपके डेटा तक अनधिकृत पहुँच प्राप्त कर सकते हैं, वे इसे व्यक्तिगत उद्देश्यों के लिए उपयोग कर सकते हैं। यह उपयोगकर्ता की गोपनीयता के लिए एक गंभीर खतरा हो सकता है क्योंकि इस तरह के संवेदनशील डेटा से किसी भी प्राधिकरण द्वारा समझौता किया जा सकता है और इससे गोपनीयता का बड़ा पतन हो सकता है।

हिजाज़ी के अनुसार। "मेरा मानना ​​​​है कि Apple का दिल सही जगह पर है, और वह यहाँ सही काम करने की कोशिश कर रहा है, लेकिन यह उपाय बहुत व्यापक है क्योंकि यह प्रक्रिया में सभी की गोपनीयता का त्याग करता है"।

क्या Apple को फ़ोटो स्कैन करने से रोकने का कोई तरीका है?

हिजाज़ी के अनुसार। "यदि आप अपनी गोपनीयता की परवाह करते हैं, तो आपको यह मान लेना चाहिए कि कोई भी आईओएस डिवाइस एंड-टू-एंड एन्क्रिप्शन बाईपास और पूर्ण फोटो एक्सेस के लिए कमजोर है," वे कहते हैं। "ऑनलाइन या किसी भी कनेक्टेड डिवाइस पर गोपनीयता जैसी कोई चीज़ नहीं है, और आपको हमेशा यह मान लेना चाहिए कि यह मामला है और तदनुसार व्यवहार करें।"

खैर, एक तरीका है जिससे आप Apple को अपने iCloud फ़ोटो स्कैन करने से रोक सकते हैं और अपनी गोपनीयता की रक्षा कर सकते हैं। आप अपनी तस्वीरों के लिए iCloud संग्रहण को अक्षम कर सकते हैं और अपनी गोपनीयता सुनिश्चित कर सकते हैं।

iCloud फोटो को अक्षम करने के लिए चरणों का पालन करें:-

  • सेटिंग चुनें> फ़ोटो
  • iCloud फ़ोटो स्लाइडर बंद करें
  • इसके बजाय अपने iCloud से डिवाइस पर फ़ोटो डाउनलोड करने के लिए पॉप-अप विंडो में फ़ोटो और वीडियो डाउनलोड करें चुनें।

क्या Apple आपके iPhone फ़ोटो स्कैन कर रहा है? आपको यह जानने की आवश्यकता है

निष्कर्ष:-

CSAM बाल यौन शोषण को रोकने के लिए एक अच्छा कदम है, लेकिन हां इस तथ्य को नजरअंदाज नहीं किया जाना चाहिए कि गोपनीयता इस तरह से लीक हुई है। ऐप्पल कुछ अन्य कदम उठा सकता था जो उपयोगकर्ताओं की गोपनीयता का उल्लंघन नहीं करता है और साथ ही, बाल यौन शोषण को रोका जा सकता है।

हालांकि, यदि कोई व्यक्ति साफ-सुथरा है और जानता है कि उसके डेटा में कुछ भी गड़बड़ नहीं है, तो उसे नेक काम में किसी भी अफवाह और समर्थन पर कान नहीं देना चाहिए और एक कदम उठाया जाना चाहिए। सेब द्वारा। सोशल मीडिया - फेसबुक, इंस्टाग्राम और यूट्यूब पर हमें फॉलो करें।


  1. किंडल अनलिमिटेड क्या है? यहां वह सब कुछ है जो आपको जानना आवश्यक है

    यदि द्वि घातुमान पढ़ने का विचार एक सपने के सच होने जैसा लगता है, तो किंडल अनलिमिटेड सही समाधान हो सकता है। अमेज़ॅन सदस्यता सेवा आपको एक मासिक शुल्क के लिए एक मिलियन से अधिक ईबुक तक पहुंच प्रदान करती है। आप हर महीने कितना पढ़ते हैं, इस पर निर्भर करते हुए, आप अपनी सभी पसंदीदा पुस्तकों का आनंद लेते हुए

  1. Apple ने iOS 13.5 जारी किया - यहां आपको जानने की जरूरत है

    COVID-19 महामारी के प्रत्यक्ष परिणाम के रूप में, Apple ने iOS 13.5 और iPadOS 13.5 को आज दो नई सुविधाओं के साथ जारी किया। ये दोनों सुविधाएं लोगों को सुरक्षित रहने के लिए प्रोत्साहित करेंगी। उनमें से सबसे प्रमुख फेस आईडी वाले उपकरणों के लिए सरलीकृत फेस अनलॉकिंग है। इसका मतलब है कि यूजर्स फेस मास्क पह

  1. यहां बताया गया है कि आपको घातक ड्रिडेक्स मालवेयर के बारे में क्या जानना चाहिए

    क्रिसमस नौकरी से निकाले जाने का समय नहीं है। यदि आपको अपनी नौकरी समाप्त करने के लिए एक ईमेल मिलता है, तो सावधान रहें कि यह नया ड्रिडेक्स फ़िशिंग अभियान हो सकता है। 2011-2012 के आसपास पहली बार दिखाई दिया, ड्रिडेक्स एक ट्रोजन है जो वेब इंजेक्शन का उपयोग करने और पैसे चुराने के लिए गतिशील कॉन्फ़िगरेशन फ