साढ़े चार करोड़ फोटो और वीडियो हटाए, ढेरों शिकायतें; फिर भी इंटरनेट पर बच्चों का यौन उत्पीड़न बंद नहीं हो रहा है

Uncategorized

माइकेल केलर, गेब्रियल डांस. इंटरनेट पर बहुत बड़े पैमाने पर बच्चों की आपत्तिजनक तस्वीरें डालने के मामले कम नहीं हो रहे हैं। टीनएजर्स, बच्चों और उनके माता-पिता को भयावह अनुभवों से जूझना पड़ता है। सर्च एंजिन, सोशल नेटवर्क और क्लाउड स्टोरेज पर ऐसे अपराधों की पर्याप्त गुंजाइश है। वैसे, इस समस्या का हल निकालने के प्रयास शुरू हुए हैं। टेक्नोलॉजी कंपनियों ने पिछले वर्ष साढ़े चार करोड़ फोटो और वीडियो हटाए हैं। लेकिन, इतने कारगर कदम नहीं उठाए जा रहे हैं कि यह सब बंद हो जाए।

  1. न्यूयॉर्क टाइम्स ने वेब पर यौन प्रताड़ना झेल रही दो बहनों का मामला उजागर किया है। वे पहचाने जाने के भय के साए में जी रही हैं। दस साल पहले उनके पिता ने अकल्पनीय कृत्य किया था। उसने और एक अन्य व्यक्ति के साथ अपनी बेटियों से दुष्कर्म किया था। नशे में बेहोश रखकर उनसे दुष्कृत्य किया जाता रहा। इसके बाद इंटरनेट पर इसके फोटो और वीडियो डाल दिए गए। ये इमेज अब नेट पर आती हैं। पिछले वर्ष मोबाइल फोन, कंप्यूटर और क्लाउड स्टोरेज अकाउंट पर बाल यौन शोषण के जिन 130 मामलों की छानबीन हुई, उनमें दोनों बहनों की इमेज भी शामिल है। दोनों अपराधियों को सजा हो चुकी है। लेकिन गूगल ड्राइव, ड्रॉपबॉक्स और माइक्रोसॉफ्ट पर रखी ये इमेज बहनों का पीछा कर रही है। टेक्सास के एक कंप्यूटर टेक्नीशियन जोशुआ गोंजालेज को इस वर्ष उसके कंप्यूटर पर बच्चों से दुष्कर्म की 400 इमेज मिलने पर गिरफ्तार किया गया। गोंजालेज ने कोर्ट को बताया कि उसने माइक्रोसॉफ्ट के सर्च एंजिन बिंग से अवैध फोटो और वीडियो निकाले थे।

  2. टेक कंपनियां यौन शोषण रोकने के लिए लगातार प्रयास नहीं करती हैं। ऐसी कोशिशों को गोपनीय रखा जाता है। इससे बाल यौन शोषकों और अन्य अपराधियों पर अंकुश नहीं लग पाता है। कंपनियों के पास आपत्तिजनक इमेज के बार-बार प्रसार को रोकने के बहुत साधन और डिवाइस हैं। वे अपने डेटाबेस से ऐसी नई इमेज का मिलान कर सकती हैं। फिर भी, वे साधनों का इस्तेमाल नहीं करती हैं। अमेजन की क्लाउड स्टोरेज सर्विस हर सेकंड लाखों अपलोड और डाउनलोड करती है पर वह इमेज नहीं देखती है। अमेरिकी सरकार के अधिकारियों के अनुसार एपल अपने क्लाउड स्टोरेज को स्कैन नहीं करती है। उसने अपने मैसेजिंग एप की इनक्रिप्टिंग कर रखी है। इस कारण पहचान लगभग असंभव है।

  3. ड्रॉप बॉक्स, गूगल और माइक्रोसॉफ्ट अवैध इमेज शेयर करने पर ही स्कैन करती हैं। उन्हें अपलोड करने पर स्कैनिंग नहीं होती है। स्नैपचैट और याहू फोटो देखती हैं लेकिन वीडियो नहीं। विश्व का सबसे बड़ा सोशल नेटवर्क फेसबुक अपने प्लेटफार्म को स्कैन करता है। लेकिन, कंपनी गड़बड़ कंटेंट खोजने के लिए सभी उपलब्ध डेटाबेस का उपयोग नहीं कर रही है। फेसबुक और याहू में सूचना सिक्योरिटी के पूर्व प्रमुख एलेक्स स्टेमॉस का कहना है, हर कंपनी के प्राइवेसी और सेफ्टी के बीच संतुलन बनाने के अपने तरीके हैं। वे ऐसा सार्वजनिक तौर पर नहीं करना चाहती हैं। टेक कंपनियों द्वारा चेहरे की पहचान, मैलवेयर की खोज और कॉपीराइट लागू करने के लिए अपने प्लेटफार्म पर फोटो, वीडियो और अन्य फाइल की समीक्षा करने की संभावना नहीं रहती है। कुछ कंपनियां कहती हैं, आपत्तिजनक कंटेंट की खोज अलग बात है क्योंकि इससे प्राइवेसी के मामले उठ सकते हैं। टेक कंपनियां नहीं चाहती हैं कि उन्हें किसी के फोटो और वीडियो पर नजर डालने वाला समझा जाए। ऑटोमैटिक स्कैन के जरिये हटाई इमेज बाद में कोई भी देख सकता है। कनाडियन चाइल्ड प्रोटेक्शन सेंटर के अनुसार गूगल ने कई बार उसके कहने पर भी बच्चों के अश्लील फोटो नहीं हटाए।

  4. आपत्तिजनक इमेज की पहचान का मुख्य तरीका 2009 में माइक्रोसॉफ्ट और हेनी फरीद ने खोजा था। फरीद अब कैलिफोर्निया यूनिवर्सिटी में प्रोफेसर हैं। फोटोडीएनए नामक सॉफ्टवेयर फोटो पहचानने, उन्हें बदलने और ज्ञात अवैध इमेज के डेटा बेस से उसकी तुलना करने के लिए कंप्यूटर का उपयोग कर सकता है। फोटो डीएनए जैसे सॉफ्टवेयर के बिना पिछले वर्ष पहचाने गए एक भी फोटो और वीडियो को पकड़ा नहीं जा सकता था। लेकिन, यह तकनीक सीमित है क्योंकि जानी-पहचानी आपत्तिजनक सामग्री की कोई अधिकृत सूची नहीं है।

    1. Download Dainik Bhaskar App to read Latest Hindi News Today
      sexual harassment of children on the internet is not stopping
      ]]>

Leave a Reply

Your email address will not be published. Required fields are marked *