माइकेल केलर, गेब्रियल डांस. इंटरनेट पर बहुत बड़े पैमाने पर बच्चों की आपत्तिजनक तस्वीरें डालने के मामले कम नहीं हो रहे हैं। टीनएजर्स, बच्चों और उनके माता-पिता को भयावह अनुभवों से जूझना पड़ता है। सर्च एंजिन, सोशल नेटवर्क और क्लाउड स्टोरेज पर ऐसे अपराधों की पर्याप्त गुंजाइश है। वैसे, इस समस्या का हल निकालने के प्रयास शुरू हुए हैं। टेक्नोलॉजी कंपनियों ने पिछले वर्ष साढ़े चार करोड़ फोटो और वीडियो हटाए हैं। लेकिन, इतने कारगर कदम नहीं उठाए जा रहे हैं कि यह सब बंद हो जाए।
न्यूयॉर्क टाइम्स ने वेब पर यौन प्रताड़ना झेल रही दो बहनों का मामला उजागर किया है। वे पहचाने जाने के भय के साए में जी रही हैं। दस साल पहले उनके पिता ने अकल्पनीय कृत्य किया था। उसने और एक अन्य व्यक्ति के साथ अपनी बेटियों से दुष्कर्म किया था। नशे में बेहोश रखकर उनसे दुष्कृत्य किया जाता रहा। इसके बाद इंटरनेट पर इसके फोटो और वीडियो डाल दिए गए। ये इमेज अब नेट पर आती हैं। पिछले वर्ष मोबाइल फोन, कंप्यूटर और क्लाउड स्टोरेज अकाउंट पर बाल यौन शोषण के जिन 130 मामलों की छानबीन हुई, उनमें दोनों बहनों की इमेज भी शामिल है। दोनों अपराधियों को सजा हो चुकी है। लेकिन गूगल ड्राइव, ड्रॉपबॉक्स और माइक्रोसॉफ्ट पर रखी ये इमेज बहनों का पीछा कर रही है। टेक्सास के एक कंप्यूटर टेक्नीशियन जोशुआ गोंजालेज को इस वर्ष उसके कंप्यूटर पर बच्चों से दुष्कर्म की 400 इमेज मिलने पर गिरफ्तार किया गया। गोंजालेज ने कोर्ट को बताया कि उसने माइक्रोसॉफ्ट के सर्च एंजिन बिंग से अवैध फोटो और वीडियो निकाले थे।
टेक कंपनियां यौन शोषण रोकने के लिए लगातार प्रयास नहीं करती हैं। ऐसी कोशिशों को गोपनीय रखा जाता है। इससे बाल यौन शोषकों और अन्य अपराधियों पर अंकुश नहीं लग पाता है। कंपनियों के पास आपत्तिजनक इमेज के बार-बार प्रसार को रोकने के बहुत साधन और डिवाइस हैं। वे अपने डेटाबेस से ऐसी नई इमेज का मिलान कर सकती हैं। फिर भी, वे साधनों का इस्तेमाल नहीं करती हैं। अमेजन की क्लाउड स्टोरेज सर्विस हर सेकंड लाखों अपलोड और डाउनलोड करती है पर वह इमेज नहीं देखती है। अमेरिकी सरकार के अधिकारियों के अनुसार एपल अपने क्लाउड स्टोरेज को स्कैन नहीं करती है। उसने अपने मैसेजिंग एप की इनक्रिप्टिंग कर रखी है। इस कारण पहचान लगभग असंभव है।
ड्रॉप बॉक्स, गूगल और माइक्रोसॉफ्ट अवैध इमेज शेयर करने पर ही स्कैन करती हैं। उन्हें अपलोड करने पर स्कैनिंग नहीं होती है। स्नैपचैट और याहू फोटो देखती हैं लेकिन वीडियो नहीं। विश्व का सबसे बड़ा सोशल नेटवर्क फेसबुक अपने प्लेटफार्म को स्कैन करता है। लेकिन, कंपनी गड़बड़ कंटेंट खोजने के लिए सभी उपलब्ध डेटाबेस का उपयोग नहीं कर रही है। फेसबुक और याहू में सूचना सिक्योरिटी के पूर्व प्रमुख एलेक्स स्टेमॉस का कहना है, हर कंपनी के प्राइवेसी और सेफ्टी के बीच संतुलन बनाने के अपने तरीके हैं। वे ऐसा सार्वजनिक तौर पर नहीं करना चाहती हैं। टेक कंपनियों द्वारा चेहरे की पहचान, मैलवेयर की खोज और कॉपीराइट लागू करने के लिए अपने प्लेटफार्म पर फोटो, वीडियो और अन्य फाइल की समीक्षा करने की संभावना नहीं रहती है। कुछ कंपनियां कहती हैं, आपत्तिजनक कंटेंट की खोज अलग बात है क्योंकि इससे प्राइवेसी के मामले उठ सकते हैं। टेक कंपनियां नहीं चाहती हैं कि उन्हें किसी के फोटो और वीडियो पर नजर डालने वाला समझा जाए। ऑटोमैटिक स्कैन के जरिये हटाई इमेज बाद में कोई भी देख सकता है। कनाडियन चाइल्ड प्रोटेक्शन सेंटर के अनुसार गूगल ने कई बार उसके कहने पर भी बच्चों के अश्लील फोटो नहीं हटाए।
आपत्तिजनक इमेज की पहचान का मुख्य तरीका 2009 में माइक्रोसॉफ्ट और हेनी फरीद ने खोजा था। फरीद अब कैलिफोर्निया यूनिवर्सिटी में प्रोफेसर हैं। फोटोडीएनए नामक सॉफ्टवेयर फोटो पहचानने, उन्हें बदलने और ज्ञात अवैध इमेज के डेटा बेस से उसकी तुलना करने के लिए कंप्यूटर का उपयोग कर सकता है। फोटो डीएनए जैसे सॉफ्टवेयर के बिना पिछले वर्ष पहचाने गए एक भी फोटो और वीडियो को पकड़ा नहीं जा सकता था। लेकिन, यह तकनीक सीमित है क्योंकि जानी-पहचानी आपत्तिजनक सामग्री की कोई अधिकृत सूची नहीं है।