
नई दिल्ली । फेसबुक के स्वामित्व वाली फोटो-वीडियो शेयरिंग सोशल साइट इंस्ट्राग्राम का नया टूल ब्वॉयज लॉकर रूम और रिवेंज पोर्न जैसी घटनाओं को रोकेगा। मीडिया की सुर्खियों में छाए ब्वॉयज लॉकर रूम की जांच दिल्ली पुलिस की साइबर सेल कर ही है, तो वहीं फेसबुक के एक प्रवक्ता ने इंस्ट्राग्राम की तरफ से 'हिन्दुस्तान' को भेजे अपने बयान में कहा कि हम अपने प्लैटफॉर्म पर किसी भी प्रकार की यौन हिंसा को बढ़ावा देने के खिलाफ हैं। खासकर महिलाओं और युवाओं की सुरक्षा की हमें खास चिंता है। हम किसी कोई भी उत्पीड़न की इजाजत नहीं दे सकते हैं। प्लैटफॉर्म को सुरक्षित और सभी का सम्मान बनाए रखना पहली प्राथमिकता है। लॉकर रूम और गुरुग्राम में 17 वर्षीय छात्र की आत्महत्या की घटनाओं की तरफ इंस्टाग्राम का ध्यान खींचा था। इसके बाद कंपनी ने अपने बयान में यह संकल्प व्यक्त किया है।
इंस्टाग्राम ने कहा कि बिना सहमति के निजी तस्वीरों को डालने को वह अनुमति नहीं देता है, अगर कोई ऐसा करता है तो सोशल साइट की पॉलिसी में उस साम्रगी को हटाने और उस व्यक्ति के आकउंट को डिलीट करने की कार्रवाई शामिल है। अगर कोई बिना सहमति के निजी तस्वीरों को डालने की धमकी भी देता है तो भी उसे गंभीरता से लिया जाता है। इंस्टाग्राम ने इसके लिए फोटो डीएनए टेक्नोलॉजी को एडॉप्ट किया तो वहीं रिवेंज पोर्न और निजी तस्वीरों को डालने की घटनाओं को रोकने के लिए नॉन कंसेंसुअल इंटीमेट इमेजरी (एनसीआईआई) नाम के टूल को विकसित किया है।
फेसबुक ने लोगों की मदद के लिए यह टूल विकसित किया है। जब लोगों की बिना सहमति के उनकी निजी तस्वीरें साझा की जाती हैं तो यह सामग्री रिवेंज पोर्न कहलाती है और इसी तौर पर साइट को रिपोर्ट की जाती है। हम इसे फेसबुक, मैसेंजर और इंस्टाग्राम पर साझा करने से रोक सकते हैं। इसमें मशीन लर्निंग के साथ आर्टीफिशियल इंटेलिजेंस का इस्तेमाल होता है। नए टूल से अब हम नग्न तस्वीरों या वीडियो के निकट सक्रिय रूप से पता लगा सकते हैं, जिन्हें फेसबुक और इंस्टाग्राम पर अनुमति के बिना शेयर किया है। यदि फोटो या वीडियो हमारे सामुदायिक मानकों का उल्लंघन करते हैं, तो हम इसे हटा देंगे और ज्यादातर मामलों में हम बिना अनुमति के अंतरंग सामग्री साझा करने के लिए उस अकाउंट को भी बंद कर देंगे। यदि कोई मानता है कि उससे गलती हुई है तो इसके लिए एक अपील का विकल्प रखा गया है।