मुंबई, 24 जुलाई, (न्यूज़ हेल्पलाइन) इंस्टाग्राम और फेसबुक की मूल कंपनी मेटा ने किशोरों को अपने प्लेटफॉर्म पर हानिकारक इंटरैक्शन से बचाने के उद्देश्य से सुरक्षा सुविधाओं का एक नया सेट पेश किया है। यह कदम सोशल मीडिया के युवा उपयोगकर्ताओं पर पड़ने वाले प्रभाव को लेकर बढ़ती चिंताओं और बच्चों के मानसिक स्वास्थ्य पर अपने ऐप्स के कथित प्रभाव को लेकर मेटा द्वारा कानूनी कार्रवाई से जूझने के बीच उठाया गया है।
बुधवार को एक घोषणा में, मेटा ने खुलासा किया कि उसने हाल ही में नाबालिगों से जुड़े अनुचित व्यवहार के लिए लाखों अकाउंट हटा दिए हैं। कंपनी के अनुसार, 13 साल से कम उम्र के बच्चों द्वारा साझा की गई सामग्री पर यौन संबंधी टिप्पणियाँ पोस्ट करने के लिए 1,35,000 से अधिक अकाउंट चिह्नित किए गए, जबकि अन्य 5,00,000 अकाउंट ऐसे वयस्क अकाउंट से जुड़े थे जिनकी बच्चों के साथ "अनुचित इंटरैक्शन" थी।
यह कार्रवाई किशोरों, विशेष रूप से डायरेक्ट मैसेज में, के लिए सुरक्षा उपायों को कड़ा करने के मेटा के व्यापक प्रयास का हिस्सा है। नए सुरक्षा उपकरणों में किशोरों को संदेश भेजने वाले अकाउंट के बारे में स्पष्ट जानकारी के साथ-साथ एक ही टैप से उपयोगकर्ताओं को ब्लॉक करने और रिपोर्ट करने का एक सुव्यवस्थित विकल्प शामिल है।
मेटा ने एक ब्लॉग पोस्ट में कहा, "ये सुविधाएँ किशोरों को उनके ऑनलाइन अनुभव पर ज़्यादा नियंत्रण देने और उन्हें सुरक्षित विकल्प चुनने में मदद करने के लिए डिज़ाइन की गई हैं।" ऐसी ही एक विशेषता में एक सुरक्षा अलर्ट शामिल है जो किशोरों को किसी ऐसे व्यक्ति से संदेश मिलने पर पॉप अप होता है जिसे वे फ़ॉलो नहीं करते हैं। यह उन्हें सतर्क रहने और कुछ भी गलत लगने पर ब्लॉक करने या रिपोर्ट करने के लिए प्रोत्साहित करता है।
मेटा के आंतरिक आंकड़ों के अनुसार, ये संकेत काम कर रहे हैं। किशोरों ने कथित तौर पर दस लाख से ज़्यादा अकाउंट ब्लॉक किए हैं और ऐप में सुरक्षा नोटिस मिलने के बाद इतनी ही संख्या में रिपोर्ट दर्ज कराई हैं।
मेटा किशोर अकाउंट की पहचान के लिए एआई का इस्तेमाल कर रहा है।
मेटा यह सुनिश्चित करने के लिए आर्टिफिशियल इंटेलिजेंस का भी ज़्यादा इस्तेमाल कर रहा है कि कम उम्र के उपयोगकर्ता इस जाल में न फँस जाएँ। हालाँकि इंस्टाग्राम केवल 13 साल और उससे ज़्यादा उम्र के लोगों के लिए है, फिर भी कुछ बच्चे अपनी उम्र के बारे में झूठ बोलकर साइन अप करते हैं।
इस समस्या से निपटने के लिए, मेटा एआई-संचालित आयु सत्यापन प्रणालियों का परीक्षण कर रहा है जो यह पता लगाने में मदद कर सकती हैं कि कोई नाबालिग है या नहीं। अगर सिस्टम किसी उपयोगकर्ता को उसकी उम्र गलत बताने के लिए चिह्नित करता है, तो उसका अकाउंट अपने आप एक किशोर प्रोफ़ाइल में बदल जाता है, जिसमें ज़्यादा कड़ी सुरक्षा सेटिंग्स होती हैं।
किशोरों के खाते डिफ़ॉल्ट रूप से निजी होते हैं और वे किन लोगों से बातचीत कर सकते हैं, यह सीमित होता है। किशोर उपयोगकर्ता केवल उन्हीं खातों से सीधे संदेश प्राप्त कर सकते हैं जिन्हें वे पहले से फ़ॉलो करते हैं या जिनसे वे पहले जुड़े रहे हैं, यह नियम अजनबियों से अनचाहे संपर्क को कम करने के लिए बनाया गया है।
यह पहली बार नहीं है जब मेटा ने इस क्षेत्र में अपनी नीतियों में बदलाव किया है। 2024 में, कंपनी ने सभी नए किशोर उपयोगकर्ताओं के लिए निजी खातों को मानक बना दिया और तब से उसी आधार पर काम कर रही है।
कानूनी मुश्किलें
सुरक्षा संबंधी यह नया कदम ऐसे समय में उठाया गया है जब मेटा गंभीर कानूनी और सार्वजनिक जाँच के दायरे में है। दर्जनों अमेरिकी राज्यों ने इस तकनीकी दिग्गज पर युवाओं के मानसिक स्वास्थ्य संकट को बढ़ावा देने का आरोप लगाते हुए मुकदमे दायर किए हैं। कानूनी दावों में तर्क दिया गया है कि मेटा ने जानबूझकर इंस्टाग्राम और फेसबुक पर ऐसे फ़ीचर बनाए जो विशेष रूप से युवा उपयोगकर्ताओं के लिए लत लगाने वाले हों, जबकि वे उन्हें हानिकारक सामग्री और इंटरैक्शन से पर्याप्त रूप से सुरक्षित रखने में विफल रहे।
इन आरोपों में यह भी शामिल है कि मेटा ने एल्गोरिदम और डिज़ाइन विकल्पों के माध्यम से जुड़ाव को प्रोत्साहित करके सुरक्षा से पहले मुनाफे को प्राथमिकता दी, जिससे युवा लोग तब भी स्क्रॉल करते रह सकते हैं, जब सामग्री परेशान करने वाली या हानिकारक हो।
चूंकि सरकारें और वकालत करने वाले समूह तकनीकी प्लेटफार्मों के सख्त विनियमन की मांग जारी रखे हुए हैं, मेटा की नवीनतम घोषणा को सही दिशा में एक कदम के रूप में देखा जा सकता है, हालांकि आलोचक संभवतः यह तर्क देंगे कि ऑनलाइन युवा उपयोगकर्ताओं की सुरक्षा और मानसिक कल्याण सुनिश्चित करने के लिए बहुत कुछ किए जाने की आवश्यकता है।