Synthetic Content Labeling India : नई दिल्ली (10 फरवरी 2026): केंद्र सरकार ने डीपफेक, फर्जी ऑडियो और नकली तस्वीरों के जरिए फैलने वाले ऑनलाइन फ्रॉड और बदनामी को रोकने के लिए आईटी (IT) नियमों में क्रांतिकारी बदलाव किए हैं। सरकार ने स्पष्ट किया है कि सिंथेटिक कंटेंट (AI से बना कंटेंट) अब किसी भी सूरत में बिना पहचान के इंटरनेट पर नहीं रहेगा।
36 के बजाय 3 घंटे में हटेगा कंटेंट
नए नियमों का सबसे बड़ा और असरदार हिस्सा समय सीमा (Deadline) को लेकर है। अब सोशल मीडिया प्लेटफॉर्म्स को किसी भी AI जेनेरेटेड भ्रामक या गैरकानूनी कंटेंट को 3 घंटे के भीतर हटाना होगा। पहले यह समय सीमा 36 घंटे थी। सरकार का मानना है कि वायरल होने वाले डीपफेक वीडियो कुछ ही घंटों में अपूरणीय क्षति पहुँचाते हैं, इसलिए तुरंत एक्शन लेना अनिवार्य है।
‘लेबलिंग’ और ‘मेटाडेटा’ अनिवार्य
अब कोई भी यूजर या कंपनी AI से बना कंटेंट गुपचुप तरीके से शेयर नहीं कर पाएगी। सोशल मीडिया कंपनियों को ऐसे टूल्स विकसित करने होंगे जो AI कंटेंट की पहचान कर सकें।
-
हर सिंथेटिक कंटेंट पर स्पष्ट लेबल दिखना चाहिए।
-
कंटेंट के साथ ऐसा मेटाडेटा जोड़ना होगा जिसे कोई हटा न सके, ताकि उसकी उत्पत्ति का पता चल सके।
यूजर्स के लिए चेतावनी और कानून
प्लेटफॉर्म्स को अब हर तीन महीने में अपने यूजर्स को सूचना देनी होगी कि AI का गलत इस्तेमाल उन्हें जेल पहुँचा सकता है। इसमें नए भारतीय आपराधिक कानूनों, पॉक्सो (POCSO) और आईटी एक्ट की धाराओं का जिक्र करना होगा। बच्चों से जुड़ा आपत्तिजनक कंटेंट या बिना सहमति के बनाई गई डीपफेक तस्वीरों पर ‘जीरो टॉलरेंस’ की नीति अपनाई गई है।
कंपनियों की बढ़ेगी जिम्मेदारी, खत्म होगी ‘सेफ हार्बर’ सुरक्षा
अगर कोई प्लेटफॉर्म इन नियमों का पालन करने में कोताही बरतता है, तो उसे मिलने वाली कानूनी सुरक्षा (Safe Harbour) खत्म कर दी जाएगी। इसका मतलब है कि यूजर द्वारा किए गए अपराध के लिए प्लेटफॉर्म को भी सीधे तौर पर जवाबदेह ठहराया जा सकेगा। कंपनियों को अब बड़े पैमाने पर ऐसी टेक्नोलॉजी में निवेश करना होगा जो हर पोस्ट पर नजर रख सके।
निष्कर्ष: सरकार के इन सख्त कदमों से फर्जी खबरों और भ्रामक प्रोपेगैंडा पर लगाम लगने की उम्मीद है। हालांकि, तकनीकी विशेषज्ञों का मानना है कि करोड़ों पोस्ट्स को 3 घंटे के भीतर मॉनिटर करना कंपनियों के लिए एक बड़ी चुनौती साबित होगा।













