
India AI content labeling rules : देश में इंटरनेट और सोशल मीडिया की दुनिया अब पहले से ज्यादा जिम्मेदार और पारदर्शी बनने जा रही है। केंद्र सरकार ने Artificial Intelligence (AI) से बने कंटेंट को लेकर कड़े नियम लागू कर दिए हैं। अब यदि कोई फोटो, वीडियो या ऑडियो AI की मदद से तैयार किया गया है, तो उस पर साफ-साफ “AI Generated” या Authenticity Label लगाना अनिवार्य होगा। साथ ही, किसी भी आपत्तिजनक, फर्जी या Deepfake कंटेंट की शिकायत मिलने के बाद सोशल मीडिया प्लेटफॉर्म्स को उसे सिर्फ 3 घंटे के भीतर हटाना होगा। ये नए नियम 20 फरवरी 2026 से पूरे देश में लागू हो गए हैं, जबकि इनका आधिकारिक नोटिफिकेशन 10 फरवरी को जारी किया गया था।
पीएम मोदी ने भी दिया था “डिजिटल लेबल” का सुझाव
new IT rules India deepfake removal 3 hours : नियम लागू होने से एक दिन पहले आयोजित AI Summit में प्रधानमंत्री नरेंद्र मोदी ने डिजिटल दुनिया में भरोसा बढ़ाने के लिए लेबलिंग सिस्टम की जरूरत पर जोर दिया था।
उन्होंने कहा —
जैसे खाने के पैकेट पर Nutrition Label देखकर पता चलता है कि उसमें क्या है, उसी तरह डिजिटल कंटेंट पर भी Authenticity Label होना चाहिए, ताकि लोग समझ सकें कि क्या वास्तविक है और क्या AI द्वारा बनाया गया है।
सरकार का मानना है कि इससे फर्जी वीडियो, चुनावी अफवाहें और सोशल मीडिया पर फैलने वाली गलत जानकारी पर काफी हद तक रोक लगेगी।
हर AI वीडियो पर होगा डिजिटल स्टैम्प
AI generated content law : अब किसी भी AI से बनाए गए फोटो, ऑडियो या वीडियो के कोने में स्पष्ट रूप से उल्लेख करना होगा कि यह “AI Generated Content” है। उदाहरण के तौर पर — यदि किसी नेता का भाषण AI से बनाकर पोस्ट किया जाता है, तो वीडियो पर अनिवार्य रूप से डिजिटल स्टैम्प दिखाई देगा।

मेटाडेटा बनेगा डिजिटल डीएनए
AI metadata digital watermark : सरकार ने सिर्फ दिखाई देने वाला लेबल ही नहीं, बल्कि एक Technical Marker भी अनिवार्य किया है, जिसे डिजिटल डीएनए कहा जा रहा है।
इस मेटाडेटा में शामिल रहेगा:
- कंटेंट कब बनाया गया
- किस AI टूल से तैयार हुआ
- पहली बार किस प्लेटफॉर्म पर अपलोड हुआ
यदि AI के जरिए कोई अपराध होता है, तो जांच एजेंसियां इसी डेटा के जरिए असली स्रोत तक पहुंच सकेंगी।
लेबल हटाया तो पोस्ट अपने-आप डिलीट
government rules for AI videos photos : पहले लोग वॉटरमार्क काटकर या एडिटिंग करके AI फोटो को असली बताकर वायरल कर देते थे। अब ऐसा करना गैर-कानूनी होगा। सरकार ने कंपनियों को ऐसी तकनीक लगाने को कहा है कि:
- लेबल हटाने की कोशिश करते ही कंटेंट ब्लॉक हो जाए
- या प्लेटफॉर्म से स्वतः डिलीट हो जाए
Deepfake और Child Exploitation पर सख्त कार्रवाई
AI का इस्तेमाल यदि निम्न कार्यों में हुआ तो इसे गंभीर अपराध माना जाएगा:
- Deepfake वीडियो बनाना
- Child pornography
- किसी की पहचान की नकल (Impersonation)
- Financial fraud
- हथियार या अपराध से जुड़ी जानकारी फैलाना
हाल के समय में कई बड़े Deepfake मामलों ने देश को चौंकाया था —
एक अभिनेत्री का फर्जी वीडियो वायरल हुआ और एक प्रसिद्ध क्रिकेटर को गेमिंग ऐप प्रमोट करते दिखाया गया था।
36 घंटे से घटाकर 3 घंटे की डेडलाइन
पहले सोशल मीडिया कंपनियों को विवादित कंटेंट हटाने के लिए 36 घंटे मिलते थे।
अब:
➡ शिकायत या सरकारी आदेश मिलते ही 3 घंटे के भीतर कंटेंट हटाना अनिवार्य होगा
अगर ऐसा नहीं किया गया तो प्लेटफॉर्म का “Safe Harbour” संरक्षण खत्म हो जाएगा और उस पर कानूनी कार्रवाई हो सकती है।
यूजर ने झूठ बोला तो प्लेटफॉर्म भी जिम्मेदार
अब हर पोस्ट अपलोड करते समय प्लेटफॉर्म को यूजर से यह घोषणा लेनी होगी कि कंटेंट AI से बना है या नहीं।कंपनियों को Verification Tools लगाने होंगे। अगर बिना डिस्क्लोजर AI कंटेंट पब्लिश हो गया, तो जिम्मेदारी सिर्फ यूजर की नहीं, बल्कि प्लेटफॉर्म की भी होगी।
इंटरनेट को “Trusted Space” बनाने की कोशिश
सूचना प्रौद्योगिकी मंत्रालय के अनुसार इन नियमों का उद्देश्य है:
- Fake news रोकना
- Identity theft रोकना
- Election manipulation रोकना
- ऑनलाइन धोखाधड़ी कम करना
सरकार का कहना है कि इससे इंटरनेट ज्यादा Open, Safe और Accountable Digital Space बनेगा।
IT संशोधन नियम 2026 — आखिर जरूरत क्यों पड़ी?
AI टेक्नोलॉजी के तेजी से बढ़ने के कारण अब ऐसे वीडियो बनाना आसान हो गया है जो बिल्कुल असली लगते हैं।
इनसे खतरे:
- दंगे भड़कना
- प्रतिष्ठा को नुकसान
- आर्थिक ठगी
- अश्लील कंटेंट
इन्हें रोकने के लिए 2021 के IT Rules को अपडेट कर 2026 संशोधन लागू किया गया है।
SGI (Synthetically Generated Information) क्या है?
यह वह कंटेंट है जिसे एल्गोरिदम या AI द्वारा बनाया गया हो और वह वास्तविक व्यक्ति या घटना जैसा दिखे।
किन चीजों को SGI नहीं माना जाएगा?
- फोटो की ब्राइटनेस बढ़ाना
- बैकग्राउंड नॉइज हटाना
- सबटाइटल जोड़ना
- अनुवाद या ट्रांसक्रिप्शन
- PPT या शैक्षणिक उदाहरण
लेकिन फर्जी मार्कशीट या सरकारी दस्तावेज बनाना अपराध ही रहेगा।
कंपनियों की कानूनी ढाल — Safe Harbour
सोशल मीडिया कंपनियों को कानून से सुरक्षा मिलती है कि यूजर की पोस्ट के लिए वे जिम्मेदार नहीं होंगी।
लेकिन यह सुरक्षा तभी तक रहेगी जब तक:
➡ वे 3 घंटे में कंटेंट हटाएं
अन्यथा IT Act 2000 के तहत उन पर भी केस दर्ज हो सकता है।
कानून के तहत संभावित सजा
- BNS धारा 353 — नफरत या डर फैलाने पर 3 साल जेल
- BNS धारा 336 — पहचान की नकल पर 2 साल जेल
- IT Act धारा 79 — नियम न मानने पर प्लेटफॉर्म जिम्मेदार
Deepfake क्या होता है? (Knowledge Part)
Deepfake में AI तकनीक से किसी व्यक्ति के चेहरे या आवाज को दूसरे वीडियो में इस तरह जोड़ दिया जाता है कि वह बिल्कुल असली लगे। आम लोग आसानी से धोखा खा जाते हैं।
