होम > Daily-current-affairs

Daily-current-affairs / 27 Oct 2025

डीपफेक विनियमन: एआई गवर्नेंस हेतु भारत की सक्रिय पहल

डीपफेक विनियमन: एआई गवर्नेंस हेतु भारत की सक्रिय पहल

सन्दर्भ:

पिछले कुछ वर्षों में कृत्रिम बुद्धिमत्ता (एआई) ने ऑनलाइन जानकारी बनाने और साझा करने के तरीके को बदल दिया है। यह लिख सकता है, चित्रकारी कर सकता है, बोल सकता है और यहां तक कि मनुष्यों की नकल भी कर सकता है। लेकिन इसी तकनीकी ने डीपफेक के रूप में एक खतरनाक समस्या भी पैदा की है। ये ऐसे वीडियो, चित्र या ऑडियो क्लिप हैं जो पूरी तरह से वास्तविक दिखते हैं लेकिन ये नकली होते हैं, जिन्हें एआई का उपयोग करके बनाया गया है। वे आसानी से लोगों को गुमराह कर सकते हैं और गलत जानकारी फैला सकते हैं। इस बढ़ते दुरुपयोग को नियंत्रित करने के लिए भारत सरकार ने सूचना प्रौद्योगिकी (मध्यस्थ दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021 में संशोधन का मसौदा प्रस्तावित किया है। इन नियमों का उद्देश्य यूट्यूब और इन्स्टाग्राम जैसे सोशल मीडिया प्लेटफॉर्म्स पर यह अनिवार्य करना है कि एआई से बनाए गए कंटेंट को स्पष्ट रूप से लेबल किया जाए।

नया प्रस्ताव:

    • प्रस्तावित नियम डीपफेक्स के दुरुपयोग के खिलाफ भारत का पहला सशक्त कदम हैं। इसके मुख्य बिंदु इस प्रकार हैं:
      • उपयोगकर्ता घोषणा: प्रत्येक उपयोगकर्ता को यह घोषित करना होगा कि वह जो सामग्री अपलोड कर रहा है, वह कृत्रिम रूप से उत्पन्न जानकारीहै या नहीं।
      • अनिवार्य लेबलिंग: प्लेटफॉर्म्स को सुनिश्चित करना होगा कि ऐसी सामग्री पर स्पष्ट रूप से एक लेबल या स्थायी डिजिटल टैग हो।
    • लेबल की आवश्यकताएँ:
      • वीडियो या चित्रों के लिए लेबल कम से कम सतह क्षेत्र के 10% हिस्से को कवर करना चाहिए।
      • ऑडियो के लिए लेबल प्रारंभिक 10% अवधि के दौरान सुनाई देना चाहिए।
    • प्लेटफॉर्म द्वारा सत्यापन: सोशल मीडिया प्लेटफॉर्म्स को तकनीकी उपकरणों का उपयोग करके यह जांचना होगा कि उपयोगकर्ताओं की घोषणाएँ सही हैं या नहीं।
    • जवाबदेही: यदि प्लेटफॉर्म सत्यापन या लेबलिंग करने में विफल रहते हैं, तो वे कानूनी संरक्षण खो सकते हैं और उपयोगकर्ताओं द्वारा अपलोड की गई एआई-जनित सामग्री के लिए जिम्मेदार ठहराए जा सकते हैं।

डीपफेक्स क्या हैं?

डीपफेक्स ऐसे मीडिया कंटेंट, वीडियो, फोटो या ऑडियो होते हैं जो देखने में वास्तविक लगते हैं लेकिन वास्तव में गहन शिक्षण (Deep Learning) तकनीक से बनाए या बदले जाते हैं।

    • कैसे काम करते हैं: एआई मॉडल हजारों वास्तविक छवियों या रिकॉर्डिंग्स से सीखते हैं और फिर इस डेटा का उपयोग चेहरों को बदलने, आवाज़ों की नकल करने या क्रियाओं को परिवर्तित करने में करते हैं, जिससे बेहद वास्तविक दिखने वाले परिणाम मिलते हैं।
    • इनका उपयोग कहाँ होता है:
      • मनोरंजन में: फिल्मों या दृश्य प्रभावों के निर्माण में।
      • ई-कॉमर्स में: वर्चुअल कपड़े ट्रायल या डिजिटल विज्ञापनों में।
      • संचार में: भाषण अनुवाद या वॉयसओवर जनरेशन में।

भारत को एआई नियमन की आवश्यकता क्यों पड़ी?

    • 2023 में डीपफेक्स के खतरे को तब गम्भीरता से महसूस किया गया जब अभिनेत्री रश्मिका मंदाना का एक फर्जी वीडियो वायरल हुआ। प्रधानमंत्री नरेंद्र मोदी ने भी चेतावनी दी कि डीपफेक्स समाज के लिए एक नई संकटकी स्थिति पैदा कर रहे हैं। इसके बाद अमिताभ बच्चन, ऐश्वर्या राय बच्चन, अक्षय कुमार और ऋतिक रोशन जैसे कई कलाकारों ने अपने व्यक्तित्व अधिकारों (Personality Rights)  यानी नाम, छवि और आवाज़ की सुरक्षा के लिए कानूनी मामले दायर किए।
    • हालांकि भारत में अभी तक ऐसे कानून नहीं हैं जो व्यक्तित्व अधिकारों को स्पष्ट रूप से मान्यता दें। वर्तमान में सुरक्षा अप्रत्यक्ष रूप से सूचना प्रौद्योगिकी अधिनियम और कॉपीराइट अधिनियम जैसी धाराओं से मिलती है, जो एआई द्वारा की गई नकल या प्रतिरूपण को पूरी तरह संबोधित नहीं करतीं। इस कारण कानूनी सुरक्षा कमजोर और असंगत बनी हुई है।

अन्य देश क्या कर रहे हैं?

    • यूरोपीय संघ (EU): एआई अधिनियम के तहत यह अनिवार्य है कि कोई भी सामग्री छवि, वीडियो, ऑडियो या पाठ जो एआई से बनाई या बदली गई हो, उसे लेबल किया जाए। ये लेबल मशीन द्वारा पढ़े जा सकने योग्य होने चाहिए ताकि कोई भी यह पहचान सके कि सामग्री कृत्रिम है।
    • चीन: सख्त एआई लेबलिंग नियम लागू किए गए हैं जिनमें सभी एआई-जनित सामग्री पर स्पष्ट प्रतीक या वॉटरमार्क दिखाना आवश्यक है। प्लेटफॉर्म्स को एआई सामग्री की निगरानी करनी होती है और डीपफेक्स मिलने पर उपयोगकर्ताओं को चेतावनी देनी होती है।
    • डेनमार्क: ऐसा नया कानून लाने की योजना है जिससे नागरिकों को अपने रूप-समानता (likeness) पर कॉपीराइट मिल सके, ताकि वे अपनी अनुमति के बिना बनाए गए किसी भी डीपफेक को हटाने की मांग कर सकें।
    • संयुक्त राज्य अमेरिका: 2024 तक, 23 अमेरिकी राज्यों ने डीपफेक्स पर कानून पारित किए हैं, जिनका ध्यान मुख्यतः फर्जी राजनीतिक सामग्री, गलत सूचना और गैर-सहमति वाले अश्लील वीडियो पर है।

भारत में वर्तमान कानूनी और संस्थागत ढांचा:

हालांकि भारत में डीपफेक्स पर कोई विशिष्ट कानून नहीं है, लेकिन कुछ मौजूदा कानून और संस्थान इस प्रकार की समस्याओं से निपटने में सहायता करते हैं:

1.        सूचना प्रौद्योगिकी अधिनियम, 2000
यह अधिनियम भारत में डिजिटल संचार को नियंत्रित करता है। यह एआई से बनाई गई सामग्री पर भी लागू होता है और साइबर अपराधों के अभियोजन के लिए कानूनी ढांचा प्रदान करता है, हालांकि यह डीपफेक्स का स्पष्ट उल्लेख नहीं करता।

2.      सूचना प्रौद्योगिकी (मध्यस्थ दिशानिर्देश और डिजिटल मीडिया आचार संहिता) नियम, 2021
ये नियम सोशल मीडिया प्लेटफॉर्म्स और ऑनलाइन प्रकाशकों को नियंत्रित करते हैं। इनसे कंपनियों को शिकायत निवारण तंत्र स्थापित करने और हानिकारक या भ्रामक सामग्री को रिपोर्ट मिलने पर हटाने की आवश्यकता होती है।

3.      सीईआरटी-इन (CERT-In):
यह संस्था साइबर खतरों की निगरानी करती है, परामर्श जारी करती है और साइबर स्वच्छता केंद्र संचालित करती है जो मैलवेयर और बॉटनेट्स की सफाई और विश्लेषण का केंद्र है।

4.     भारतीय साइबर अपराध समन्वय केंद्र (I4C)
यह एजेंसियों के साथ मिलकर साइबर अपराधों से निपटने का समन्वय करता है और राष्ट्रीय साइबर अपराध रिपोर्टिंग पोर्टल व हेल्पलाइन नंबर 1930 संचालित करता है।

ये संस्थाएँ एआई-संबंधित साइबर जोखिमों के खिलाफ भारत की बुनियादी रक्षा प्रणाली बनाती हैं, लेकिन इनका दृष्टिकोण अभी भी बिखरा हुआ और प्रतिक्रियात्मक (reactive) है यानी नुकसान होने के बाद ही कार्रवाई की जाती है।

डीपफेक्स से जुड़ी प्रमुख चिंताएँ:

    • राष्ट्रीय सुरक्षा के लिए खतरा: फर्जी वीडियो हिंसा भड़का सकते हैं, झूठी जानकारी फैला सकते हैं या राजनयिक संबंधों को नुकसान पहुँचा सकते हैं। हेरफेर किए गए राजनीतिक वीडियो या भाषण मतदाताओं को भ्रमित कर सकते हैं और लोकतंत्र की विश्वसनीयता को क्षति पहुँचा सकते हैं।
    • साइबर बुलिंग और प्रतिष्ठा हानि: झूठी छवियाँ या क्लिप किसी व्यक्ति की सार्वजनिक छवि या मानसिक स्वास्थ्य को नष्ट कर सकती हैं। अध्ययन बताते हैं कि ऑनलाइन उपलब्ध 90–95% डीपफेक्स गैर-सहमति वाले यौन कंटेंट होते हैं, जो प्रायः महिलाओं को निशाना बनाते हैं।
    • पहचान की चोरी: एआई टूल्स का उपयोग नकली पहचान पत्र या वास्तविक लोगों की नक़ल तैयार करने में किया जा सकता है।
    • जन-जागरूकता की कमी: कई बार डीपफेक्स का खुलासा होने के बाद भी लोग उन पर विश्वास करते रहते हैं, जिससे गलत सूचना का प्रसार और बढ़ता है।
    • पता लगाने की ऊँची लागत: डीपफेक्स की पहचान के लिए भारी डेटा, उन्नत कंप्यूटिंग सिस्टम और विशेषज्ञ एल्गोरिद्म की आवश्यकता होती है जो महंगे और जटिल हैं।

एआई कंटेंट की लेबलिंग के लिए उद्योग के प्रयास:

कुछ प्रमुख प्रौद्योगिकी कंपनियों ने पहले से ही एआई-जनित सामग्री की पहचान और लेबलिंग के प्रयास शुरू कर दिए हैं:

    • मेटा (Instagram, Facebook): एआई टूल्स से बनाए या संशोधित कंटेंट पर “AI Info” लेबल का उपयोग करती है।
    • यूट्यूब (YouTube): “Altered or Synthetic Content” नामक लेबल का उपयोग करता है और बताता है कि वीडियो कैसे बनाया गया।
    • सहयोग प्रयास: मेटा, गूगल, माइक्रोसॉफ्ट, एडोबी और ओपनएआई जैसी कंपनियाँ Partnership on AI (PAI) के माध्यम से मिलकर एआई-जनित सामग्री की पहचान हेतु साझा मानक और इनविज़िबल वॉटरमार्क्स विकसित कर रही हैं।

हालांकि ये उपाय अधिकतर प्रतिक्रियात्मक (reactive) हैं यानी लेबल प्रायः तभी जोड़े जाते हैं जब उपयोगकर्ता या प्राधिकरण संदिग्ध सामग्री की पहचान करते हैं। भारत के मसौदा नियम इस प्रक्रिया को सक्रिय (proactive) बनाना चाहते हैं, जिसमें प्रकाशन से पहले ही सत्यापन और लेबलिंग अनिवार्य होगी।

आगे की राह:

1.        कानूनी ढांचे को मजबूत करना
भारत को प्रतिक्रियात्मक से रोकथामात्मक (preventive) कार्रवाई की ओर बढ़ना चाहिए। एक नया कानून होना चाहिए जो डीपफेक्स और एआई दुरुपयोग से संबंधित अपराधों, जिम्मेदारियों और दंडों को स्पष्ट रूप से परिभाषित करे।

2.      संस्थागत क्षमता का निर्माण
समर्पित एजेंसियों को प्रशिक्षित विशेषज्ञों और तकनीक से सुसज्जित किया जाना चाहिए ताकि वे वास्तविक समय में डीपफेक्स का पता लगाकर उन्हें हटा सकें।

3.      उन्नत तकनीक का उपयोग
ऐसे एआई टूल्स और एल्गोरिद्म अपनाए जाने चाहिए जो संदर्भ और मेटाडाटा के आधार पर डीपफेक्स की पहचान कर सकें। उदाहरण के लिए, MIT का Detect Fakes Project उपयोगकर्ताओं को यह सिखाता है कि वीडियो में सूक्ष्म दृश्य संकेतों को देखकर नकली सामग्री कैसे पहचानी जाए।

4.     साइबर साक्षरता को बढ़ावा देना
लोगों को यह सिखाया जाना चाहिए कि वे ऑनलाइन दिखने वाली चीज़ों पर तुरंत विश्वास न करें। स्कूलों और कॉलेजों में जागरूकता अभियान चलाकर इस डिजिटल साक्षरता को बढ़ाया जा सकता है।

5.      सहयोग को सुदृढ़ करना
सरकार, प्रौद्योगिकी कंपनियाँ, कानून प्रवर्तन एजेंसियाँ और नागरिक समाज को मिलकर सशक्त प्रक्रियात्मक दिशानिर्देश और दंड प्रणाली तैयार करनी चाहिए ताकि दुरुपयोग को प्रभावी ढंग से रोका जा सके।

निष्कर्ष:

डीपफेक्स वर्तमान समय के सबसे गंभीर डिजिटल खतरों में से एक हैं। ये वास्तविक और अवास्तविक की सीमा को धुंधला कर देते हैं, जिससे विश्वास, गोपनीयता और सुरक्षा को क्षति पहुँचती है। एआई-जनित सामग्री पर अनिवार्य लेबल लगाने का भारत का प्रस्ताव ऑनलाइन पारदर्शिता और जवाबदेही स्थापित करने की दिशा में एक स्वागतयोग्य कदम है। लेकिन केवल नियमन पर्याप्त नहीं होगा। डीपफेक्स से निपटने के लिए मजबूत कानूनों, स्मार्ट तकनीक, जन-जागरूकता और नैतिक जिम्मेदारी का सम्मिलित प्रयास आवश्यक है। तभी भारत कृत्रिम बुद्धिमत्ता के युग में रचनात्मकता और सत्य दोनों की रक्षा कर सकेगा।

UPSC/PCS मुख्य प्रश्न: भारत का वर्तमान साइबर शासन ढांचा मुख्यतः प्रतिक्रियात्मक (reactive) है, न कि रोकथामात्मक (preventive)। एआई-जनित डीपफेक्स को नियंत्रित करने के हालिया मसौदा संशोधनों के प्रकाश में, उभरते डिजिटल खतरों से निपटने के लिए एक सक्रिय और समग्र कानूनी संरचना की आवश्यकता का परीक्षण कीजिए।