रविवार, मई 17 2026 | 11:00:52 PM
Breaking News
Home / राष्ट्रीय / AI-जनरेटेड डीपफेक का नया शिकार: लेफ्टिनेंट जनरल मनोज कुमार कटियार के नाम से फैलाया जा रहा फर्जी वीडियो

AI-जनरेटेड डीपफेक का नया शिकार: लेफ्टिनेंट जनरल मनोज कुमार कटियार के नाम से फैलाया जा रहा फर्जी वीडियो

Follow us on:

लेफ्टिनेंट जनरल मनोज कुमार कटियार के नाम से वायरल फर्जी एआई-जनरेटेड वीडियो का फैक्ट चेक

नई दिल्ली | शनिवार, 16 मई 2026

डिजिटल क्रांति के इस दौर में जहाँ आर्टिफिशियल इंटेलिजेंस (AI) हमारे कामों को आसान बना रहा है, वहीं इसका एक खतरनाक चेहरा भी सामने आ रहा है। हाल ही में सोशल मीडिया पर एक ऐसा ही मामला सामने आया है, जिसने सुरक्षा एजेंसियों और आम जनता को चिंता में डाल दिया है। भारतीय सेना के पश्चिमी कमान के पूर्व जनरल ऑफिसर कमांडिंग-इन-चीफ (GOC-in-C) लेफ्टिनेंट जनरल मनोज कुमार कटियार का एक कथित वीडियो इंटरनेट पर तेजी से वायरल हो रहा है, जो पूरी तरह से फर्जी (Fake) है।

क्या है वायरल वीडियो का सच?

वायरल हो रहे इस वीडियो में बेहद संवेदनशील और भ्रामक दावा किया गया है। वीडियो में दिखाया गया है कि लेफ्टिनेंट जनरल कटियार कथित तौर पर यह कह रहे हैं कि “अफगान तालिबान को पाकिस्तान के खिलाफ कार्रवाई के लिए भुगतान किया गया था और वे भारत की ओर से पाकिस्तान के खिलाफ लड़ रहे हैं।”

जैसे ही यह वीडियो सामने आया, इसकी संवेदनशीलता को देखते हुए तुरंत जांच शुरू की गई। फैक्ट-चेक और तकनीकी विशेषज्ञों की जांच में यह साफ हो गया है कि यह वीडियो पूरी तरह से एआई-जनरेटेड डीपफेक (AI-Generated Deepfake) है। रिटायर्ड लेफ्टिनेंट जनरल मनोज कुमार कटियार ने ऐसा कोई भी बयान नहीं दिया है। उनके पुराने वीडियो और ऑडियो में डिजिटल रूप से हेरफेर (Manipulate) करके इस फर्जी सामग्री को तैयार किया गया है।

डीपफेक वीडियो को कैसे पहचानें?

विशेषज्ञों के अनुसार, एआई द्वारा बनाए गए वीडियो या डीपफेक सामग्री कितनी भी सटीक क्यों न दिखे, उनमें कुछ तकनीकी खामियां रह जाती हैं जिन्हें ध्यान से देखने पर पकड़ा जा सकता है:

  • चेहरे के हाव-भाव (Facial Expressions): असली इंसान की तुलना में डीपफेक वीडियो में चेहरे के भाव थोड़े अजीब या स्थिर लग सकते हैं।

  • लिप-सिंक की कमी (Audio-Video Synchronization): वीडियो में व्यक्ति जो बोल रहा है, उसके होठों की हलचल और आवाज के बीच तालमेल (Sync) नहीं बैठता।

  • पलकें झपकाना (Blinking Rate): कई बार डीपफेक वीडियो में एआई मॉडल पलकों के झपकने की स्वाभाविक गति को कॉपी नहीं कर पाते।

बढ़ते खतरे और हमारी जिम्मेदारी

यह कोई पहला मामला नहीं है जब किसी बड़ी हस्ती या सैन्य अधिकारी के नाम पर भ्रम फैलाने की कोशिश की गई हो। आज के समय में देश विरोधी तत्व और साइबर अपराधी समाज में अशांति और गलतफहमी पैदा करने के लिए ऐसी तकनीकों का सहारा ले रहे हैं।

ऐसी स्थिति में डिजिटल जागरूकता ही हमारा सबसे बड़ा हथियार है। अधिकारियों ने आम जनता से अपील की है कि:

  1. किसी भी वायरल वीडियो या सनसनीखेज दावे पर आंख मूंदकर भरोसा न करें।

  2. हमेशा आधिकारिक सरकारी स्रोतों या स्थापित समाचार माध्यमों से जानकारी की पुष्टि करें।

  3. बिना जांचे-परखे किसी भी संदिग्ध पोस्ट या वीडियो को आगे शेयर (Forward) न करें, क्योंकि ऐसा करना अनजाने में अफवाह फैलाने में मदद करना है।

  4. सोशल मीडिया प्लेटफॉर्म पर ऐसी भ्रामक पोस्ट दिखने पर तुरंत ‘Report’ करें।

मित्रों,
मातृभूमि समाचार का उद्देश्य मीडिया जगत का ऐसा उपकरण बनाना है, जिसके माध्यम से हम व्यवसायिक मीडिया जगत और पत्रकारिता के सिद्धांतों में समन्वय स्थापित कर सकें। इस उद्देश्य की पूर्ति के लिए हमें आपका सहयोग चाहिए है। कृपया इस हेतु हमें दान देकर सहयोग प्रदान करने की कृपा करें। हमें दान करने के लिए निम्न लिंक पर क्लिक करें -- Click Here


* 1 माह के लिए Rs 1000.00 / 1 वर्ष के लिए Rs 10,000.00

Contact us

Check Also

धर्मेंद्र प्रधान नीट परीक्षा सुधार पर प्रेस कॉन्फ्रेंस करते हुए।

NEET UG 2026: 21 जून को होगी दोबारा परीक्षा, अगले साल से कंप्यूटर बेस्ड टेस्ट; शिक्षा मंत्री का बड़ा ऐलान

नई दिल्ली । शुक्रवार, 15 मई 2026 नीट-यूजी (NEET-UG) पेपर लीक मामले में मचे हंगामे …