डीपफेक तकनीक आज सिर्फ मनोरंजन या एडिटिंग टूल नहीं रही, यह एक खतरनाक हथियार बन चुकी है, जो आपकी ज़रा-सी लापरवाही का फायदा उठाकर आपकी पूरी जीवनभर की कमाई छीन सकती है। भारत में साइबर ठगी के तौर-तरीकों में खतरनाक बदलाव देखने को मिल रहा है। अब अपराधी सिर्फ फोन कॉल्स या फर्जी वेबसाइटों से नहीं, बल्कि आर्टिफिशियल इंटेलिजेंस (AI) और डीपफेक तकनीक के ज़रिए लोगों को शिकार बना रहे हैं। इस तकनीक के ज़रिए वे भारत की जानी-मानी हस्तियों जैसे वित्त मंत्री निर्मला सीतारमण, उद्योगपति मुकेश अंबानी, इंफोसिस फाउंडेशन की चेयरपर्सन सुधा मूर्ति और आध्यात्मिक गुरु सद्गुरु के नकली वीडियो बनाकर लोगों से अरबों रुपये की ठगी कर रहे हैं।
कैसे तैयार होता है यह फ्रॉड?
साइबर अपराधी पहले किसी लोकप्रिय सेलेब्रिटी का वीडियो और आवाज़ का डेटा इकट्ठा करते हैं। इसके बाद AI आधारित डीपफेक टूल्स की मदद से उनका एक नकली वीडियो बनाते हैं जिसमें वे निवेश या किसी स्कीम को प्रमोट करते दिखते हैं। इन वीडियो को सोशल मीडिया या मैसेजिंग ऐप्स के ज़रिए वायरल किया जाता है। भरोसे में आए लोग लिंक पर क्लिक करते हैं और लाखों रुपये की धोखाधड़ी का शिकार बन जाते हैं।
ठगी के मामलेमुंबई के एक डॉक्टर ने मुकेश अंबानी के नाम पर चल रही एक स्कीम पर भरोसा करते हुए 7 लाख रुपये गवां दिए। हैदराबाद के डॉक्टर ने वित्त मंत्री के डीपफेक वीडियो पर भरोसा करके 20 लाख रुपये का निवेश कर दिया और साइबर ठक का शिकार हो गए। एक डीपफेक वीडियो में सद्गुरु जग्गी वासुदेवन ने निवेश के लिए लिंक दिया। एक महिला ने लिंक खोला, जहां एक व्यक्ति ने कंपनी प्रतिनिधि बनकर उसे व्हाट्सएप ग्रुप में जोड़ा लिया। वे उसे वेबसाइट्स फॉलो करने और व्यापार करने के लिए मनाते रहे। महिला ने 3.75 करोड़ रुपये निवेश कर दिए, फिर ठग गायब हो गया।
सरकारी और साइबर एजेंसियों की चिंता
रिपोर्ट्स के मुताबिक, पिछले तीन सालों में डीपफेक से जुड़े फ्रॉड मामलों में 550% की बढ़ोतरी दर्ज की गई है। सबसे चिंताजनक बात यह है कि इन मामलों में पैसे की रिकवरी दर महज 34.1% है। यानी जो पैसा गया, उसका लौटना मुश्किल है। वर्धमान ग्रुप के चेयरमैन के साथ हुई एक ठगी में 7 करोड़ की ठगी में सिर्फ 5.25 करोड़ की रिकवरी हो पाई — और यह देश की सबसे बड़ी रिकवरी मानी जा रही है।
AI ने बढ़ाई मुश्किलें
AI तकनीक के आने के बाद डीपफेक वीडियो को पहचान पाना आम लोगों के लिए लगभग नामुमकिन हो गया है। एक सर्वे में सामने आया कि 69% लोग AI जनरेटेड आवाज़ों को पहचान नहीं पाते, और सेलेब्रिटी के नाम पर चल रहे फर्जी वीडियो को असली समझकर भारी नुकसान झेलते हैं। इससे यह स्पष्ट होता है कि टेक्नोलॉजी का गलत इस्तेमाल अब आम जनता के लिए सबसे बड़ा साइबर खतरा बन चुका है।
क्या करें, कैसे बचें?
किसी भी निवेश स्कीम या लिंक पर सेलेब्रिटी की सिफारिश देखकर तुरंत विश्वास न करें।
सोशल मीडिया पर शेयर किए गए वीडियो की सच्चाई की पुष्टि जरुर करें।
संदेहास्पद लिंक या ग्रुप में शामिल होने से पहले दो बार सोचें।
किसी भी अनजान व्यक्ति के कहने पर पैसे ट्रांसफर न करें।
किसी भी व्यक्ति को अपने फोन में आए OPT को ना शेयर करे
साइबर क्राइम की शिकायत तुरंत 48 घंटे के भीतर करें ताकि रिकवरी की संभावना बनी रहे।
कैसे तैयार होता है यह फ्रॉड?
साइबर अपराधी पहले किसी लोकप्रिय सेलेब्रिटी का वीडियो और आवाज़ का डेटा इकट्ठा करते हैं। इसके बाद AI आधारित डीपफेक टूल्स की मदद से उनका एक नकली वीडियो बनाते हैं जिसमें वे निवेश या किसी स्कीम को प्रमोट करते दिखते हैं। इन वीडियो को सोशल मीडिया या मैसेजिंग ऐप्स के ज़रिए वायरल किया जाता है। भरोसे में आए लोग लिंक पर क्लिक करते हैं और लाखों रुपये की धोखाधड़ी का शिकार बन जाते हैं।
ठगी के मामलेमुंबई के एक डॉक्टर ने मुकेश अंबानी के नाम पर चल रही एक स्कीम पर भरोसा करते हुए 7 लाख रुपये गवां दिए। हैदराबाद के डॉक्टर ने वित्त मंत्री के डीपफेक वीडियो पर भरोसा करके 20 लाख रुपये का निवेश कर दिया और साइबर ठक का शिकार हो गए। एक डीपफेक वीडियो में सद्गुरु जग्गी वासुदेवन ने निवेश के लिए लिंक दिया। एक महिला ने लिंक खोला, जहां एक व्यक्ति ने कंपनी प्रतिनिधि बनकर उसे व्हाट्सएप ग्रुप में जोड़ा लिया। वे उसे वेबसाइट्स फॉलो करने और व्यापार करने के लिए मनाते रहे। महिला ने 3.75 करोड़ रुपये निवेश कर दिए, फिर ठग गायब हो गया।
सरकारी और साइबर एजेंसियों की चिंता
रिपोर्ट्स के मुताबिक, पिछले तीन सालों में डीपफेक से जुड़े फ्रॉड मामलों में 550% की बढ़ोतरी दर्ज की गई है। सबसे चिंताजनक बात यह है कि इन मामलों में पैसे की रिकवरी दर महज 34.1% है। यानी जो पैसा गया, उसका लौटना मुश्किल है। वर्धमान ग्रुप के चेयरमैन के साथ हुई एक ठगी में 7 करोड़ की ठगी में सिर्फ 5.25 करोड़ की रिकवरी हो पाई — और यह देश की सबसे बड़ी रिकवरी मानी जा रही है।
AI ने बढ़ाई मुश्किलें
AI तकनीक के आने के बाद डीपफेक वीडियो को पहचान पाना आम लोगों के लिए लगभग नामुमकिन हो गया है। एक सर्वे में सामने आया कि 69% लोग AI जनरेटेड आवाज़ों को पहचान नहीं पाते, और सेलेब्रिटी के नाम पर चल रहे फर्जी वीडियो को असली समझकर भारी नुकसान झेलते हैं। इससे यह स्पष्ट होता है कि टेक्नोलॉजी का गलत इस्तेमाल अब आम जनता के लिए सबसे बड़ा साइबर खतरा बन चुका है।
क्या करें, कैसे बचें?
किसी भी निवेश स्कीम या लिंक पर सेलेब्रिटी की सिफारिश देखकर तुरंत विश्वास न करें।
सोशल मीडिया पर शेयर किए गए वीडियो की सच्चाई की पुष्टि जरुर करें।
संदेहास्पद लिंक या ग्रुप में शामिल होने से पहले दो बार सोचें।
किसी भी अनजान व्यक्ति के कहने पर पैसे ट्रांसफर न करें।
किसी भी व्यक्ति को अपने फोन में आए OPT को ना शेयर करे
साइबर क्राइम की शिकायत तुरंत 48 घंटे के भीतर करें ताकि रिकवरी की संभावना बनी रहे।
You may also like
iPhone 17 Pro की जगह खरीदें Vivo X200 Pro 5G, कीमत और फीचर्स देखकर आप भी कहेंगे– सही फैसला
AI में निवेश करने के लिए इस कंपनी ने की अपने 20 प्रतिशत कर्मचारियों की छंटनी, जानें डिटेल्स
IND vs PAK मैच से पहले खुद के बिछाये जाल में फंसा पाकिस्तान, PCB पर लगे भ्रष्टाचार के घिनौने आरोप, अब चलेगा आईसीसी का डंडा, Video
उसने शराब पिलाई और मेरा रेप कर दिया, जब इस एक्ट्रेस के साथ डायरेक्टर ने की खौफनाक हरकत
B.Ed कोर्स हुआ खत्म, अब टीचर बनने के लिए ये 1 साल का नया कोर्स जरूरी