AI डीपफेक से वर्चुअल किडनैपिंग स्कैम का खतरा- एफबीआई का अलर्ट, सोशल मीडिया फोटोज से फर्जी प्रूफ बनाकर रैनसम मांग रहे हैकर्स, खुद को बचाने के ये तरीके अपनाएं। 

अमेरिकी संघीय जांच एजेंसी एफबीआई ने एक नए प्रकार के साइबर स्कैम को लेकर सार्वजनिक चेतावनी जारी की है, जिसमें हैकर्स आर्टिफिशियल इंटेलिजेंस (AI)

Dec 9, 2025 - 11:15
 0  12
AI डीपफेक से वर्चुअल किडनैपिंग स्कैम का खतरा- एफबीआई का अलर्ट, सोशल मीडिया फोटोज से फर्जी प्रूफ बनाकर रैनसम मांग रहे हैकर्स, खुद को बचाने के ये तरीके अपनाएं। 
AI डीपफेक से वर्चुअल किडनैपिंग स्कैम का खतरा- एफबीआई का अलर्ट, सोशल मीडिया फोटोज से फर्जी प्रूफ बनाकर रैनसम मांग रहे हैकर्स, खुद को बचाने के ये तरीके अपनाएं। 

अमेरिकी संघीय जांच एजेंसी एफबीआई ने एक नए प्रकार के साइबर स्कैम को लेकर सार्वजनिक चेतावनी जारी की है, जिसमें हैकर्स आर्टिफिशियल इंटेलिजेंस (AI) टूल्स का इस्तेमाल करके सोशल मीडिया से चुराई गई तस्वीरों और वीडियो को एडिट कर फर्जी किडनैपिंग सीन बनाते हैं और फिर परिवार वालों से रैनसम की मांग करते हैं। यह वर्चुअल किडनैपिंग स्कैम 5 दिसंबर 2025 को जारी पब्लिक सर्विस एनाउंसमेंट (पीएसए) के माध्यम से सामने आया, जिसमें एफबीआई ने बताया कि अपराधी सोशल मीडिया प्लेटफॉर्म्स जैसे फेसबुक, इंस्टाग्राम, लिंक्डइन या एक्स से पब्लिक प्रोफाइल्स की इमेजेस चुराते हैं और जेनरेटिव AI टूल्स से इन्हें मैनिपुलेट कर देते हैं, जैसे चेहरे पर घाव, बंधी हुई कलाई या डरी हुई अभिव्यक्ति जोड़कर। ये फर्जी प्रूफ-ऑफ-लाइफ इमेजेस या वीडियो को टेक्स्ट मैसेज या कॉल के जरिए भेजा जाता है, जिसमें दावा किया जाता है कि अपहरणकर्ता ने किसी करीबी को बंधक बना लिया है और तुरंत पैसे न देने पर हिंसा की धमकी दी जाती है। एफबीआई ने स्पष्ट किया कि इनमें कोई असली अपहरण नहीं होता, लेकिन डर के माहौल में लोग जल्दबाजी में क्रिप्टोकरेंसी या वायर ट्रांसफर से भुगतान कर देते हैं। स्कैम की शुरुआत आमतौर पर अप्रत्याशित टेक्स्ट मैसेज या फोन कॉल से होती है, जहां अपराधी परिवार के किसी सदस्य को किडनैप होने का दावा करते हैं। वे सोशल मीडिया से ली गई व्यक्तिगत जानकारी का इस्तेमाल करते हैं, जैसे नाम, स्थान या हाल की पोस्ट, ताकि मैसेज विश्वसनीय लगे। फिर प्रूफ के तौर पर AI से एडिटेड फोटो या वीडियो भेजा जाता है, जिसमें कथित बंधक डरा हुआ दिखाई देता है। एफबीआई के अनुसार, अपराधी टाइम्ड मैसेजिंग फीचर्स का इस्तेमाल करते हैं, ताकि रिसीवर को इमेज को स्क्रूटिनाइज करने का समय न मिले और वह घबराहट में पेमेंट कर दे। इन इमेजेस में अक्सर छोटी-मोटी गड़बड़ियां होती हैं, जैसे टैटू या स्कार का गायब होना, बॉडी प्रोपोर्शन में गलती या लाइटिंग में असंगति, लेकिन पैनिक मोमेंट में इन्हें नोटिस करना मुश्किल होता है। एफबीआई ने बताया कि यह स्कैम मुख्य रूप से अमेरिका में बढ़ रहा है, लेकिन वैश्विक स्तर पर फैल सकता है, क्योंकि AI टूल्स आसानी से उपलब्ध हैं।

इस स्कैम की जड़ें सोशल मीडिया की ओपन नेचर में हैं, जहां लोग फोटोज, वीडियो और पर्सनल डिटेल्स शेयर करते हैं। अपराधी इनका इस्तेमाल करके टारगेट चुनते हैं, खासकर वे लोग जो ट्रैवल कर रहे हों या जिनके फैमिली मेंबर्स अलग शहरों में रहते हों। एफबीआई के अनुसार, अपराधी कभी-कभी मिसिंग पर्सन पोस्ट्स का भी फायदा उठाते हैं, जहां वे फर्जी जानकारी देकर संपर्क करते हैं। उदाहरण के तौर पर, एक फ्लोरिडा की महिला ने अपनी बेटी की AI क्लोन वॉइस से डिस्ट्रेस कॉल मिलने के बाद 15,000 डॉलर का भुगतान कर दिया, जहां वॉइस क्लोनिंग टूल से बेटी की आवाज नकल की गई थी। एफबीआई ने चेतावनी दी कि ये स्कैम्स मनोवैज्ञानिक रूप से प्रभावित करते हैं, भले ही कोई शारीरिक नुकसान न हो, और आर्थिक नुकसान के अलावा विश्वास की कमी पैदा करते हैं। 2025 में एफबीआई को ऐसे स्कैम्स की शिकायतें बढ़ी हैं, हालांकि सटीक संख्या नहीं बताई गई। एफबीआई ने खुद को बचाने के लिए कई व्यावहारिक सलाह जारी की हैं, जो तुरंत लागू की जा सकती हैं। सबसे पहले, सोशल मीडिया प्रोफाइल को प्राइवेट रखें और फैमिली फोटोज या वीडियो को लिमिटेड ऑडियंस तक ही शेयर करें। ट्रैवल के दौरान पर्सनल इंफॉर्मेशन जैसे लोकेशन या प्लान्स को अनजान लोगों से शेयर न करें। यदि कोई संदिग्ध मैसेज आए, तो तुरंत कथित बंधक से सीधे संपर्क करने की कोशिश करें, जैसे कॉल या वीडियो कॉल। एफबीआई ने सुझाव दिया कि फैमिली में एक कोड वर्ड सेट करें, जो केवल आपसी संवाद में इस्तेमाल हो, ताकि असली खतरे की पुष्टि हो सके। प्रूफ-ऑफ-लाइफ इमेजेस को हमेशा स्क्रीनशॉट या रिकॉर्ड करें, ताकि बाद में जांच में मदद मिले। घबराहट के बजाय सोचें कि दावे कितने तर्कसंगत हैं, और कभी भी जल्दबाजी में पेमेंट न करें। यदि स्कैम का शिकार हो जाएं, तो एफबीआई के इंटरनेट क्राइम कंप्लेंट सेंटर (आईसी3) पर www.ic3.gov पर रिपोर्ट करें, जहां फोन नंबर, पेमेंट डिटेल्स, मैसेज और इमेजेस सबमिट करने की सलाह दी गई है।

यह स्कैम AI की तेजी से प्रगति का परिणाम है, जहां जेनरेटिव टूल्स जैसे डीपफेक वीडियो और वॉइस क्लोनिंग आसानी से उपलब्ध हैं। एफबीआई के अनुसार, अपराधी फेसबुक क्लोनिंग की तरह ही फोटोज को वुडनाइज करते हैं, लेकिन अब AI से रीयलिस्टिक बनाने में सक्षम हैं। 2025 में AI से जुड़े स्कैम्स में 37 प्रतिशत लोग चिंतित हैं, क्योंकि डीपफेक और वॉइस क्लोनिंग से फर्जी क्राइम्स आसान हो गए हैं। एफबीआई ने सलाह दी कि मिसिंग पर्सन इंफो पोस्ट करते समय सावधानी बरतें, क्योंकि अपराधी फर्जी क्लूज भेज सकते हैं। ये स्कैम्स मुख्य रूप से टेक्स्ट मैसेज से शुरू होते हैं, लेकिन वॉइस क्लोन कॉल्स भी बढ़ रहे हैं। एफबीआई ने कहा कि अपराधी हिंसा की धमकी देकर यूर्जेंसी पैदा करते हैं, लेकिन वास्तविकता में कोई अपहरण नहीं होता। वर्चुअल किडनैपिंग स्कैम्स का इतिहास कुछ वर्ष पुराना है, लेकिन AI के आने से यह और खतरनाक हो गया है। पहले अपराधी फोटोज को सिंपल एडिटिंग से बदलते थे, लेकिन अब जेनरेटिव AI से हाई-क्वालिटी डीपफेक बनाते हैं। एफबीआई के सैन फ्रांसिस्को डिवीजन ने लोकल अलर्ट जारी किए हैं, जहां कम्युनिटी वर्कशॉप्स के जरिए डिजिटल हाइजीन सिखाई जा रही है। इंटरपोल की साइबरक्राइम यूनिट्स स्कैम नेटवर्क्स पर इंटेलिजेंस शेयर कर रही हैं, और प्राइवेट फर्म्स बाउंटी प्रोग्राम्स चला रही हैं। एफबीआई ने कहा कि AI रेगुलेशंस की जरूरत है, ताकि टेक्नोलॉजी का दुरुपयोग न हो। ये स्कैम्स आर्थिक और साइकोलॉजिकल डैमेज पहुंचाते हैं, इसलिए जागरूकता सबसे बड़ा हथियार है।

Also Read- प्राइवेसी का संकट- सरकार ने दिया स्मार्टफोन लोकेशन ट्रैकिंग प्रस्ताव, सैमसंग-ऐप्पल का कड़ा विरोध, सांचर साथी पोर्टल से जुड़ी रिपोर्ट ने मचाई खलबली।

What's Your Reaction?

like

dislike

love

funny

angry

sad

wow