in ,

Artificial Intelligence Scam: स्वैपिंग तकनीक का उपयोग करके अपने दोस्त बनने का नाटक किया और एक आदमी को 5 करोड़ रुपये से अधिक का नुकसान पहुंचाया।

Artificial Intelligence Scam का युग आ चुका है और दुनिया भर के लोग अपने जीवन को सरल बनाने के लिए प्रौद्योगिकी के नए तरीके खोज रहे हैं। एआई का उपयोग निबंध और कविताओं को लिखने, कोड को सरल और समझने, कविता और संगीत की रचना करने और बहुत कुछ करने के लिए किया जा रहा है। समय के साथ, लोगों ने उभरती हुई तकनीक के संभावित नुकसान को भी महसूस करना शुरू किया है और डीपफेक इमेज और वीडियो बनाना उनमें से एक बन गया है।

हालांकि, उत्तरी चीन में एक व्यक्ति ने एक कदम आगे बढ़कर डीपफेक तकनीक का उपयोग करके एक व्यक्ति से 5 करोड़ रुपये से अधिक की ठगी की। AI का इस्तेमाल करके शख्स ने 5 करोड़ रुपये से अधिक की ठगी की रॉयटर्स की एक रिपोर्ट के अनुसार, उत्तरी चीन में एक स्कैमर ने अत्यधिक उन्नत ‘डीपफेक’ तकनीक का इस्तेमाल किया और एक व्यक्ति को अपने खाते में पैसे ट्रांसफर करने के लिए मना लिया। स्कैमर ने एआई-पावर्ड फेस-स्वैपिंग तकनीक का उपयोग किया और पीड़ित के करीबी दोस्त की छवि धारण की।

एक रिपोर्ट के अनुसार, बाओटौ शहर की पुलिस ने बताया कि एक जालसाज (Artificial Intelligence Scam) ने वीडियो कॉल के माध्यम से पीड़ित के दोस्त की पहचान चुराई और उससे 4.3 मिलियन युआन (लगभग 5 करोड़ रुपये) की राशि ट्रांसफर करने के लिए कहा।

पीड़ित ने माना कि बोली प्रक्रिया के दौरान उसके दोस्त को पैसों की कठिनाई थी, इसलिए वह राशि को स्थानांतरित कर दी। पुलिस ने खुलासा किया कि पीड़ित ने इस बात का अहसास तब किया जब उसके दोस्त (जिसे जालसाज ने नकली रूप में उभारा था) ने ‘स्थिति पर अनभिज्ञता’ प्रगट की। साथ ही, पुलिस ने चोरी हुए अधिकांश धन को बरामद कर लिया है और बची हुई राशि के पता लगाने के लिए कार्रवाई की जारी है। यह घटना ने चीन में वित्तीय अपराधों को बढ़ावा देने के लिए एआई के इस्तेमाल पर चिंता को उठाया है।

Artificial Intelligence Scam: एआई आवाज से संबंधित धोखाधड़ी की घटना

एआई आवाज से संबंधित धोखाधड़ी यह पहली बार नहीं है कि एआई का उपयोग किसी व्यक्ति की मेहनत की कमाई को धोखाधड़ी करने के लिए किया जाता है। पिछले महीने, एक मामले ने दुनिया को हिला दिया था, जहां स्कैमर्स ने एआई का उपयोग करके एक किशोरी की आवाज की क्लोन बनाई और उसकी मां से फिरौती मांगी थी। CBS समाचार से संबंधित एक यूएस-आधारित समाचार चैनल WKYT की एक रिपोर्ट ने खुलासा किया कि कैसे एक अज्ञात नंबर से एक दिन एरिज़ोना की जेनिफर डेसेफानो को कॉल आई और उसने उसकी दुनिया को उल्टा कर दिया।

डिसेफानो ने एक न्यूज़ चैनल को बताया कि उनकी 15 साल की बेटी स्कीइंग ट्रिप पर गई हुई थी, जब उन्हें एक फोन आया। जब उन्होंने फोन उठाया, उन्हें उनकी बेटी की आवाज़ में ‘मॉम’ कहकर बुलाया और तत्पश्चात रोने लगी। इसके बाद, एक पुरुष की आवाज़ सुनाई दी जो महिला को पुलिस के पास नहीं जाने की धमकी दे रहा था।
महिला ने फिर कहा कि वह पृष्ठभूमि में अपनी बेटी की आवाज़ सुन सकती है, जो मदद के लिए पुकार रही है। इसके बाद उस व्यक्ति ने बेटी को छोड़ने के लिए 10 लाख डॉलर की मांग की।

पीड़िता ने स्थानीय मीडिया को बताया, “मुझे कभी ऐसा लगा नहीं कि यह मेरी बेटी नहीं है। यह पूरी तरह से उसकी आवाज़ थी। वह रो रही थी।” यह एक अजीब सा अनुभव था जो मुझे मेरे ज़हन में अभी भी है । हालांकि, उनकी बेटी सुरक्षित और स्वस्थ थी और उसका अपहरण बिल्कुल नहीं हुआ था।

What do you think?

Written by KP Singh

Leave a Reply

Your email address will not be published. Required fields are marked *

GIPHY App Key not set. Please check settings

Benefit of Flight Mode: एयरप्लेन मोड सिर्फ फ्लाइट में ही काम नहीं आता, यह एक फोन फीचर है जो आपके कई कामों को सुविधाजनक बनाता है। इस बात से आप चौंक जाएंगे!

Security Measures for the New Parliament: नए संसद भवन की सुरक्षा के लिए आसमान से जमीन तक 24 घंटे ‘बाज’ की नजर, लगे विशेष उपकरणों के साथ एंटी ड्रोन और एंटी मिसाइल सिस्टम ने बढ़ाई सुरक्षा की गारंटी।