Deepfake Crisis: साउथ कोरिया में डीपफेक गैंग ने सैकड़ों लड़कियों की शिकार बनाया है और उनकी एक नहीं बल्कि हजारों आपत्तिजनक तस्वीरें वायरल कर दीं. पूरे कांड को जानकर आप हिल जाएंगे!
एक इंग्लिश बेवसाइट की रिपोर्ट के अनुसार, डीपफेक गैंग ने 500 से ज्यादा कॉलेज और स्कूलों को शिकार बनाया है. पीड़ित छात्रों की तस्वीरों को सोशल मीडिया एप टेलीग्राम के जरिए वायरल किया गया है, जिनमें छात्राओं की मूल तस्वीरों के साथ छेड़छाड़ कर उनको उनमें आपत्तिजनक हालत में दिखाया है. इन तस्वीरों को कौन वायरल कर रहा है. पुलिस के पास अभी इस सवाल का कोई जवाब नहीं है. अब, बड़े पैमाने पर लोग सड़कों पर उतर आए हैं और इस कांड के खिलाफ प्रदर्शन कर रहे हैं.
सदमे में हैं पीड़ित छात्राएं
जो लड़कियां डीपफेक का शिकार हुई हैं, उनकी तस्वीरों को उनके ही सोशल मीडिया अकाउंट से उठाया गया था. उनको डीपफेक टेक्नोलॉजी (Deepfake Technology) के मदद से आपत्तिजनक हालत में बदल दिया गया, जिनमें नग्न शरीर के साथ पीड़िता के चेहरे का इस्तेमाल किया गया. इन तस्वीरों के सामने आने के बाद पीड़िताएं सदमे में हैं. उन्होंने खुद को घरों में कैद कर लिया है. उनमें से कई का तो रो रोकर बुरा हाल है.
डीएक्टिवेट किए अकाउंट्स
पीड़िताएं इस कांड से इतनी डर गई हैं कि उन्होंने सोशल मीडिया अकाउंट्स से अपनी तस्वीरों को डिलीट कर दिया है और फिर अकाउंट को डीएक्टिवेट कर दिया. साथ ही उन्य महिलाएं भी ऐसा ही कर रही हैं. उनको भी डर है कहीं वो भी डीफफेक का शिकार न हो जाएं और फिर उनकी भी आपत्तिजनक तस्वीरें सोशल मीडिया में वायरल न हो जाएं. साउथ कोरिया में बड़ी संख्या में महिलाओं ने अपने सोशल मीडिया अकाउंट डिएक्टिवेट किए हैं. मामले में बड़ी संख्या में पीड़िताएं आगे आईं और उन्होंने अपनी शिकायत दर्ज कराईं.
एक्टिव हुई पुलिस
वहीं, बड़े पैमाने पर शिकायतें मिलने के बाद पुलिस एक्टिव हो गई है. पुलिस यूनिवर्सिटीज् में एक्टिव डीपफेक रिंग (Deepfake Ring) की तलाश कर रही है. पुलिस का कहना है कि जल्द ही आरोपी उसकी गिरफ्त में होंगे. इस डीपफेक कांड ने साउथ कोरियाई सरकार को भी हिलाकर रख गया है. जांच एजेंसियों को जल्द से जल्द डीपफेक गैंग का खुलासा करने के आदेश दिए गए हैं. कुछ मिलाकर कहें तो इस वक्त साउथ कोरिया में जबरदस्त हंगामा मचा हुआ है.
क्या है डीपफेक? (What is Deepfake)
डीपफेक एक मॉडर्न टेक्नोलॉजी है, जिसके जरिए से किसी की भी तस्वीर और वीडियो को अपने लिहाज से बदला जा सकता है. तस्वीरों और वीडियो में जो बदलाव के लिए प्रकिया इस्तेमाल की जाती है. उसे डीपफेक टेक्नोलॉजी कहा जाता है. यह सब आर्टिफिशियल इंटेलीजेंस (एआई) की मदद से किया जाता है. हालांकि इसके कई दुष्प्रभाव भी देखने को मिल रहे हैं. खासकर महिलाओं की छवि को धूमिल करने के लिए इस टेक्नॉलोजी का इस्तेमाल किया जा रहा है, इसलिए इसे लोगों की गोपनीयता और पर्सनल इमेज के लिए सबसे बड़ा खतरा माना जा रहा है.