यह वाकई बेहद चिंताजनक स्थिति है कि आर्टिफिशियल इंटेलीजेंस (एआई) की मदद से तैयार किए जा रहे डीपफेक वीडियो अब न केवल जानी-मानी हस्तियों बल्कि आम आदमी के भी गले की फांस बनते जा रहे हैं। दक्षिण कोरिया में तो हालात इतने खराब है कि यहां पर डीपफेक पोर्नोग्राफी एक महामारी की तरह पैâल रही है, जिसमें सैकड़ों छात्राएं, शिक्षिकाएं और सैन्यकर्मी इसका शिकार बन रहे हैं। रिपोर्ट्स के मुताबिक, एआई के जरिए बनाई जा रहीं इन तस्वीरों को मुख्यत: टेलीग्राम पर शेयर किया जा रहा है। राष्ट्रपति यून सुक येओल ने अधिकारियों से डिजिटल यौन अपराधों के खिलाफ कार्रवाई करने को कहा है। बता दें कि दक्षिण कोरिया के पास दुनिया की कुछ सबसे उन्नत डिजिटल प्रौद्योगिकियां हैं। यह भी, कई देशों की तरह, डिजिटल यौन अपराधों से जूझ रहा है। हाल ही में डीपफेक पोर्न का प्रसार हुआ है। एक विश्लेषण से पता चला है कि ऑनलाइन पाए जाने वाले अधिकांश डीपफेक वीडियो पोर्नोग्राफी हैं। एक विश्लेषण में पाया गया है कि २०१९ की तुलना में इस वर्ष ऑनलाइन पाए जाने वाले डीपफेक वीडियो की संख्या में ५५० प्रतिशत की वृद्धि हुई है, जिनमें से अधिकांश डीपफेक पोर्नोग्राफी वीडियो हैं। जनरेटिव आर्टिफिशियल इंटेलिजेंस (एआई) जैसी नई प्रौद्योगिकियों के उदय से डीपफेक सामग्री के निर्माण में भारी वृद्धि हुई है, जो कि डिजिटल रूप से परिवर्तित या उत्पन्न सामग्री है जो वीडियो, छवि या ऑडियो के माध्यम से वास्तविक व्यक्ति या परिदृश्य को चित्रित करने का दावा करती है।