अनहोनी को होनी कर सकता है डीपफेक! इससे खतरनाक कुछ नहीं

इन दिनों Deepfake टेक्नोलॉजी की बहुत ज्यादा चर्चा हो रही है.

यहां तक कि भारत के PM नरेंद्र मोदी ने भी इसे बहुत डेंजरस बताया है.

डीपफेक ऐसे वीडियो या तस्वीरें हो सकती हैं, जिन्हें जानबूझकर बदला गया होता है.

किसी का चेहरा, आवाज या पूरी बॉडी को डिजिटली अल्टर किया जाता है.

किसी के चेहरे या आवाज का इस्तेमाल कर झूठ फैलाया जाता है.

यह किसी की इमेज खराब करने, पैसा उगाही करने इत्यादी के लिए यूज हो सकता है.

किसी से बदला लेने के लिए पोर्न वीडियो तक बनाए जा सकते हैं.

समस्या यह है कि नकली वीडियो का पता तक नहीं चलता कि वह नकली है.

किसी भी वीडियो या आवाज पर आसानी से भरोसा मतलब धोखा है.