झूठी खबरों से रहें सावधान : डीपफेक से बचने के ये हैं तरीके, राज्य सरकार ने जारी की एडवाईजरी

NCRkhabar@Jaipur : सोशल मीडिया (Social Media) पर तेजी से फैल रही झूठी खबरों के लिए डीपफेक और आर्टिफिशियल इंटेलिजेंस (AI) का दुरुपयोग हो रहा है। इस बढ़ते खतरे को देखते हुए राज्य सरकार ने एक एडवाइजरी जारी की है। इसका उद्देश्य आम जनता और संगठनों को साइबर सुरक्षा के महत्व के बारे में जागरूक करना और डीपफेक के खतरों से बचने के तरीके बताना है।

 क्या है डीपफेक तकनीक

 डीपफेक तकनीक में एआई का इस्तेमाल करके बेहद यथार्थवादी दिखने वाले नकली वीडियो, चित्र और ऑडियो बनाए जाते हैं। इसके माध्यम से गलत सूचना फैलाने, साईबर धोखाधड़ी और वित्तीय ठगी की जाती है। यह तकनीक इतनी उन्नत हो गई है कि असली और नकली के बीच फर्क करना मुश्किल हो रहा है। इसका उपयोग किसी भी व्यक्ति या संगठन की प्रतिष्ठा को नुकसान पहुंचाने के लिए भी किया जा सकता है।

डीपफेक से कैसे बचें?

  किसी भी डिजिटल सामग्री को सोशल मीडिया पर साझा करने से पहले, उसके स्रोत की अच्छी तरह जाँच करें।  डीपफेक वीडियो में अक्सर असामान्यताएं देखी जा सकती हैं, जैसे कि अस्वाभाविक चेहरे के भाव, रंगों में असंगति, रोबोट जैसी आवाज़, और प्रकाश व्यवस्था में असामान्यता। अज्ञात स्रोतों से आने वाले संदेशों या अनुरोधों पर तुरंत कार्रवाई न करें। उन्हें अच्छी तरह से जाँच लें। सोशल मीडिया पर अपनी व्यक्तिगत जानकारी, खासकर हाई-रेज़ोल्यूशन वाली तस्वीरें और वीडियो, कम से कम साझा करें। सोशल मीडिया प्लेटफॉर्म पर गोपनीयता सेटिंग्स का उपयोग करके अपनी जानकारी की पहुंच को सीमित करें। अपने सोशल मीडिया खातों को हैकिंग से बचाने के लिए मल्टी-फैक्टर ऑथेंटिकेशन का उपयोग करें।

संगठनों के लिए सुरक्षा उपाय

राज्य सरकार की ओर से जारी एडवाइजरी में संगठनों से कहा गया है कि आधिकारिक वीडियो और छवियों पर डिजिटल वॉटरमार्क लगाएं ताकि उनकी प्रामाणिकता की पुष्टि की जा सके। डिजिटल संचार के लिए सख्त सत्यापन प्रक्रियाएं स्थापित करें। संवेदनशील लेनदेन के लिए मल्टी-फैक्टर ऑथेंटिकेशन और कॉलबैक जैसी प्रक्रियाओं का उपयोग करें। डीपफेक सामग्री की पहचान के लिए उन्नत उपकरणों का उपयोग करें और उन्हें नियमित रूप से अपडेट करें। साइबर फोरेंसिक क्षमताओं को बढ़ाकर संभावित डीपफेक सामग्री की जांच करें।

Leave a Comment