BSE Deep Fake: बीएसई के नाम पर आया Deep Fake वीडियो, गलती से भी न मानें सच, नहीं तो सीधा नुकसान
BSE Deep fake: बीएसई ने एक बयान में कहा कि उसके संज्ञान में कुछ ऐसे वीडियो एवं ऑडियो आए हैं जिनमें उसके शीर्ष अधिकारी कथित तौर पर कुछ शेयरों और निवेश के बारे में सुझाव देते हुए नजर आ रहे हैं। जो पूरी तरह से नकली यानी फेक है।
बीएसई का डीप फेक वीडियो
BSE Deep fake: NSE के बाद बीएसई (BSE) ने भी अपने प्रबंध निदेशक (MD) और मुख्य कार्यपालक अधिकारी (CEO) सुंदररमण राममूर्ति के शेयरों की सिफारिश करने वाले डीपफेक वीडियो को लेकर निवेशकों को आगाह किया है।बीएसई ने एक बयान में कहा कि उसके संज्ञान में कुछ ऐसे वीडियो एवं ऑडियो आए हैं जिनमें उसके शीर्ष अधिकारी कथित तौर पर कुछ शेयरों और निवेश के बारे में सुझाव देते हुए नजर आ रहे हैं।एक्सचेंज ने इन वीडियो एवं ऑडियो को नकली, अनधिकृत और धोखाधड़ी वाले बताते हुए कहा कि इन्हें अत्याधुनिक प्रौद्योगिकी के इस्तेमाल से तैयार किया गया है।
क्या है खतरा
डीपफेक वीडियो को AI के इस्तेमाल से मूल सामग्री में हेराफेरी कर तैयार किया जाता है। इससे गलत सूचना फैलने और संबंधित व्यक्ति की प्रतिष्ठा को नुकसान पहुंचने का खतरा होता है।बीएसई ने कहा कि उसके प्रमुख फेसबुक या किसी अन्य सोशल मीडिया मंच के जरिये ऐसे किसी भी संचार की शुरुआत या समर्थन नहीं करते हैं।
इसके पहले नेशनल स्टॉक एक्सचेंज (एनएसई) ने भी 10 अप्रैल को अपने एमडी एवं सीईओ आशीष कुमार चौहान की शेयर सुझाव वाले डीपफेक वीडियो के खिलाफ एक आगाह करने वाला बयान जारी किया था।बीएसई ने निवेशकों से ऐसे वीडियो एवं ऑडियो पर भरोसा न करने और राममूर्ति का रूप धारण करके भ्रामक तरीकों से प्रसारित फर्जी सलाहों या अवांछित संचार का अनुकरण नहीं करने को कहा।
बीएसई ने कहा कि वह अज्ञात तत्वों द्वारा गलतबयानी को रोकने के लिए हर संभव कदम उठाएगा। उसने कहा कि कोई भी आधिकारिक संचार केवल आधिकारिक वेबसाइट और एक्सचेंज के सोशल मीडिया हैंडल से ही जारी किया जाता है।
क्या है Deep fake
डीपफेक वीडियो और ऑडियो दोनों फॉर्मेट में हो सकता है। इसे एक स्पेशल मशीन लर्निंग का इस्तेमाल करके बनाया जाता है जिसे डीप लर्निंग कहा जाता है। जिसमें कंप्यूटर को दो वीडियोज या फोटो दिए जाते हैं जिन्हें देखकर वह खुद ही दोनों वीडियो या फोटो को एक ही जैसा बनाता है। इसी तरह आवाडा का भी इस्तेमाल किया जाता है। जिससे किसी भी शख्सियत की आवाज कॉपी कर ली जाती है। और लोगों को वहीं असली लगने लगता है।
देश और दुनिया की ताजा ख़बरें (Hindi News) अब हिंदी में पढ़ें | बिजनेस (business News) की खबरों के लिए जुड़े रहे Timesnowhindi.com से | आज की ताजा खबरों (Latest Hindi News) के लिए Subscribe करें टाइम्स नाउ नवभारत YouTube चैनल
End of Article
End Of Feed
© 2024 Bennett, Coleman & Company Limited