Hindi

अश्लील तस्वीरों से औरतों को तंग कर रहे लोन Apps, किसने किया दावा

Hindi

सिंगर चिन्मयी श्रीपदा ने लोन ऐप्स को लेकर किया बड़ा दावा

रश्मिका मंदाना का डीपफेक वीडियो वायरल होने के बाद अब सिंगर चिन्मयी श्रीपदा ने लोन ऐप्स को लेकर एक बड़ा दावा किया है।

Image credits: Social Media
Hindi

लोन ऐप्स पैसे ऐंठने के लिए कर रहे औरतों की तस्वीरों का मिसयूज

चिन्मयी के मुताबिक, जिन महिलाओं ने लोन ऐप्स से पैसे उधार लिए हैं, उन्हें परेशान किया जा रहा है। लोन कलेक्टर्स पैसे ऐंठने के लिए उनकी तस्वीरों को अश्लील फोटो के साथ बदल देते हैं।

Image credits: Social Media
Hindi

सेलेब्रिटी ही नहीं, आम लोगों को भी तंग कर रहे डीपफेक वीडियो

चिन्मयी ने कहा कि डीपफेक फोटो और वीडियो का इस्तेमाल सिर्फ बड़ी हस्तियों ही नहीं बल्कि आम लोगों को भी परेशान करने के लिए किया जा रहा है।

Image credits: Social Media
Hindi

डीपफेक बना जबरन वसूली, ब्लैकमेल और रेप का हथियार

चिन्मयी श्रीपदा ने AI डीपफेक टेक्नोलॉजी के गलत इस्तेमाल पर चिंता जताते हुए कहा- ये महिलाओं से जबरन वसूली, ब्लैकमेल और बलात्कार के अगले हथियार के रूप में सामने आ रहा है।

Image credits: Social Media
Hindi

चिन्मयी श्रीपदा ने Deepfake को लेकर जताई चिंता

चिन्मयी ने आगे कहा- डीप फेक अगला हथियार बनने जा रहा है, जिसका इस्तेमाल लड़कियों को निशाना बनाने, परेशान करने और ब्लैकमेल कर उगाही, बलात्कार के लिए हो सकता है।

Image credits: Social media
Hindi

Deepfake के खिलाफ राष्ट्रव्यापी अभियान की जरूरत

एक छोटे से गांव या कस्बे में रहने वाली महिलाओं के परिवारों को यह समझ में नहीं आता कि कब उनका सम्मान दांव पर लग जाता है। डीपफेक के खिलाफ राष्ट्रव्यापी अभियान चलाने की जरूरत है।

Image credits: Social Media
Hindi

डीपफेक को लेकर महिलाओं को जागरुक करने की जरूरत

डीपफेक को लेकर महिलाओं को जागरुक करने की जरूरत है, ताकि वो इसके खतरों के बारे में अच्छी तरह समझ सकें और मामले को अपने हाथों में लेकर तत्काल उसकी रिपोर्ट करें।

Image credits: Social Media
Hindi

क्या है Deepfake वीडियो

Deepfake वीडियो में किसी रियल वीडियो में किसी और का चेहरा फिट कर दिया जाता है। इसे मशीन लर्निंग और आर्टिफिशियल इंटेलिजेंस (AI) की मदद से किया जाता है।

Image Credits: Social media