Deepfake क्या है ? आप भी नहीं पहचान पायेंगें की कौन असली है और कौन नकली!

सोचिए, आप एक video देख रहे हैं और उसमें आपके पसंदीदा कलाकार किसी product का विज्ञापन कर रहे हैं! मगर बाद में पता चलता है कि असल में वो video नकली था, जी हाँ, आजकल ऐसे नकली वीडियो और फोटो तेज़ी से फैल रहे हैं, जिन्हें असली बनाने के लिए कंप्यूटर का सहारा लिया जाता है | इस आर्टिकल में हम Deepfake की दुनिया की गहराई में जाएंगे. हम जानेंगे कि ये असल हैं या नकली और भविष्य में इनका क्या होगा!

Deepfake क्या है?

एक ऐसा चालाक computer प्रोग्राम जो ढेर सारी तस्वीरें और video देख-देख कर सीखता है, मान लीजिए, ये प्रोग्राम किसी एक्टर का चेहरा और आवाज़ देखकर-देखकर सीख लेता है कि वो कैसे हंसता है, बोलता है और हिलता है. अब ये प्रोग्राम किसी और वीडियो में उस एक्टर का चेहरा और आवाज़ बिठा सकता है! मानो वो असली में कुछ बोल रहा हो या कर रहा हो, जबकि असल में उसने ऐसा कुछ किया ही नहीं! इन्हें ही “Deepfakes” कहते हैं।

ये टेक्नोलॉजी बहुत कमाल की है, पर ये गलत सूचनाएँ फैलाने का खतरा भी रखती है। इसलिए हमें सावधान रहना ज़रूरी है! ये नकली वीडियो तेज़ी से फैल रहे हैं और लोगों को गुमराह कर सकते हैं. इससे किसी की इज्जत भी खराब हो सकती है। टेक्नोलॉजी और बढ़ रही है, तो ऐसे नकली वीडियो और भी ज़्यादा बन रहे हैं। इसलिए अब ये मुश्किल हो गया है कि असली वीडियो कौनसा है और नकली कौन!

Deepfake किस Technology का इस्तेमाल करता है

Deepfakes(डीपफेक) तकनीक असल में नकली वीडियो बनाने के लिए आर्टिफिशियल इंटेलिजेंस (AI) का इस्तेमाल करती है, खासकर Deep Learning नामक एक AI तकनीक का। डीप लर्निंग Neural network का उपयोग करता है, जो कंप्यूटर सिस्टम हैं जिन्हें इंसान के दिमाग की तरह काम करने के लिए बनाया गया है।

Methods are used to create deepfakes

Deepfake के लिए, अक्सर Generative Adversarial Network (GAN) नामक एक प्रकार के न्यूरल नेटवर्क का उपयोग किया जाता है। GAN के दो मुख्य भाग होते हैं: एक Generator और एक Discriminator. Generator नकली सामग्री बनाता है, जैसे फर्जी वीडियो, जबकि discriminator उस सामग्री की प्रामाणिकता का मूल्यांकन करता है।

Training Process के दौरान, generator सामग्री बनाने में बेहतर होता जाता है, और discriminator असली और नकली में अंतर करने में अधिक कुशल हो जाता है। यह दोहराव वाला सीखने का तरीका बहुत ही असली और भरोसेमंद डीपफेक बनाने में मदद करता है।

Deepfakes कितने Type के होतें है | Types of Deepfake:

  1. वीडियो वाले डीपफेक्स:
    • ये वीडियो को बदलकर या बिलकुल नया वीडियो बनाकर काम करते हैं। जैसे असली इंसान की तरह हाव-भाव और आवाज़ के साथ कोई और दिखाया जाता है।
  2. आवाज वाले डीपफेक्स:
    • ये किसी की आवाज़ हूबहू कॉपी करने के लिए बनाए जाते हैं। जैसे कई सारी रिकॉर्डिंग से सीखकर कोई और बिलकुल उसी की तरह बोलता है।
  3. लिखाई वाले डीपफेक्स:
    • ये किसी की लिखने की आदत को कॉपी करके ऐसा टेक्स्ट बनाते हैं जो मानो उन्होंने ही लिखा हो। जैसे उनके वाक्यों और शब्दों का इस्तेमाल करके नया टेक्स्ट तैयार किया जाता है।

ये सब असली चीज़ों की बहुत सी जानकारी इकट्ठा करके बनाए जाते हैं। टेक्नोलॉजी बढ़ने के साथ ये और भी असली लगने लगेंगे, जिससे असली और नकली में फर्क करना मुश्किल हो जाएगा।

Deepfake: मनोरंजन, शिक्षा और कला का भविष्य होगा!

कभी सोचा है कि वो दिग्गज कलाकार जिन्हें हमने खो दिया है, वापस लौट आएं और नए किरदार निभाएं? या फिर कल्पना कीजिए फिल्मों में किरदार अचानक बदल जाएं और नया रूप ले लें! डीपफेक टेक्नोलॉजी एक ऐसा AI model है जो मनोरंजन, शिक्षा और कला की दुनिया में तहलका मचाने को तैयार है।

See also  ये रहा Top 5 AI Tools जो आपकी Content Creation  को Supercharge करेगा!

मनोरंजन का नया आयाम

पुराने सितारों की वापसी, जादुई कहानियां और इंटरैक्टिव गेम्सDeepfake Technology मनोरंजन के क्षेत्र में क्रांति लाने की क्षमता रखती है।Deepfake Technology का इस्तेमाल करके, वो कलाकार जो अब हमारे बीच नहीं हैं, फिर से ज़िंदा होकर अपनी मशहूर भूमिकाएं निभा सकते हैं! साथ ही, कहानियों में किरदारों को जादू की तरह बदलने का मज़ा भी लिया जा सकता है. सोचो, कितना रोमांचकारी होगा!

शिक्षा को मजेदार बनाते हुए

इतिहास के पाठ अब बोरिंग नहीं रहेंगे! Deepfake Technology से महान शख्सियतों को ज़िंदा किया जा सकता है, जो आपको उस ज़माने की कहानियां सुनाएंगे। ऐसी कल्पना कीजिए जहां आप स्कूल में बैठे हों और अचाननक सामने कोई ऐतिहासिक शख्सियत खड़ी होकर आपको उस ज़माने की घटनाओं के बारे में बता रही हो! डीपफेक टेक्नोलॉजी सीखने को इतना मजेदार बना सकती है कि आप भूल ही जाएंगे कि पढ़ाई कर रहे हैं!

कलाकारों के लिए नया अवसर

डीपफेक टेक्नोलॉजी कलाकारों के लिए भी एक नया अवसर है। अब वे पहचान, सच्चाई और दिखावे जैसे गहरे विषयों पर अनोखी कलाकृतियां बना सकते हैं। महंगे स्पेशल इफेक्ट्स अब दूर नहीं हैं, डीपफेक से हर कोई अपनी कला में जादू भर सकता है। यह न सिर्फ कलाकारों को नई संभावनाएं देता है, बल्कि दर्शकों के लिए भी कला का अनुभव और भी ज़्यादा दिलचस्प बना देता है।

दुनिया को एक करने का सपना

Deepfake technology भाषा की दीवारों को गिराकर दुनिया को एक बनाने का सपना देखती है। ऐसी चीज़ें बनाई जा सकती हैं जिन्हें हर कोई आसानी से समझ सके। इतिहास और संस्कृति को सहेजना, खोई हुई रिकॉर्डिंग्स को दोबारा जिंदगी देना, डीपफेक टेक्नोलॉजी मानवता को जोड़ने का पुल बन सकती है।

लेकिन याद रखें, ज़िम्मेदारी ज़रूरी है!

Deepfake Technology एक शक्तिशाली tool है, जिसका इस्तेमाल सोच-समझकर करना ज़रूरी है। दूसरों की permission लेना, सही इस्तेमाल करना और सच्चाई दिखाना ये वो नियम हैं जिन्हें नहीं भूलना चाहिए। गलत सूचना फैलाने या दूसरों को नुकसान पहुंचाने के लिए इसका इस्तेमाल नहीं किया जाना चाहिए।

झूठ की सनसनाहट: Deepfakes ka Khatarnak Khel

ये नई technology जिसका नाम है डीपफेक्स, इसका इस्तेमाल बहुत सरे धोखा धड़ी को करने के लिए किया जा रहा है जो नाही आप केलिए सही है और नाही मेरे लिए,चलिए जानतें है कहा इसका गलत इस्तेमाल हो रहा है:

  • झूठ की बाढ़: डीपफेक्स गलत खबरें फैला सकते हैं, लोगों को आपस में लड़ा सकते हैं, चुनावों को भी प्रभावित कर सकते हैं. याद रखिए, अब देखकर यकीन करना मुश्किल हो गया है!
  • बदनामी का दाग: नेताओं, कलाकारों या आम लोगों के भी डीपफेक्स बनाए जा सकते हैं, जिनसे उनकी इज्जत खराब हो सकती है. सोचिए, कोई झूठा वीडियो वायरल हो जाए, सच सामने आने से पहले बहुत देर हो चुकी होती है!
  • अपनी पहचान का गलत इस्तेमाल: आपकी तस्वीर या आवाज का इस्तेमाल करके कोई फर्जी पहचान बना सकता है और वो गलत काम कर सकता है. सावधान रहें!
  • कंपनियों को ठगना: किसी कंपनी के बड़े अधिकारी की नकली आवाज में झूठी बातें फैलाकर पैसा हड़पना भी मुमकिन है. सोचिए, अगर किसी को लगे कि कंपनी का मालिक खुद बोल रहा है, तो वो आसानी से ठगा जा सकता है!
  • देशों के बीच तनाव: डीपफेक्स का इस्तेमाल दुश्मन देशों के खिलाफ गलत जानकारी फैलाने के लिए या युद्ध छेड़ने के लिए भी किया जा सकता है. ये बहुत खतरनाक है!
  • सच पर संदेह: हर जगह झूठ देखते-देखते लोग असली खबरों पर भी यकीन नहीं करेंगे. सब कुछ झूठ लगने लगेगा, ये लोकतंत्र के लिए भी खतरा है!
  • नफरत फैलाना: गलत डीपफेक्स किसी खास समुदाय के खिलाफ नफरत फैला सकते हैं या किसी को डरा-धमकाया जा सकता है. ऐसे काम करने वाले बच भी सकते हैं क्योंकि ये साबित करना मुश्किल होता है कि किसने किया!
See also  Prompt Engineering पूरी जानकारी जाने

ये खतरे कम ना हों, इसके लिए टेक्नोलॉजी पर नजर रखना और लोगों को जागरूक करना बहुत जरूरी है. याद रखिए, सच को पहचानना सीखना होगा, तभी इस डीपफेक्स के खेल में फंसने से बच पाएंगे!

Deepfake: अक्षय कुमार का नाम विवाद में, शाहिद-कृति ने जताई चिंता

शाहिद कपूर और कृति सेनॉन अपनी फिल्म ‘तेरी बातों में ऐसा उलझा जिया’ का प्रमोशन कर रहे हैं. उसी बीच, उन्होंने डीपफेक वीडियो की बढ़ती समस्या पर भी बात की. शाहिद का मानना है कि असली मुद्दा टेक्नोलॉजी नहीं है, बल्कि इंसान खुद हैं. लोग अक्सर ऑनलाइन ऐसी छवि बनाते हैं जो असलियत से दूर होती है, जिससे दूसरों से तुलना करके दुखी होते हैं.

शाहिद ने कहा कि इंसान हमेशा एक अलग हकीकत ढूंढते हैं, जिसे फिल्म में रोबोट के जरिए दिखाया गया है. कृति को इस टेक्नोलॉजी के गलत इस्तेमाल की चिंता है. उन्होंने कहा कि अब AI न्यूज़ एंकर भी बनने लगे हैं और आने वाले समय में शायद AI पार्टनर भी बन जाएंगे. फिल्म में कृति एक रोबोट और शाहिद रोबोटिक्स एक्सपर्ट हैं.

एक दूसरी खबर में, अक्षय कुमार का नाम भी डीपफेक वीडियो विवाद में आया है. किसी ने उनकी झूठी वीडियो बनाकर गेमिंग ऐप का प्रमोशन किया. अक्षय ने इस वीडियो में होने से इनकार किया है और उनकी टीम ने कानूनी कार्रवाई की है. इस वीडियो को सोशल मीडिया पर फैलाने वालों के खिलाफ शिकायत दर्ज कराई गई है. अक्षय ने कहा कि उनका इस ऐप से कोई लेना-देना नहीं है और उनकी छवि गलत इस्तेमाल करने वालों के खिलाफ कार्रवाई की जाएगी.

असली और नकली में फर्क करना मुश्किल है| How to detect deepfakes

  1. तस्वीर अजीब लगे? झिलमिलाहट, धुंधली किनारे या चेहरे का अजीब हिलना बताता है कि ये नकली हो सकता है.
  2. आवाज में दिक्कत? अचानक खामोशी, धीमी आवाज या धातु जैसी आवाजें, हो सकता है आवाज से छेड़छाड़ की गई हो.
  3. कुछ गलत लगे? वीडियो में जो हो रहा है और जो बोल रहा है, क्या वो असल में सही लगता है?
  4. छोटी डिटेल गायब? असली लोगों में तिल, झुर्रियां या दांतों के बीच का गैप जैसी चीजें होती हैं, डीपफेक में शायद न हों.
  5. संदेह हो? शेयर मत करो! अगर सोर्स भरोसेमंद नहीं, तो आगे न फैलाओ, नहीं तो और लोग धोखा खाएंगे!

बस इतना! थोड़ी सी सावधानी से तुम भी डीपफेक को पहचान सकते हो!

Is deepfake banned in India?

Deepfake Technology को सीधे तौर पर बैन तो नहीं किया गया है, लेकिन इसे गलत तरीके से बनाने, फैलाने या इस्तेमाल करने पर कानूनी दिक्कतें हो सकती हैं, ये इस बात पर निर्भर करता है कि वीडियो में क्या है और आपका मकसद क्या है:

कानून:

  • 2000 (IT Act):
    • धारा 66E: बिना इजाजत किसी की तस्वीर लेने, छापने या शेयर करने से जुड़ी प्राइवेसी की धारा. सजा: 3 साल जेल या ₹2 लाख जुर्माना.
    • धारा 67, 67A, 67B: अश्लील या भद्दी सामग्री से जुड़ी धाराएं.
    • IT नियम, 2021: अगर आपको लगता है कोई आपकी नकल कर रहा है या आपकी तस्वीर बदलकर गलत इस्तेमाल कर रहा है तो शिकायत करने पर प्लेटफॉर्म को 36 घंटे में वो हटाना होगा. नहीं तो सजा हो सकती है.

कुछ और बातें:

  • नए नियम बन रहे हैं: सरकार डीपफेक के लिए खास नियम बनाने पर विचार कर रही है, जिसमें बनाने वालों और प्लेटफॉर्म के लिए सजा का प्रावधान होगा.
  • सामग्री की समीक्षा: सोशल मीडिया प्लेटफॉर्म को नुकसानदेह सामग्री, जिसमें डीपफेक भी शामिल हैं, को हटाना होता है.
  • नकल करना: IT एक्ट की धारा 66D के तहत किसी की नकल करना ऑनलाइन गैरकानूनी है.

यानी, टेक्नोलॉजी बैन नहीं है, लेकिन इसका गलत इस्तेमाल (बदनामी, नकल, गलत जानकारी फैलाना) कानूनी परेशानी खड़ी कर सकता है.

Conclusion

Deepfake Technology बहुत तेज़ी से तरक्की कर रही है. एक तरफ ये मज़ेदार वीडियो और फनी कॉमेडी बनाने में इस्तेमाल हो रही है, तो दूसरी तरफ गलत सूचनाएँ फैलाने का भी खतरा है। इससे किसी की इज्जत भी खराब हो सकती है।

इसलिए ये ज़रूरी है कि हम थोड़ा सतर्क रहें। online देखी हर चीज़ को यूँ ही सच ना मानें। थोड़ा रुकें, सोचें, और परखें कि ये असली है या नकली. ज़रा सी सावधानी से हम खुद को और दूसरों को डीपफेक्स के नुकसान से बचा सकते हैं।

साथ ही, ये technology अभी शुरुआती दौर में है। उम्मीद है कि आगे चलकर ऐसे तरीके बनेंगे जिनसे असली और नकली वीडियो में आसानी से फर्क पता चल सकेगा। ताकि टेक्नोलॉजी का मज़ेदार और अच्छे कामों में इस्तेमाल हो और गलत सूचनाओं पर लगाम लगे!

Leave a Comment

Your email address will not be published. Required fields are marked *

Scroll to Top