AI काल्पनिक सपनों और भयावह दुःस्वप्नों के बीच झूलती रहती है, जो अक्सर इसकी वर्तमान क्षमताओं और सीमाओं की सूक्ष्म वास्तविकता को प्रभावित करती है। चूंकि हम व्यापक AI एकीकरण के कगार पर खड़े हैं, इसलिए इस तेजी से विकसित हो रही तकनीक के प्रचार-प्रसार को समझना और इसके वास्तविक निहितार्थों को उजागर करना अनिवार्य है।
AI से जुड़ी असंख्य चिंताओं में से एक विशेष रूप से परेशान करने वाला दावा यह है कि यह ऐसी दुनिया की ओर ले जा सकता है जिसमें सत्य और मनगढ़ंत बातों में अंतर करना असंभव हो जाएगा। यह डर निराधार नहीं है; डीपफेक और जनरेटिव AI जैसी परिष्कृत तकनीकों के उदय ने भ्रामक यथार्थवादी सामग्री के निर्माण को लोकतांत्रिक बना दिया है, जिससे हेरफेर के शक्तिशाली उपकरण औसत उपयोगकर्ता की पहुंच में आ गए हैं।
लेकिन क्या यह तकनीकी छलांग वास्तव में एक ऐसे युग की शुरुआत करती है जहां वास्तविकता कल्पना से अलग नहीं हो सकती? और यदि ऐसा है, तो ऐसे समाज के लिए इसके क्या परिणाम होंगे जिसकी लोकतांत्रिक नींव सूचित निर्णय लेने की नींव पर टिकी है?
झूठ का युग
जब हॉलीवुड में अभिनेताओं की उम्र कम करने के लिए AI डीपफेक तकनीक का इस्तेमाल किया जाता है – उदाहरण के लिए, हैरिसन फोर्ड को एक बार फिर युवा इंडियाना जोन्स की भूमिका निभाने में सक्षम बनाना – तो यह हानिरहित मज़ा है। लेकिन जब उसी तकनीक का इस्तेमाल यह दिखाने के लिए किया जाता है कि राजनीतिक हस्तियों ने ऐसे तरीके से बात की है या काम किया है जो वे कभी नहीं करते, तो यह कहीं अधिक चिंताजनक है।
हाल के उदाहरणों में कमला हैरिस और डोनाल्ड ट्रम्प दोनों के डीपफेक शामिल हैं। जैसे-जैसे हम इस साल के अमेरिकी चुनावों के करीब पहुँच रहे हैं, इसके खतरे बहुत स्पष्ट हैं।
AI हमें यह सोचने पर मजबूर करके सच्ची जानकारी की विश्वसनीयता को भी कमज़ोर कर सकता है कि क्या यह वास्तव में झूठ है। उदाहरण के लिए, डोनाल्ड ट्रम्प के हाल के दावों को लें कि उनके प्रतिद्वंद्वी ने AI का उपयोग करके उनकी रैली में भीड़ के आकार को कृत्रिम रूप से बढ़ा दिया था।
हालाँकि इसे जल्दी ही गलत साबित कर दिया गया था, लेकिन मुझे लगता है कि यह “झूठे के लाभांश” का लाभ उठाने का प्रयास था – केवल इस संभावना के कारण संदेह पैदा करना कि कुछ नकली हो सकता है, भले ही इसका कोई सबूत न हो।
यह हस्तक्षेप किसी भी तरह से अमेरिकी चुनावों तक सीमित नहीं है। पिछले साल ताइवान के चुनाव में एक उम्मीदवार के डीपफेक फुटेज का इस्तेमाल उसके प्रतिद्वंद्वियों का समर्थन करते हुए किया गया था, जिसका इस्तेमाल उसे बदनाम करने के प्रयास में किया गया था।
मोल्दोवन चुनाव के एक उम्मीदवार के पर्यावरण की रक्षा के लिए एक लोकप्रिय पेय को अवैध बनाने की धमकी देने का भी नकली फुटेज सामने आया।
और बांग्लादेश में, डीपफेक वीडियो में एक विपक्षी राजनेता को सार्वजनिक रूप से बिकनी पहने हुए दिखाया गया – एक ऐसा कृत्य जिसे मुस्लिम बहुल देश में संभवतः अपमानजनक माना जाएगा,
AI द्वारा संचालित गलत सूचनाओं में यह वृद्धि स्पष्ट रूप से लोकतांत्रिक प्रक्रियाओं में जनता के विश्वास को नुकसान पहुँचाने की क्षमता रखती है, और जैसे-जैसे ये उपकरण अधिक सुलभ और परिष्कृत होते जाते हैं, हम उम्मीद कर सकते हैं कि समस्या बढ़ती जाएगी।
वास्तविकता की जाँच
तो, इस दावे में स्पष्ट रूप से कुछ सच्चाई है कि AI सत्य और कल्पना के बीच की सीमाओं को धुंधला कर सकता है। लेकिन क्या इसका मतलब यह है कि हम एक ऐसे भविष्य की ओर बढ़ रहे हैं जहाँ हम जो कुछ भी ऑनलाइन देखते हैं वह संभावित रूप से भ्रामक है?
ठीक है, जबकि AI स्पष्ट रूप से बहुत विश्वसनीय नकली बना सकता है, इसके लिए तकनीकी सीमाएँ हैं। बारीकी से निरीक्षण करने पर, अक्सर यह पता लगाना संभव होता है कि हेरफेर कहाँ हुआ है। अक्सर अवास्तविक प्रकाश, प्रतिबिंब या हरकतें, या भाषण पैटर्न और तौर-तरीके जैसे संकेत होते हैं जिन्हें हम अनियमित के रूप में पहचान सकते हैं।
और जबकि हम हमेशा पहली नज़र में इनका पता नहीं लगा सकते हैं, ऐसे तकनीकी समाधान भी हैं जो अधिक सूक्ष्म संकेतों को पकड़ सकते हैं। उदाहरण के लिए, जब वीडियो को अलग-अलग स्रोतों से एक साथ जोड़ा गया हो या एल्गोरिदम द्वारा पूरी तरह से स्क्रैच से बनाया गया हो। जबकि डीपफेक बनाने के लिए इस्तेमाल की जाने वाली तकनीक निस्संदेह अधिक परिष्कृत हो जाएगी, इसलिए ऐसी तकनीक भी होगी जो उन्हें पहचानने में सक्षम है।
यह भी संभव है कि विनियमन वास्तविकता को बदलने वाले AI द्वारा उत्पन्न खतरे को कम करने में भूमिका निभा सकता है। उदाहरण के लिए, हाल ही में यूरोपीय संघ और चीन दोनों में पारित AI कानून, डीपफेक को प्रभावी रूप से अपराधी बनाते हैं जब उनका उपयोग गलत सूचना फैलाने या गलत सूचना फैलाने के लिए किया जाता है। समय बीतने के साथ इसे अन्य अधिकार क्षेत्रों में पारित कानूनों में भी शामिल किए जाने की संभावना है।
लेकिन यह संभावना है कि खतरे के खिलाफ सबसे अच्छा बचाव शिक्षा और जोखिमों के बारे में बढ़ती सार्वजनिक जागरूकता से आएगा। आखिरकार, मनुष्य एक उल्लेखनीय रूप से अनुकूलनीय प्रजाति है, और हम जो देखते हैं उसका आलोचनात्मक मूल्यांकन करने की हमारी क्षमता विकसित होने की संभावना है क्योंकि हम नकली सामग्री और गलत सूचनाओं से घिरे रहने के आदी हो जाते हैं।
तथ्यों की जाँच करने और ऑनलाइन देखी गई किसी चीज़ पर विश्वास करने या न करने का निर्णय लेने से पहले स्रोतों की विश्वसनीयता पर शोध करने जैसी सरल प्रथाएँ, AI द्वारा सत्य के लिए उत्पन्न होने वाले खतरे से बचाने में काफ़ी मददगार हो सकती हैं।
थोड़ा सा सामान्य ज्ञान भी काफ़ी मददगार हो सकता है—उदाहरण के लिए, खुद से पूछना, “क्या यह व्यक्ति वास्तव में ऐसा कहता या करता?
AI भविष्य में सत्य और कल्पना में अंतर करना
जबकि मेरा मानना है कि AI में झूठ से सत्य को बताना कठिन बनाने की क्षमता है, यह विचार कि यह इसे असंभव बना देगा, कुछ हद तक अतिशयोक्तिपूर्ण है।
निश्चित रूप से, यह जोखिम बहुत वास्तविक है कि कुछ लोग AI द्वारा उत्पन्न गलत सूचना के आधार पर कार्य करेंगे या अपने विश्वासों को आधार बनाएंगे। निरंतर सतर्कता और तरीकों के निरंतर विकास की आवश्यकता है – तकनीकी, विधायी और समाजशास्त्रीय – जो हमारी पहचान करने की क्षमता को बढ़ाते हैं कि क्या वास्तविक है और क्या नकली होने की संभावना है।
मैं देख सकता हूँ कि इन महत्वपूर्ण सोच कौशलों को कम उम्र में, जैसे कि स्कूलों में पढ़ाना शुरू करना आवश्यक हो सकता है। आखिरकार, ऐसा लगता है कि AI शिक्षा में एक महत्वपूर्ण भूमिका निभाएगा, और यह सुनिश्चित करना समझदारी होगी कि जोखिमों की पहचान करना और समझना उस पाठ्यक्रम का एक हिस्सा हो।
सही उपकरणों, निगरानी और जागरूकता के साथ, AI द्वारा सत्य के लिए उत्पन्न चुनौतियों को नेविगेट करना संभव होना चाहिए, हालांकि इसका मतलब यह हो सकता है कि हम जो देखते और सुनते हैं उसके बारे में सोचने और उसका आकलन करने के तरीके में कुछ बदलाव करें।
Read More : Jay Shah : जय शाह निर्विरोध ICC के नए अध्यक्ष चुने गए
Read More : Highest Paid South Actresses : 2024 में दक्षिण भारतीय की सबसे ज़्यादा कमाई करने वाली अभिनेत्रियाँ