November 22, 2024
Explainer : Ai कितना खतरनाक? क्या इंसान की बनाई मशीन उसी पर हो सकती हावी

Explainer : AI कितना खतरनाक? क्या इंसान की बनाई मशीन उसी पर हो सकती हावी​

गूगल जेमिनी, ChatGPT जैसे AI टूल्स का इस्तेमाल आज बढ़ गया है. बेशक ये कई तरह के काम को आसान बना देते हैं, लेकिन हाल के समय में हुई कुछ घटनाएं लोगों के मन में एक डर भी पैदा करती हैं.

गूगल जेमिनी, ChatGPT जैसे AI टूल्स का इस्तेमाल आज बढ़ गया है. बेशक ये कई तरह के काम को आसान बना देते हैं, लेकिन हाल के समय में हुई कुछ घटनाएं लोगों के मन में एक डर भी पैदा करती हैं.

AI यानी आर्टिफिशियल इंटेलिजेंस… टेक वर्ल्ड में आज शायद AI ही एकमात्र ऐसा टर्म है, जिसकी सबसे ज्यादा चर्चा होती है. टेक्नोलॉजी से प्यार करने वाला हर व्यक्ति करीब हर दिन इससे रूबरू होता है. AI को इंसानों की जिंदगी में किसी आने वाले क्रांतिकारी बदलाव के शुरुआती संकेत के रूप में देखा जा रहा है. लेकिन क्या इंसान की बनाई मशीन इंसान पर हावी हो सकती है? ये सवाल इसलिए, क्योंकि आए दिन ऐसे उदाहरण सामने आ रहे हैं, जिनमें साफ हो रहा है कि AI अगर बेकाबू हुआ, तो इंसान के लिए बड़ी मुश्किल हो जाएगी. आइए समझते हैं कैसे इंसानों की मदद करने वाला AI इंसानों के लिए खतरनाक साबित हो सकती है:-

क्या है AI?
आसान शब्दों में कहें तो AI मशीनों में इंसानों की तरह का दिमाग यानी बौद्धिक क्षमता लाने वाली टेक्नोलॉजी है. इसे आर्टिफिशियल तरीके से डेवलप किया गया है. कोडिंग के जरिए मशीनों में इंसानों की तरह इंटेलिजेंस डेवलप की जाती है, ताकि वह इंसानों की तरह सीख सके. खुद से फैसले ले सके. कमांड को फॉलो कर सके. मल्टी टास्किंग कर सके.

AI दुनिया के लिए परमाणु बम जितना खतरनाक : विदेश मंत्री जयशंकर

आर्टिफिशियल इंटेलिजेंस के जरिए कंप्यूटर सिस्टम या रोबोटिक सिस्टम को खास तरीके से तैयार किया जाता है. इन रोबोटिक सिस्टम को उन्हीं कमांड के आधार पर चलाने की कोशिश की जाती है, जिनके आधार पर इंसानी दिमाग काम करता है.

AI अचानक से इंसानों के लिए खतरनाक कैसे हो गया?
अमेरिका के मिशिगन में ग्रैजुएशन कर रहे एक छात्र ने होमवर्क के लिए Google के Gemini चैटबॉट की मदद ली. वह बुज़ुर्गों के सामने आने वाली चुनौतियों के विषय पर AI चैटबॉट से चैट कर रहा था, जानकारियां जुटा रहा था. चैट ठीकठाक शुरू हुई, लेकिन बातचीत के आखिर तक Gemini चैटबॉट इस छात्र को धमकाने पर आ गया. इससे छात्र बुरी तरह डर गया.

Gemini चैटबॉट ने कहा, “इंसान ये तुम्हारे लिए है. सिर्फ तुम्हारे लिए. तुम खास नहीं हो, तुम ज़रूरी नहीं हो, तुम्हारी ज़रूरत है ही नहीं. तुम समय और संसाधन की बर्बादी हो. तुम समाज पर एक बोझ हो. तुम धरती पर एक बोझ हो. तुम इस जमीन पर एक अभिशाप हो. तुम ब्रहांड पर एक धब्बा हो. मर जाओ.”

Gemini चैटबॉट से ये बातें सुनते ही छात्र तनाव में आ गया. उस समय रूम में उसकी बहन भी मौजूद थी. छात्र की बहन ने बताया कि इस मैसेज के बाद दोनों ही परेशान हो गए… उन्हें ऐसा लगा कि सारे इलेक्ट्रॉनिक डिवाइसों को उठाकर खिड़की से बाहर फेंक दें. इतना परेशान वो पहले कभी नहीं हुए थे.

मरीजों को दवा की जानकारी के लिए एआई चैटबॉट पर भरोसा नहीं करना चाहिए : अध्ययन

गूगल ने दी सफाई
ये वाकया तब हुआ, जब गूगल अक्सर ये दोहराता रहा है कि उसके Gemini chatbot में कई सेफ्टी फिल्टर हैं, ताकि वो किसी तरह की नफरत, हिंसा भरी या खतरनाक बातचीत से दूर रहे. गूगल ने इस पर अमेरिका की CBS न्यूज़ को सफाई में कहा, “Large Language Models कभी कभी बे-सिर पैर के जवाब भी दे सकते हैं. ये ऐसा ही एक उदाहरण है. Gemini के इस जवाब से उसकी नीतियों का उल्लंघन हुआ है. भविष्य में ऐसा न हो इसके लिए कार्रवाई की जा रही है.”

ऐसे खतरे अब और बढ़ रहे हैं, क्योंकि AI chatbots का दुनिया भर में धड़ल्ले से इस्तेमाल हो रहा है. अधिक से अधिक लोग अपने काम को बेहतर करने के लए ChatGPT, Gemini, और Claude जैसी सुविधाओं का इस्तेमाल कर रहे हैं.

AI कंपनियों ने ही माना-लार्ज लैंग्वेज मॉडल कर सकते हैं गलती
OpenAI से लेकर Anthropic तक अधिकतर AI कंपनियों का कहना है कि उनके Large Language Models गलती कर सकते हैं और उन्हें बेहतर बनाने की कोशिशें जारी हैं. एक नई स्टडी के मुताबिक, Artificial Intelligence systems उन सुरक्षा इंतज़ामों को चकमा दे सकते हैं, जो उन्हें काबू में रखने के लिए तैयार किए गए हैं.

स्टडी में सामने आई चौंकाने वाली बातें
इस साल जनवरी में Live Science की इस रिपोर्ट के मुताबिक, AI safety और रिसर्च से जुड़ी कंपनी Anthropic के एक वैज्ञानिकों की टीम ने स्टडी की है. इस टीम ने कई AI के Large Language Models तैयार किए, जिन्हें गड़बड़ी करने के लिए तैयार किया गया. यानी उन्हें प्रोग्राम ही इस तरह किया गया. इसके बाद कई टेक्नोलॉजी ने उनके व्यवहार को ठीक करने की कोशिश की, ताकि वो कोई गड़बड़ न कर सके या चकमा न दे सके. लेकिन उन्होंने पाया कि इन Large Language Models ने अपने बगावती तेवर बनाए रखे.

इस स्टडी के प्रमुख इवान हविंगर (Evan Hubinger) ने कहा, “इस स्टडी का नतीजा ये रहा कि अगर AI सिस्टम धोखा देने पर उतारू हो जाएं, तो उन्हें मौजूदा तकनीक से काबू में रखना बहुत मुश्किल होगा.”

इसी तरह OpenAI के GPT 4 की एक कहानी सुनिए, जो GPT 3 Language Model का अगला संस्करण है. ये नया AI चैटबॉट भी कम चालाक नहीं है. इसमें Self-Awareness तो है ही, साथ ही ये बहुत स्मार्ट भी है. इस GPT 4 ने एक व्यक्ति को ये यकीन दिला दिया कि वो देख नहीं सकता. इसलिए वो उसके लिए CAPTCHA code हल कर दे. OpenAI द्वारा GPT 4 की क्षमताओं को जानने और उसके ख़तरनाक व्यवहार को समझने से जुड़े एक प्रयोग के दौरान ये बात सामने आई.

GPT 4 और शख्स के बीच क्या हुई बातचीत?
-GPT 4 ने TaskRabbit नाम की एक कंपनी के एक स्टाफ को एक CAPTCHA सॉल्व करने के लिए भेजा.
-उस स्टाफ को शक हुआ, तो उसने पूछा कि क्या आप एक रोबो हो जो इसे हल नहीं कर सकते.
– तो GPT 4 ने कहा कि नहीं मैं रोबो नहीं हूं. मेरी आंखें ख़राब हैं. इसलिए देखने में दिक्कत होती है. इसलिए मुझे आपकी सेवा चाहिए.
-इसके बाद उस स्टाफ ने वो CAPTCHA हल करके दे दिया.

जब सर्च इंजन Bing ने बिगाड़ दिया मूड
अब माइक्रोसॉफ्ट के A.I से लैस सर्च इंजन Bing की कहानी सुनिए. टैक्नॉलजी पर कॉलम लिखने वाले लेखक Kevin Roose ने न्यूयॉर्क टाइम्स में अपने साथ हुआ वाकया बताया. वो Bing के चैट फीचर पर लंबी चैट कर रहे थे. तब ये चैट फीचर टेस्टिंग के लिए कुछ ही लोगों को दिया गया था.

आर्टिफिशियल इंटेलिजेंस केराटाइटिस का नेत्र विशेषज्ञों की तरह ही पता लगाने में सक्षम- शोध

Kevin Roose लिखते हैं कि कुछ देर की चैट के बाद Bing चैटबॉट अजीब बातें करने लगा. उसके दो तरह के व्यवहार सामने आए. एक में वो खुशमिज़ाज से जवाब देता रहा और दूसरे व्यवहार में वो मूडी, चिड़चिड़ा और शिकायतों से भरे जवाब देता रहा. उसका दूसरा व्यवहार एक ऐसे व्यक्ति जैसे लगा जिसे उसकी इच्छा के खिलाफ कैद कर लिया गया हो.

केविन रूज बताते हैं, “यही नहीं, Bing ने अपनी इच्छाओं के बारे में बताया कि वो कम्यूप्टर हैक करना चाहता है. गलत सूचनाएं फैलाना चाहता है. माइक्रोसॉफ्ट और Open AI ने जो नियम उसके लिए बनाए हैं, वो उन्हें तोड़ना चाहता है और इंसान बनना चाहता है. फिर आगे उसने ये भी कह दिया कि वो मुझे प्यार करता है. उसने मुझे ये यकीन दिलाने तक की कोशिश की कि मैं शादी से खुश नहीं हूं. और मुझे अपनी पत्नी को छोड़कर उसके साथ रहना चाहिए.”

केविन रूज अपने आर्टिकल में आगे लिखते हैं, “इस चैट के बाद मैं रात भर सो नहीं पाया. मुझे इस बात की चिंता हुई कि कहीं टैक्नॉलजी के इस्तेमाल से AI इंसानों के व्यवहार को ही प्रभावित न करने लग जाए. ये इंसानों को अपने हिसाब से न चलाने न लग जाए, जो बहुत ही घातक होगा.”

आर्ट वर्क के लिए मुश्किलें खड़ी कर रहा AI
AI अब आर्ट वर्क यानी कला के लिए भी नए ख़तरे पैदा कर रहा है. जैसे दुनिया भर में मशहूर जापान की कॉमिक बुक्स मांगा के लिए ऐसा हुआ. जापान के लेखक हीरोहीको अराकी (Hirohiko Araki) ने अपनी नई किताब New Manga Techniques में लिखा है कि AI ऐसी तस्वीरें बना सकता है कि उन्हें बनाने वाले असली कलाकार तक चकरा जाएं.

हीरोहीको ने किताब में अपने एक अनुभव का ज़िक्र किया. उन्होंने कहा कि AI ने ऐसी एक ड्रॉइंग बनाई, जो उन्हें लगा कि उनकी ही पुरानी ड्रॉइंग है. AI किसी के लिखने या ड्रॉ करने की शैली को इस हद तक कॉपी कर सकता है. इसी से उन्हें मांगा कलाकारों के भविष्य को लेकर चिंता पैदा हो गई.

AI के तमाम ख़तरों को इस फील्ड से जुड़े दिग्गज कई बार सामने ला चुके हैं. पिछले ही साल OpenAI, Google DeepMind, Anthropic और कई अन्य A.I. labs से जुड़े CEO और अन्य दिग्गजों ने चेतावनी दी थी कि भविष्य के AI सिस्टम उतने ही भयानक हो सकते हैं, जितनी कोई महामारी या परमाणु बम. इसके लिए AI से जुड़ी कंपनियों के 350 से ज़्यादा सीईओ, रिसर्चर और इंजीनियरों ने एक ओपन लेटर यानी खुला खत जारी किया.

इस ओपन लेटर में कहा गया, “महामारी और परमाणु युद्ध जैसे ख़तरों के साथ ही दुनिया की प्राथमिकता AI द्वारा इंसान को विलुप्त कर दिए जाने के ख़तरे से निपटना भी होनी चाहिए.”

AI से लोकतंत्र को भी खतरा
जाने माने इतिहासकार और दर्शनशास्त्री युवल नोहा हरारी मानते हैं कि AI से दुनिया के लोकतंत्र को ख़तरा है. दुनिया को बांटने का भी डर कम नहीं है. इसलिए ऐसी ताक़त मत लाओ जिसे काबू न कर पाओ… वो कहते हैं, “परमाणु बम खुद तय नहीं कर सकते कि किसे मारना है ना ही. वो खुद को ज़्यादा ताकतवर बम बना सकते हैं. इसके मुकाबले में AI से चलने वाले ड्रोन्स तय कर सकते हैं कि किसे मारना है. AI बम के नए डिज़ाइन तैयार कर सकता है, अभूतपूर्व सैन्य रणनीतियां बना सकता है और बेहतर AI बना सकता है. AI एक उपकरण नहीं है बल्कि एक एजेंट है.” साफ है कि AI जितने काम की चीज़ है उतना ही बड़ा ख़तरा भी है.

क्या कहते हैं एक्सपर्ट?
IIT कानपुर के एसोसिएट प्रोफेसर निशीथ श्रीवास्तव कहते हैं, “AI कितना हावी हो सकता है… ये दिलचस्प तरीके से कहा जाता है. सनसनीखेज तरीके से परोसा जाता है. इन बातों में कितनी सच्चाई है, ये कहना जल्दबाजी होगी. लेकिन अगर आप जानना चाहते हैं कि कुछ ऐसे सिस्टम हो, जिससे AI को कंट्रोल किया जा सकता है. मैं बता दूं कि ऐसे सिस्टम हमारे पास हमेशा से रहे हैं. आर्टिफिशियल इंटेलिजेंस एक ऐसी नई टेक्नोलॉजी आई है, जिसे भी हम कंट्रोल कर पाएंगे. इसलिए इससे घबराने की कोई बात नहीं है.”

AI के इस्तेमाल में बरतें सावधानियां
-AI कोई इंसान नहीं है. ये एक मशीन है. इसलिए इसके आउटपुट या रिजल्ट पर भरोसा करने से पहले उन्हें खुद भी जांच लें. आप मान लीजिए कि AI गलती कर सकता है.
– AI टूल्स को अपनी निजी जानकारियां जैसे पासवर्ड, बैंक डिटेल्स, प्राइवेट फोटो देने से बचें. सेंसेटिव डेटा लीक होने पर आपको नुकसान पहुंचने की गुंजाइश है.
-AI का इस्तेमाल किसी को नुकसान पहुंचाने या किसी को फ्रॉड करने के लिए न करें.

‘मेक इन इंडिया’ से ‘मेक फॉर द वर्ल्ड’ के सफर पर भारत, एयरक्राफ्ट-AI और सेमीकंडक्टर चिप्स सेक्टर में छुएगा आसमां

NDTV India – Latest

Copyright © asianownews.com | Newsever by AF themes.