कृत्रिम बुद्धि का विकास इस तरह से हो रहा है कि यह मनुष्य की बुद्धि से कई कदम आगे निकल सकती है| इसी कारण इसके बहुत खतरनाक होने की आशंका बढ़ जाती है| किसी भ्रष्ट और विध्वंसकारी उद्देेश्य से यदि यह इस अति विकसित बुद्धि का उपयोग किया जाए तो इसके विनाशकारी परिणाम होंगे|असली चुनौती है कि कृत्रिम बुद्धि या एआई को किस तरह मानवीय मूल्यों के अनुरूप विकसित किया जाए|
आइन्स्टाइन ने जब एटम बम से हुई तबाही को देखा तो उन्होंने कहा कि यदि मुझे पता होता कि मेरे गणितीय ज्ञान का इतना भयावह परिणाम होगा तो मैं आजीवन घड़ी बनाने में ही लगा रहता| लगातार बढ़ते ज्ञान और वैज्ञानिक खोजों, इसके परिणामस्वरूप बदलते जा रहे सामाजिक मूल्यों के अपने कई जोखिम हैं| शुरुआत में यह जोखिम नहीं दिखता पर समय के साथ वह सामने आता है तो लोग सोचने लगते हैं कि यह आविष्कार नहीं होता तो ही बेहतर होता| पर तब तक काफ़ी देर हो चुकी होती है|
डिजिटल युग के शुरू होने के समय लोग बहुत उत्साहित थे, पर बाद में जब इसके खतरे सामने आये, बच्चे इसके बुरी तरह शिकार होने लगे, व्यक्तिगत जानकारी सार्वजनिक होने लगी और साइबर अपराध बढ़ने लगे, तब लोगों को इसका अहसास हुआ कि यह सिर्फ एक वरदान भर नहीं; इसके अपने अभिशाप भी हैं| अब डीपफेक की नई समस्या सामने आई है और स्वयं प्रधानमंत्री नरेंद्र मोदी ने भी इसके खतरे से लोगों को आगाह किया है| डीपफेक किसी को भी एक अन्य इंसान के रूप में बोलते, चलते और काम करते दिखा सकता है| एक वायरल विडियो में प्रधान मंत्री को गरबा नृत्य करते और विराट कोहली को एक नेता की तरह पेश कर दिया गया| कल्पना कीजिये कि डीपफेक की मदद से अमेरिकी राष्ट्रपति जो बाइडन को किसी बड़े युद्ध की घोषणा करते हुए दिखा दिया जाए! कृत्रिम बुद्धि, एआई, या आर्टिफीशियल इंटेलिजेंस या बनावटी बुद्धि को लेकर लोगों ने सजग होना शुरू कर दिया है| यह ऐसी समस्या है जो समाज के सभी वर्गों पर असर डाल सकती है| जिन बड़े उद्योगपतियों ने इस क्षेत्र में निवेश किया है वे खुद भी इसके खतरे के प्रति सतर्क हैं क्योंकि उन्हें अहसास है कि कहीं न कहीं, कभी इसका इस्तेमाल उनके खिलाफ भी किया जा सकता है| इनमें एलॉन मस्क भी शामिल हैं|
इस बारे में 2014 में एक फिल्म रिलीज़ हुई जिसका नाम एक्स मशीना| इसकी नायिका एवा, जो कृत्रिम या बनावटी बुद्धि से निर्मित एक चमत्कारिक मशीन है, यह साबित करती है कि कैसे वह बुद्धि में अपने इंसानी निर्माताओं से आगे बढ़ सकती है, ऐसे निर्णय ले सकती है जिनके अकल्पनीय परिणाम हो सकते हैं और लोगों को पूरी तरह तबाह कर सकते हैं| एवा की कहानी बताती है कि हमें कृत्रिम बुद्धि को लेकर कितना अधिक सजग रहने की जरूरत है| यह हमारी तकनीकी और डिजिटल दुनिया को बुनियादी रूप से बदल सकती और उसे बहुत अधिक विध्वंसक बना सकती है| इसके कई दूरगामी, दीर्घकालिक खतरनाक परिणाम हो सकते हैं| एक सामान्य खतरा तो यह है कि रोज़मर्रा के कामों में उपयोग में आने वाले एआई आधारित यंत्रों में कोई गड़बड़ी आ जाए और वे काम करना बंद कर दें| इसके दूरगामी परिणाम समूचे समाज और मानवता को प्रभावित कर सकते हैं| डीपफेक जैसा खुरापात हमारे आपसी रिश्तों पर यह गंभीर असर डाल सकता है|
दरअसल बड़ी समस्या यह है कि जिसे हम अपनी, स्वयं की स्वाभाविक, नैसर्गिक बुद्धि कहते हैं वह भी एक तरह से कृत्रिम है| वह हमारे सामाजिक, धार्मिक, शैक्षिक संस्कारों से, आपसी संबंधों के कारण उपजे पूर्वग्रहों का परिणाम है| ऐसे में देखा जाए तो हम इसी कृत्रिम और अक्सर विनाशकारी बुद्धि की मदद से एक और बनावटी बुद्धि निर्मित कर रहे हैं| यानी, एक कृत्रिमता दूसरी कृत्रिमता को निर्मित कर रही है| तथाकथित नैसर्गिक बुद्धि या प्रज्ञा ही परिष्कृत और शुद्ध नहीं हो पाई है| यह हमारी कई समस्याओं की जड़ में है, तो फिर इससे जो भी उत्पन्न होगा, वह दूषित और विनाशकारी नहीं होगा, इसकी कोई संभावना नहीं|
इजराइली इतिहासकार युवल नोआ हरारी ने कृत्रिम बुद्धि और बायोटेक्नोलॉजी के मिले-जुले परिणाम से मानवता को आगाह किया है| इन दोनों के एक साथ काम करने पर मानव अस्तित्व से जुड़े कुछ बुनियादी सवाल पैदा होते हैं| इनका मिलाजुला परिणाम इंसान की इच्छाओं, उसके विचारों और भावनाओं को बदलने की ताकत रखता है| इसके अलावा, सेंटर फॉर ए आई सेफ्टी के एक वक्तव्य में ए आई जुड़े करीब तीन सौ पेशेवर लोगों ने एआई टेक्नोलॉजी के खतरे के बारे में लोगों को सतर्क किया है|
कई खतरे दिखाई दे रहे हैं| मान लें कि बिजली और पानी की आपूर्ति का जिम्मा कृत्रिम बुद्धि पर आधारित किसी प्रणाली को दे दिया जाये| किसी तरह यह हैक हो जाये या इसमें गड़बड़ी आ जाए तो लोगों को किस संकट से जूझना पड़ेगा यह अकल्पनीय है| और यदि ये प्रणालियाँ पूरी तरह कृत्रिम बुद्धि पर आधारित हो जाएँ, उनका कोई विकल्प बचा न रखा जाये तो मुसीबत कई गुना बढ़ जायेगी| एक और भय है कृत्रिम बुद्धि को लेकर| मान लीजिये किसी कारण से एआई नियंत्रण से बाहर हो गया, इसमें कोई ऐसा प्रोग्राम विकसित हो गया जो खुद ब खुद काम करने लगे, बगैर किसी मानवीय निर्देश के| ऐसे में क्या होगा? किसी देश की तरफ से युद्ध का ऐलान ए आई आधारित कम्प्यूटर कर दें, ऐसे में क्या होगा? जल वितरण प्रणाली में रसायनों का कोई असंतुलन पैदा कर दिया जाए, तो समूची आबादी पर कितना भयावह खतरा पैदा हो सकता है, यह सोचा भी नहीं जा सकता| जब तक इसका उपयोग एक उपकरण के रूप में किया जाता है तब तक तो यह उपयोगी साबित होगा, पर जैसे ही इसपर से नियंत्रण हटा, या यह किसी विध्वंसकारी ताकत के हाथ में लगा, तो यह समूची प्रजाति को ख़त्म करने की क्षमता रखता है|
कृत्रिम बुद्धि का विकास इस तरह से हो रहा है कि यह मनुष्य की बुद्धि से कई कदम आगे निकल सकती है| इसी कारण इसके बहुत खतरनाक होने की आशंका बढ़ जाती है| यह स्वयं को ही बेहतर बना सकती है, और एक ऐसी सुपर इंटेलिजेंस विकसित कर सकती है जो मनुष्य की सामूहिक प्रज्ञा से कहीं आगे निकल सकती है| किसी भ्रष्ट और विध्वंसकारी उद्देेश्य से यदि यह इस अति विकसित बुद्धि का उपयोग किया जाए तो इसके विनाशकारी परिणाम होंगे| असली चुनौती है कि कृत्रिम बुद्धि या एआई को किस तरह मानवीय मूल्यों के अनुरूप विकसित किया जाए| अनियंत्रित एआई ए खतरे असीमित हैं और इसे नियंत्रित करने वाला इंसान अभी भी लोभ, घृणा, युद्ध के महिमामंडन, आत्मविस्तार जैसी आदतों से बाहर नहीं निकल पाया है|
एआई एक अनुशासनहीन मनुष्य के हाथ में पड़ कर भस्मासुर का रूप ले सकती है| एआई को लेकर कोई वैश्विक दृष्टिकोण नहीं| अलग-अलग देश अपने विकास के स्तर के आधार पर इस पर काम करेंगे| इसके केंद्र में हर देश का मकसद आत्मविस्तार और दूसरे देशों को कमतर साबित करना ही होगा, जैसा कि परमाणु हथियारों के मामले में किया जाता है| यह स्व-केन्द्रित सोच एआई को बहुत अधिक खतरनाक बनाती है|
यूरोपीय समुदाय ने हाल ही में कृत्रिम बुद्धि को लेकर ‘जोखिम पर आधारित’ एक नीति बनाई है जिसके तहत उन क्षेत्रों में अधिक सतर्कता बरतने के लिए कहा गया है जहाँ कृत्रिम बुद्धि से जुड़ी तकनीक लागू की जानी है| पर यह एक सीमित दृष्टिकोण की तरफ इशारा करता है| क्योंकि यह बताना संभव नहीं कि जिन क्षेत्रों को जोखिम भरा नहीं माना जा रहा, वे भी आने वाले समय में जोखिम पैदा कर सकते हैं| जरूरत इस बात की है इस तरह की नीति को अधिक समावेशी और व्यापक बनाया जाए और उन क्षेत्रों को अनदेखा नहीं किया जाये जहाँ कृत्रिम बुद्धि के खतरे भविष्य में किसी संक्रमण की तरह फ़ैल सकते हैं| इसे लेकर दुनिया के देशों में एक आम सहमति हो, क्योंकि यदि चीन और उत्तरी कोरिया जैसे देश किसी नीति का पालन नहीं करते तो ऐसे जोखिम पैदा हो सकते हैं जो अभी दूर भविष्य में हैं, दिखाई नहीं दे रहे| अंतर्राष्ट्रीय सुरक्षा और शांति के लिए खतरा बढ़ता चला जाएगा| कुछ देशों द्वारा विकास के नाम पर कृत्रिम बुद्धि का उपयोग पूरी दुनिया को ही ले डूबेगा| सामरिक क्षेत्र में कृत्रिम बुद्धि के खतरे असीमित हैं| सभी देशों को इस संबंध में स्पष्ट नतीजे पर पहुंचना जरूरी है कि वे परमाणु और रासायनिक हथियारों के उपयोग के संबंध में कृत्रिम बुद्धि का उपयोग किस सीमा तक करेंगे| कई तरह के खतरों से भरी दुनिया में ऐसी स्पष्ट एक नीति बहुत जरूरी है| जो फैसले हम आज करेंगे वे भविष्य की पीढ़ियों को बहुत अधिक प्रभावित करेंगे| किस हद तक उनके लिए खतरनाक होंगे, इसका अंदाजा भी हम आज नहीं लगा सकते|
[block rendering halted]