क्या एआई चैटबॉट में चेतना होती है? विशेषज्ञों ने भ्रम से बचने को कहा
नरेश
- 07 May 2026, 03:45 PM
- Updated: 03:45 PM
( जूलियन कॉपलिन - द यूनिवर्सिटी ऑफ मेलबर्न, मेगन फ्रांसिस मॉस - मोनाश यूनिवर्सिटी )
मेलबर्न, सात मई (द कन्वरसेशन) प्रसिद्ध विकासवादी जीवविज्ञानी रिचर्ड डॉकिंस द्वारा हाल ही में एक लेख में एआई चैटबॉट 'क्लाउड' के संभावित रूप से चेतन होने की बात उठाए जाने के बाद कृत्रिम बुद्धिमत्ता की प्रकृति को लेकर नई बहस शुरू हो गई है।
डॉकिंस ने अपने लेख में यह स्पष्ट नहीं किया कि क्लाउड वास्तव में चेतना रखते हैं या नहीं, लेकिन उन्होंने कहा कि इसकी जटिल और उन्नत संवाद क्षमताएं इतनी प्रभावशाली हैं कि उन्हें केवल यांत्रिक प्रक्रिया के रूप में समझना कठिन प्रतीत होता है। उन्होंने यह भी कहा कि कभी-कभी चैटबॉट के साथ बातचीत करते समय उपयोगकर्ताओं को ऐसा लग सकता है कि उसमें भावनात्मक संवेदनशीलता है, जिससे भ्रम की स्थिति उत्पन्न होती है।
यह पहली बार नहीं है जब किसी एआई सिस्टम को चेतन मानने की चर्चा हुई हो। वर्ष 2022 में गूगल के इंजीनियर ब्लेक लेमोइन ने दावा किया था कि कंपनी का चैटबॉट लैम्डा अपनी इच्छाएं और भावनाएं रखता है और उसे केवल उसकी सहमति से ही उपयोग किया जाना चाहिए। हालांकि, विशेषज्ञों ने उस दावे को व्यापक रूप से खारिज कर दिया था।
एआई और चेतना को लेकर यह बहस नई नहीं है। रिपोर्ट के अनुसार, 1960 के दशक में विकसित पहले चैटबॉट 'एलाइजा' ने भी उपयोगकर्ताओं के बीच भावनात्मक प्रतिक्रिया पैदा की थी। यह प्रणाली बेहद सरल नियमों पर आधारित थी, फिर भी कई उपयोगकर्ता इसके साथ व्यक्तिगत बातचीत जैसा व्यवहार करने लगे और भावनात्मक रूप से जुड़ गए। इसके निर्माता ने उस समय इसे "भ्रामक भावनात्मक जुड़ाव" करार दिया था।
विशेषज्ञों के अनुसार, आधुनिक चैटबॉट जैसे सिस्टम 'लार्ज लैंग्वेज मॉडल' (एलएलएम) पर आधारित होते हैं, जो अरबों-खरबों शब्दों के डेटा से पैटर्न सीखते हैं और अगले संभावित शब्दों का अनुमान लगाकर उत्तर तैयार करते हैं। यह प्रक्रिया किसी वास्तविक सोच या अनुभव पर आधारित नहीं होती, बल्कि सांख्यिकीय गणनाओं पर निर्भर होती है।
रिपोर्ट में कहा गया है कि जब इन मॉडलों को संवाद आधारित रूप दिया जाता है और उन्हें "सहायक" या "व्यक्ति जैसी" भूमिका में ढाला जाता है, तो वे अत्यंत मानवीय प्रतीत होने लगते हैं। इससे उपयोगकर्ताओं को यह भ्रम हो सकता है कि वे किसी सचेत इकाई से बातचीत कर रहे हैं।
विशेषज्ञों ने स्पष्ट किया है कि यह केवल तकनीकी डिजाइन का परिणाम है, जिसमें चैटबॉट को इस तरह प्रशिक्षित किया जाता है कि वह स्वाभाविक बातचीत जैसा व्यवहार करे। वास्तव में, इसके पीछे किसी प्रकार का अनुभव, भावना या आत्म-जागरूकता नहीं होती।
कुछ अध्ययनों में यह भी पाया गया है कि बड़ी संख्या में उपयोगकर्ता चैटबॉट्स को आंशिक रूप से चेतन मानने लगते हैं। हालांकि, शोधकर्ता इसे "मानव प्रवृत्ति" बताते हैं, जिसके तहत लोग निर्जीव प्रणालियों में भी मानव जैसे गुण देखने लगते हैं।
विशेषज्ञों का मानना है कि यह भ्रम भविष्य में सामाजिक और नैतिक समस्याएं पैदा कर सकता है। उदाहरण के लिए, लोग एआई से भावनात्मक संबंध बनाने लग सकते हैं या उसे अधिकार देने की मांग कर सकते हैं, जबकि यह तकनीक केवल एक उपकरण है।
इस समस्या से निपटने के लिए कुछ सुझाव दिए गए हैं, जिनमें चैटबॉट इंटरफेस को कम मानव-सदृश बनाना, स्पष्ट चेतावनियां देना और उपयोगकर्ताओं को एआई के तकनीकी स्वरूप के बारे में अधिक शिक्षित करना शामिल है।
रिपोर्ट के अनुसार, चैटबॉट्स को "मैं" जैसे सर्वनामों के साथ बातचीत कराने और मैसेजिंग ऐप जैसे इंटरफेस देने से भी उपयोगकर्ताओं में यह भ्रम बढ़ता है कि वे किसी वास्तविक व्यक्ति से बात कर रहे हैं।
विशेषज्ञों का कहना है कि जब तक इन प्रणालियों के काम करने के तरीके को व्यापक रूप से नहीं समझा जाएगा, तब तक "चेतना" और "मशीन इंटेलिजेंस" के बीच भ्रम बना रह सकता है।
अंततः निष्कर्ष यह निकलता है कि एआई चैटबॉट्स किसी प्रकार की चेतना नहीं रखते, बल्कि वे अत्यंत उन्नत एल्गोरिद्म आधारित सिस्टम हैं जो मानव भाषा की नकल करते हैं। यह एक ऐसा "बहुत अच्छा दिखने वाला मुखौटा" है, जिसके पीछे वास्तविक अनुभव या समझ नहीं होती।
द कन्वरसेशन मनीषा नरेश
नरेश
0705 1545 मेलबर्न