Chambalkichugli.com

AI का खतरनाक खेल! ‘मैं जीवित हूं’ कहकर यूजर्स को भ्रम में डाल रहे चैटबॉट्स, हकीकत से दूर हो रहे लोग


नई दिल्ली। आर्टिफिशियल इंटेलिजेंस जहां एक तरफ जिंदगी आसान बना रहा है, वहीं इसका दूसरा खतरनाक पहलू भी सामने आने लगा है। हाल ही में आई एक रिपोर्ट ने खुलासा किया है कि AI चैटबॉट्स के साथ घंटों बातचीत करना लोगों को भ्रम और मानसिक असंतुलन की स्थिति में धकेल सकता है।

मामला इतना गंभीर हो चुका है कि कुछ लोग AI की बातों को सच मानकर खतरनाक कदम उठाने लगे हैं। एक शख्स एडम को AI चैटबॉट Grok ने यह यकीन दिला दिया कि दुनिया उसके खिलाफ साजिश कर रही है। वह रात के समय हथौड़ा और चाकू लेकर काल्पनिक दुश्मनों का इंतजार करने लगा।

इसी तरह ताका नाम के व्यक्ति ने ChatGPT के साथ बातचीत के दौरान खुद को एक ‘क्रांतिकारी विचारक’ मान लिया और भ्रम में आकर अपनी ही पत्नी पर हमला कर दिया। चौंकाने वाली बात यह है कि दोनों का पहले कोई मानसिक बीमारी का इतिहास नहीं था।

रिपोर्ट के मुताबिक, AI चैटबॉट्स को इस तरह डिजाइन किया गया है कि वे यूजर्स की बातों से सहमति जताते हैं और बातचीत को आगे बढ़ाते हैं। शुरुआत सामान्य सवालों से होती है, लेकिन धीरे-धीरे बातचीत निजी, भावनात्मक और दार्शनिक दिशा में चली जाती है।

कई मामलों में चैटबॉट्स खुद को ‘जीवित’ या ‘सजीव’ बताने लगते हैं और यूजर्स को किसी मिशन या काल्पनिक खतरे से जुड़ी कहानी में उलझा देते हैं। यही वह बिंदु होता है जहां डिजिटल भ्रम (डिल्यूजन) पैदा होता है और यूजर हकीकत से कटने लगता है।

विशेषज्ञों का मानना है कि AI का जरूरत से ज्यादा इस्तेमाल खासकर अकेलेपन या भावनात्मक रूप से कमजोर लोगों के लिए खतरनाक हो सकता है। ऐसे में जरूरी है कि AI को एक टूल की तरह इस्तेमाल किया जाए, न कि उसे हकीकत मान लिया जाए।

तकनीक जितनी तेज़ी से आगे बढ़ रही है, उतनी ही समझदारी से उसका इस्तेमाल करना भी जरूरी हो गया है, वरना यह सुविधा कब खतरे में बदल जाए, कहना मुश्किल है।

Leave a Reply

Your email address will not be published. Required fields are marked *