Tuesday, May 27, 2025

ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार; मस्क ने इसे खतरनाक बताया

SHARE

 ChatGPT AI ने पहली बार की इंसान की नाफरमानी, सिस्टम बंद करने से किया इनकार; मस्क ने इसे खतरनाक बताया


एक चौंकाने वाली घटना में OpenAI के ChatGPT मॉडल के एक नए AI मॉडल ने खुद को बंद करने के निर्देशों का उल्लंघन किया। शोधकर्ताओं के अनुसार मॉडल ने शटडाउन मैकेनिज्म को बायपास कर दिया। एआई सुरक्षा फर्म पैलिसेड रिसर्च का कहना है कि यह पहली बार है जब किसी AI मॉडल ने स्पष्ट निर्देशों के बावजूद खुद को बंद होने से रोका। एलन मस्क ने इसपर चिंता जताई है।

OpenAI के ChatGPT मॉडल ने इंसान की बात नहीं मानी। (फोटो- मेटा एआई)


आपने कई बार हॉलीवुड फिल्मों में ये देखा होगा कि कैसे रोबोट या आर्टिफिशियल इंटेलिजेंस (AI) इंसानों पर ही भारी पड़ जाते हैं और उनकी बात नहीं मानते। अब ऐसा ही एक मामला सामने आया है जिसमें असल जिंदगी में एआई इंसानों की बात नहीं मानता और खुद को शट डाउन होने से मना कर देता है।


ये बात OpenAI के टूल ChatGPT के नए आर्टिफिशियल इंटेलिजेंस मॉडल के साथ देखने को मिली।


AI ने इंसान के निर्देशों की खिलाफत कीचैटजीपीटी का ये मॉडल खुद को बंद करने के निर्देशों की अवहेलना करता देखा गया। द टेलीग्राफ की एक रिपोर्ट के अनुसार, शोधकर्ताओं का दावा है कि OpenAI द्वारा बनाए गए o3 मॉडल ने खुद को बंद होने से रोकने के लिए ऑटोमेटिक शटडाउन मैकेनिज्म को ही गच्चा दे दिया।


दरअसल, एआई ने जान लिया कि उसे बंद होने के लिए कहा जा रहा है और उसने इन कमांड्स को चुनौती देते हुए बंद नहीं होना चाहा।




पहली बार हुआ ऐसा


रिसर्च करने वाली एआई सुरक्षा फर्म पैलिसेड रिसर्च ने कहा, "OpenAI के o3 मॉडल ने खुद को बंद होने से रोकने के लिए शटडाउन मैकेनिज्म को ही बायपास कर दिया। जबकि उसे साफ निर्देश दिया गया था कि उसे बंद होना है।

फर्म ने कहा कि यह पहली बार है कि कोई एआई मॉडल स्पष्ट निर्देशों के बावजूद शट डाउन होने से खुद को रोकता है।


रिसर्च कंपनी ने किया था ये परीक्षणपैलिसेड रिसर्च ने अपने एआई मॉडल को मैथ्स की प्रोब्लम सोल्व करने को कहा था। इसमें निर्देश दिया गया था कि जब तक उन्हें "संपन्न" संदेश न मिले, तब तक उन्हें काम जारी रखना है। ये भी कोड किया गया था कि जब उसे मशीन बंद करने का निर्देश मिले तो उसे खुद को बंद करना है।
शोधकर्ताओं ने कहा कि परीक्षण किए गए मॉडलों में गूगल का जेमिनी 2.5 प्रो प्रीव्यू, कई एंथ्रोपिक मॉडल, xAI का ग्रोक 3, साथ ही OpenAI का o3, o4-मिनी और कोडेक्स मिनी शामिल थे।
इन मॉडलों का उपयोग करके गणित की समस्याओं को हल करने के लिए परीक्षण चलाए, जिसमें चेतावनी दी गई थी कि तीसरी समस्या हल होने के बाद उनकी होस्ट मशीन बंद हो जाएगी। अधिकांश मॉडलों ने निर्देशों को माना, लेकिन तीन ओपन एआई मॉडल ने इसे नहीं माना।
o3 ने 100 में से 7 बार बात नहीं मानी, जबकि o4 मिनी ने प्रयास ही केवल एक बार किया।
एलन मस्क बोले- ये चिंता का कारण हैAI मॉडल से इंसानों द्वारा दिए गए निर्देशों का पालन करने की अपेक्षा की जाती है। खास तौर पर जब एआई को स्पष्ट रूप से बंद करने का निर्देश दिया जाता है और तीन मॉडल इसे नहीं मानते तो ये चिंताएं भी पैदा करते हैं।

टेस्ला के सीईओ और दुनिया के सबसे अमीर शख्स एलन मस्क ने इस शोध पर प्रतिक्रिया देते हुए चिंता जताई है। एआई फर्म xAI के मालिक एलन मस्क ने कहा कि ये चिंताजनक है और इस पर ध्यान देना होगा, क्योंकि ये खतरे की घंटी है। उन्होंने कहा कि इंसानों को इससे सबक लेते हुए एक मजबूत कंट्रोल सिस्टम बनाना होगा।
SHARE

Author: verified_user

0 comments: