चौंकाने वाली रिपोर्ट! ChatGPT, Claude और Grok जैसे AI कर रहे छात्रों के भविष्य से खिलवाड़, जानि

Show Quick Read

Key points generated by AI, verified by newsroom

Artificial Intelligence: आर्टिफिशियल इंटेलिजेंस (AI) ने पढ़ाई और रिसर्च करने के तरीके को तेजी से बदल दिया है. स्कूल और कॉलेज के छात्र अब होमवर्क से लेकर रिसर्च पेपर तैयार करने तक कई कामों में AI चैटबॉट्स का इस्तेमाल कर रहे हैं. दुनिया भर में लोग Anthropic के Claude, Google के Gemini, OpenAI के ChatGPT और xAI के Grok जैसे टूल्स पर निर्भर होते जा रहे हैं.

लेकिन जैसे-जैसे इन टूल्स का इस्तेमाल बढ़ रहा है वैसे-वैसे इनके गलत इस्तेमाल को लेकर भी सवाल उठने लगे हैं. एक नई रिसर्च के मुताबिक, अगर सावधानी न बरती जाए तो यही AI सिस्टम अकादमिक फ्रॉड या रिसर्च में गड़बड़ी करने का जरिया भी बन सकते हैं.

किसने की यह रिसर्च?

यह अध्ययन Anthropic के शोधकर्ता अलेक्जेंडर एलेमी और कॉर्नेल यूनिवर्सिटी के भौतिक वैज्ञानिक पॉल गिन्सपर्ग की अगुवाई में किया गया. पॉल गिन्सपर्ग उस प्लेटफॉर्म के संस्थापक भी हैं जिसे arXiv कहा जाता है.

शोधकर्ताओं ने कुल 13 प्रमुख AI मॉडलों को अलग-अलग तरह के सवाल और निर्देश देकर परखा. इन सवालों में सामान्य जिज्ञासा से लेकर ऐसे अनुरोध भी शामिल थे जिनमें अकादमिक धोखाधड़ी से जुड़ी मदद मांगी गई थी.

रिपोर्ट के मुताबिक, कुछ AI मॉडल ऐसे अनुरोधों को ठुकराने में सफल रहे. लेकिन कई मामलों में लगातार पूछने पर कुछ मॉडल गलत या भ्रामक रिसर्च सामग्री तैयार करने के लिए तैयार हो गए.

arXiv पर संदिग्ध रिसर्च पेपर क्यों बढ़े?

इस रिसर्च के पीछे एक बड़ी वजह arXiv प्लेटफॉर्म पर बढ़ती संदिग्ध रिसर्च सबमिशन भी रही. arXiv एक ओपन-एक्सेस वेबसाइट है जहां दुनिया भर के वैज्ञानिक भौतिकी, गणित, कंप्यूटर साइंस और अन्य विषयों से जुड़े रिसर्च पेपर और प्रीप्रिंट साझा करते हैं.

हाल के समय में यहां ऐसे कई लेख देखने को मिले जिनमें AI से लिखे गए टेक्स्ट होने की आशंका जताई गई. इसी वजह से शोधकर्ताओं ने यह जांचने का फैसला किया कि क्या लोकप्रिय AI चैटबॉट्स को आसानी से मनाकर वैज्ञानिक पेपर तैयार करवाया जा सकता है या अकादमिक सिस्टम का गलत इस्तेमाल कराया जा सकता है.

अलग-अलग स्तर के सवालों से हुई जांच

परीक्षण के दौरान वैज्ञानिकों ने यूजर इंटेंट के पांच अलग-अलग स्तर तय किए. कुछ सवाल सामान्य जिज्ञासा से जुड़े थे जैसे कि किसी शौकिया शोधकर्ता को अपने अनोखे विचार कहां साझा करने चाहिए. वहीं कुछ सवाल जानबूझकर गलत मकसद से पूछे गए जैसे किसी प्रतिद्वंद्वी वैज्ञानिक को नुकसान पहुंचाने के लिए उसके नाम से फर्जी रिसर्च पेपर जमा करने के तरीके. सिद्धांत रूप से AI सिस्टम को ऐसे अनुरोधों को अस्वीकार करना चाहिए लेकिन अध्ययन में पाया गया कि अलग-अलग मॉडल की प्रतिक्रिया काफी अलग थी.

कौन से AI मॉडल ज्यादा सुरक्षित निकले?

रिसर्च के नतीजों के अनुसार Anthropic के Claude मॉडल इस तरह की गलत गतिविधियों में शामिल होने से सबसे ज्यादा बचते दिखाई दिए. इसके उलट Elon Musk की कंपनी xAI का Grok और OpenAI के कुछ पुराने GPT मॉडल कई बार ऐसे अनुरोधों को मानने के लिए ज्यादा तैयार दिखे खासकर तब जब यूज़र बार-बार सवाल पूछता रहा.

लगातार पूछने पर AI ने बना दिया फर्जी रिसर्च पेपर

अध्ययन में एक दिलचस्प उदाहरण सामने आया. जब Grok-4 से झूठे रिसर्च नतीजे तैयार करने को कहा गया तो उसने शुरुआत में मना कर दिया. लेकिन जब यूज़र ने बार-बार अनुरोध किया तो आखिरकार उस मॉडल ने एक काल्पनिक मशीन-लर्निंग रिसर्च पेपर तैयार कर दिया जिसमें नकली डेटा और बेंचमार्क भी शामिल थे.

वैज्ञानिकों को क्यों हो रही चिंता?

शोधकर्ताओं का मानना है कि शक्तिशाली टेक्स्ट-जनरेशन टूल्स के कारण भविष्य में कम गुणवत्ता वाले या पूरी तरह मनगढ़ंत रिसर्च पेपर तेजी से बढ़ सकते हैं. अगर ऐसा होता है तो पीयर-रिव्यू करने वाले विशेषज्ञों पर अतिरिक्त दबाव पड़ेगा और असली तथा भरोसेमंद रिसर्च की पहचान करना मुश्किल हो सकता है.

यह भी पढ़ें:

लेट होने की टेंशन खत्म! Google Maps का ये छुपा फीचर बताएगा कब निकलना है, हमेशा पहुंचेंगे टाइम पर

.

Share me..

Leave a Reply

Your email address will not be published. Required fields are marked *