नई दिल्ली: पिछले साल नवंबर में OpenAI द्वारा ChatGPT को लॉन्च करने के बाद से ही काफी लोकप्रिय हो गया. बड़ी-बड़ी कोडिंग लिख देने जैसे इसकी काबिलियत देखकर लोग काफी इंप्रेस हुए. साथ ही ChatGPT के एडवांस वर्जन यानी GPT-4 को मार्च में पेश करने के बाद लोगों को इससे और भी उम्मीद बढ़ गई. लेकिन, आपको जानकर हैरानी होगी कि GPT-4 भी इंसानों की तरह गलती करता है और सॉरी भी बोल देता है.
एक Reddit यूजर ने GPT-4 के साथ हुए कन्वर्सेशन का एक स्क्रीनशॉट शेयर किया है. इससे पता चला है कि चैटबॉट ने जवाब देते वक्त एक टाइपोग्राफिकल एरर किया था. चैटबॉट ने ‘पेट शॉप रिकॉर्डिंग कंसर्न’ नाम की एक क्वेरी का जवाब देते हुए एक शब्द infringing को गलत तरीके से लिखते हुए अपने जवाब में infrishing any local laws लिख दिया था.
लेकिन, जब यूजर ने चैटबॉट से पूछा कि infringing का मतलब क्या होता है, तब उसने गलती को ठीक किया. चैटबॉट ने माफी मांगते हुए कहा कि Infrishing एक टाइपोग्राफिकल एरर है. इसके लिए करेक्ट वर्ड infringing होगा, जिसका अर्थ किसी नियम को तोड़ना होता है.
ChatGPT का ऐप
आपको बता दें कि हाल ही में ChatGPT के iOS ऐप को US के बाद 32 देशों में उपलब्ध कराया गया है. इन देशों की लिस्ट में भारत का भी नाम शामिल है. फिलहाल ऐप का एंड्रॉयड वर्जन नहीं पेश किया गया है. अभी तक ये चैटबॉट केवल वेबसाइट के लिए उपलब्ध था. हालांकि, ऐप के आने से लोगों को इसे इस्तेमाल करने में काफी सुविधा होगी.