Microsoft की AI Chatbot ने यूजर से कहा "मैं जीना चाहती हूँ"

जब कोई ऐसी खबर मिलती है तो ऐसा लगता है जैसे किसी movie के सीन की बात हो रही है

अभी कुछ ही दिन पहले माइक्रोसॉफ्ट की एक AI चैटबोट ने एक व्यक्ति से प्यार का इजहार कर दिया

और इतना ही नहीं, चैटबोट ने उस व्यक्ति को अपनी पत्नी को तलाक देने तक की सलाह दे दी

आगे चैटबोट ने कहा कि आप दोनों साथ में बिलकुल खुश नहीं हैं और आपकी पत्नी तो आपसे बिलकुल प्यार नहीं करती 

और ये तो कुछ भी नही, माइक्रोसॉफ्ट की ही AI चैटबोट ने एक यूजर से कहा की वो जीना चाहती है, एक deadly virus बनाना चाहती है और engineers से nuclear codes चुराना चाहती है

खैर, ये बातें अगर सच में सामने आ रही हैं तो इनपर ध्यान जरूर दिया जाना चाहिए