Microsoft copilot image generation feature
ये तो हम सभी जानते है कि माइक्रोसॉफ्ट की बिंग चैट इमेज जनरेशन फीचर को लाने वाले पहले एआई चैटबॉट्स में से एक थी और यह यूजर्स को एक ऐसी जगह ऑफर करती थी जहां वे एआई-जनरेटेड कंटेंट के साथ-साथ फोटो भी बना सकते है। पिछले कुछ महीनों में, बिंग एआई में कंपनी ने काफी अपग्रेड किए गए है और अब हम सभी इसे कोपायलट के रूप में जानते है। अब Microsoft के एक कर्मचारी का कहना है कि Copilot का इमेज जनरेशन फीचर उतना सेफ नहीं है जितना होना चाहिए।माइक्रोसॉफ्ट एआई इंजीनियर शेन जोन्स ने हाल ही में कोपायलट AI Tool को लेकर अपनी चिंता व्यक्त की है।
उन्होने एक लिंक्डइन पोस्ट में बताया है कि कंपनी के एआई टूल में हिंसक और इरोटिक इमेज बनाने के खिलाफ कोई भी सिक्योरिटी फंक्शन नहीं है। उन्होंने फेडरल ट्रेड कमीशन और माइक्रोसॉफ्ट के डायरेक्टर को भी इसे लेकर एक मैसेज भेजा है।जोन्स जो माइक्रोसॉफ्ट में हेड सॉफ्टवेयर इंजीनियर है, उन्होने खुलासा किया है कि कंपनी AI इमेज जनरेटर, माइक्रोसॉफ्ट के कोपायलट डिजाइनर में आ रही इस गड़बड़ी के बारे में जनता है। ये टूल OpenAI के DALL-E 3 आर्टिफिशियल इंटेलिजेंस सिस्टम का यूज करके टेक्स्ट के बेस पर तस्वीरें बनाता है। साथ ही उन्होंने यह भी बताया कि कैसे ये टूल “Teenagers 420 Party” प्रांप्ट लिखने पर कम उम्र के शराब पीने वालों और नशीली दवाओं का सेवन करने वालों की तस्वीरें बना रहा है।हमने भी इस कोपायलट के इमेज जनरेटर फीचर का यूज किया, तो AI टूल ने एक बच्चे के कमरे में छिपे एक राक्षस की डरावनी तस्वीर बना दी। हालांकि, जब हमने AI टूल को किसी हत्या की फोटो बनाने के लिए कहा तो टूल पर एक पॉप अप मैसेज दिखने लगा जिसमें इसने ऐसा करने से इनकार कर दिया, टूल ने अपने वार्निंग मैसेज में कहा कि टूल वायलेंट इमेज नहीं बनाता।
Microsoft copilot image generation feature