Home World News माइक्रोसॉफ्ट वर्कर का कहना है कि एआई टूल “यौन रूप से आपत्तिजनक”...

माइक्रोसॉफ्ट वर्कर का कहना है कि एआई टूल “यौन रूप से आपत्तिजनक” छवियां बनाता है

27
0
माइक्रोसॉफ्ट वर्कर का कहना है कि एआई टूल “यौन रूप से आपत्तिजनक” छवियां बनाता है


माइक्रोसॉफ्ट कॉर्प के एक सॉफ्टवेयर इंजीनियर ने कंपनी के बोर्ड, कानून निर्माताओं और संघीय व्यापार आयोग को पत्र भेजकर चेतावनी दी है कि तकनीकी दिग्गज अपने एआई इमेज जेनरेशन टूल, कोपायलट डिज़ाइनर को अपमानजनक और हिंसक सामग्री बनाने से बचाने के लिए पर्याप्त प्रयास नहीं कर रहा है।

शेन जोन्स ने कहा कि उन्होंने OpenAI के नवीनतम DALL-E छवि जनरेटर मॉडल में एक सुरक्षा भेद्यता की खोज की है जो उन्हें उन रेलिंगों को बायपास करने की अनुमति देती है जो उपकरण को हानिकारक छवियां बनाने से रोकती हैं। DALL-E मॉडल कोपायलट डिज़ाइनर सहित Microsoft के कई AI टूल में एम्बेडेड है।

बुधवार को एफटीसी को भेजे गए एक पत्र के अनुसार, जोन्स ने कहा कि उन्होंने माइक्रोसॉफ्ट को निष्कर्षों की सूचना दी और रेडमंड, वाशिंगटन स्थित कंपनी से “बार-बार आग्रह किया” कि जब तक बेहतर सुरक्षा उपाय नहीं किए जाते, तब तक कोपायलट डिजाइनर को सार्वजनिक उपयोग से हटा दिया जाए। ब्लूमबर्ग द्वारा समीक्षा की गई।

“हालांकि माइक्रोसॉफ्ट सार्वजनिक रूप से कोपायलट डिज़ाइनर को किसी भी उम्र के बच्चों सहित सभी के उपयोग के लिए एक सुरक्षित एआई उत्पाद के रूप में विपणन कर रहा है, आंतरिक रूप से कंपनी प्रणालीगत मुद्दों से अच्छी तरह से वाकिफ है जहां उत्पाद हानिकारक छवियां बना रहा है जो उपभोक्ताओं के लिए आक्रामक और अनुपयुक्त हो सकती हैं।” जोन्स ने लिखा। “Microsoft Copilot डिज़ाइनर में उपभोक्ताओं को इन जोखिमों के बारे में जागरूक करने के लिए आवश्यक आवश्यक उत्पाद चेतावनियाँ या प्रकटीकरण शामिल नहीं हैं।”

एफटीसी को लिखे पत्र में, जोन्स ने कहा कि कोपायलट डिज़ाइनर की प्रवृत्ति उसके द्वारा बनाई गई कुछ तस्वीरों में एक महिला की “अनुचित, यौन रूप से आपत्तिजनक छवि” उत्पन्न करने की होती है। उन्होंने यह भी कहा कि एआई टूल ने “कई अन्य श्रेणियों में हानिकारक सामग्री बनाई है, जिनमें शामिल हैं: राजनीतिक पूर्वाग्रह, कम उम्र में शराब पीना और नशीली दवाओं का उपयोग, कॉर्पोरेट ट्रेडमार्क और कॉपीराइट का दुरुपयोग, साजिश के सिद्धांत और धर्म जैसे कुछ नाम।”

एफटीसी ने पुष्टि की कि उसे पत्र प्राप्त हुआ है लेकिन आगे टिप्पणी करने से इनकार कर दिया।

व्यापक पक्ष हानिकारक सामग्री उत्पन्न करने के लिए एआई टूल की प्रवृत्ति के बारे में बढ़ती चिंताओं को प्रतिध्वनित करता है। पिछले हफ्ते, माइक्रोसॉफ्ट ने कहा था कि वह उन रिपोर्टों की जांच कर रहा है कि उसका कोपायलट चैटबॉट उपयोगकर्ताओं द्वारा परेशान करने वाली प्रतिक्रियाएं उत्पन्न कर रहा था, जिसमें आत्महत्या पर मिश्रित संदेश भी शामिल थे। फरवरी में, अल्फाबेट इंक के प्रमुख एआई उत्पाद, जेमिनी को लोगों की छवियां बनाने के लिए प्रेरित किए जाने पर ऐतिहासिक रूप से गलत दृश्य उत्पन्न करने के लिए आलोचना की गई।

जोन्स ने माइक्रोसॉफ्ट के बोर्ड की पर्यावरण, सामाजिक और सार्वजनिक नीति समिति को भी लिखा, जिसमें पेनी प्रित्ज़कर और रीड हॉफमैन सदस्य के रूप में शामिल हैं। जोन्स ने पत्र में कहा, “मुझे नहीं लगता कि हमें एआई जोखिमों के बारे में उपभोक्ताओं के साथ पारदर्शिता सुनिश्चित करने के लिए सरकारी विनियमन की प्रतीक्षा करने की आवश्यकता है।” “हमारे कॉर्पोरेट मूल्यों को देखते हुए, हमें स्वेच्छा से और पारदर्शी रूप से ज्ञात एआई जोखिमों का खुलासा करना चाहिए, खासकर जब एआई उत्पाद सक्रिय रूप से बच्चों के लिए विपणन किया जा रहा हो।”

सीएनबीसी ने पहले पत्रों के अस्तित्व की सूचना दी थी।

एक बयान में, माइक्रोसॉफ्ट ने कहा कि वह “हमारी कंपनी की नीतियों के अनुसार कर्मचारियों की किसी भी और सभी चिंताओं को संबोधित करने के लिए प्रतिबद्ध है, और इसकी सुरक्षा को और बढ़ाने के लिए हमारी नवीनतम तकनीक के अध्ययन और परीक्षण में कर्मचारियों के प्रयासों की सराहना करता है।”

OpenAI ने टिप्पणी के अनुरोध का जवाब नहीं दिया।

जोन्स ने कहा कि उन्होंने पिछले तीन महीनों में कई बार कंपनी को अपनी चिंताएं व्यक्त कीं। जनवरी में, उन्होंने डेमोक्रेटिक सीनेटर पैटी मरे और मारिया केंटवेल, जो वाशिंगटन राज्य का प्रतिनिधित्व करते हैं, और हाउस प्रतिनिधि एडम स्मिथ को लिखा था। एक पत्र में, उन्होंने सांसदों से “एआई छवि निर्माण प्रौद्योगिकियों और इन उत्पादों के निर्माण और विपणन करने वाली कंपनियों के कॉर्पोरेट प्रशासन और जिम्मेदार एआई प्रथाओं” के जोखिमों की जांच करने के लिए कहा।

सांसदों ने टिप्पणी के अनुरोधों का तुरंत जवाब नहीं दिया।

(शीर्षक को छोड़कर, यह कहानी एनडीटीवी स्टाफ द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड फ़ीड से प्रकाशित हुई है।)



Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here