ओपनएआईअमेरिकी सांसदों के सवालों का जवाब देते हुए उन्होंने कहा कि यह सुनिश्चित करने के लिए समर्पित है कि इसकी ताकतवर ताकत बनी रहे। ऐ उपकरण नुकसान नहीं पहुंचाते हैं, और कर्मचारियों के पास सुरक्षा प्रथाओं के बारे में चिंता जताने के तरीके हैं।
स्टार्टअप ने सांसदों को सुरक्षा के प्रति अपनी प्रतिबद्धता का भरोसा दिलाने की कोशिश की, क्योंकि हवाई के डेमोक्रेट सीनेटर ब्रायन शेट्ज़ सहित पांच सीनेटरों ने मुख्य कार्यकारी अधिकारी को संबोधित एक पत्र में ओपनएआई की नीतियों पर सवाल उठाए थे। सैम ऑल्टमैन.
मुख्य रणनीति अधिकारी जेसन क्वोन ने बुधवार को सांसदों को लिखे एक पत्र में कहा, “हमारा मिशन यह सुनिश्चित करना है कि कृत्रिम बुद्धिमत्ता से समस्त मानवता को लाभ मिले, और हम अपनी प्रक्रिया के प्रत्येक चरण में कठोर सुरक्षा प्रोटोकॉल लागू करने के लिए समर्पित हैं।”
विशेष रूप से, ओपनएआई ने कहा कि वह कई वर्षों तक सुरक्षा-संबंधी अनुसंधान के लिए अपने कंप्यूटिंग संसाधनों का 20 प्रतिशत आवंटित करने के अपने वादे को पूरा करना जारी रखेगा। कंपनी ने अपने पत्र में यह भी वचन दिया कि वह आपसी गैर-असमानता समझौते के विशिष्ट मामलों को छोड़कर, वर्तमान और पूर्व कर्मचारियों के लिए गैर-असमानता समझौतों को लागू नहीं करेगी। कंपनी छोड़ने वाले कर्मचारियों पर ओपनएआई की पूर्व सीमाएँ असामान्य रूप से प्रतिबंधात्मक होने के कारण जांच के दायरे में आ गई हैं। ओपनएआई ने तब से कहा है कि उसने अपनी नीतियों में बदलाव किया है।
बाद में ऑल्टमैन ने सोशल मीडिया पर अपनी रणनीति के बारे में विस्तार से बताया।
उन्होंने एक्स पर लिखा, “हमारी टीम अमेरिकी एआई सेफ्टी इंस्टीट्यूट के साथ एक समझौते पर काम कर रही है, जिसके तहत हम अपने अगले फाउंडेशन मॉडल तक शीघ्र पहुंच उपलब्ध कराएंगे, ताकि हम एआई मूल्यांकन के विज्ञान को आगे बढ़ाने के लिए मिलकर काम कर सकें।”
ओपनएआई में सुरक्षा के बारे में कुछ त्वरित अपडेट:
जैसा कि हमने पिछले जुलाई में कहा था, हम पूरी कंपनी में सुरक्षा प्रयासों के लिए कम से कम 20% कंप्यूटिंग संसाधन आवंटित करने के लिए प्रतिबद्ध हैं।
हमारी टीम अमेरिकी एआई सुरक्षा संस्थान के साथ एक समझौते पर काम कर रही है, जिसके तहत हम…
— सैम ऑल्टमैन (@sama) 1 अगस्त, 2024
क्वोन ने अपने पत्र में हाल ही में गठित सुरक्षा समिति का भी हवाला दिया, जो वर्तमान में ओपनएआई की प्रक्रियाओं और नीतियों की समीक्षा कर रही है।
हाल के महीनों में, OpenAI को सुरक्षा के प्रति अपनी प्रतिबद्धता और कर्मचारियों द्वारा इस विषय पर बोलने की क्षमता को लेकर कई विवादों का सामना करना पड़ा है। इसके सुरक्षा-संबंधी टीमों के कई प्रमुख सदस्यों, जिनमें पूर्व सह-संस्थापक और मुख्य वैज्ञानिक इल्या सुत्सकेवर शामिल हैं, ने इस्तीफा दे दिया है, साथ ही कंपनी की टीम के एक अन्य नेता, जो दीर्घकालिक सुरक्षा जोखिमों का आकलन करने के लिए समर्पित हैं, जान लीके ने सार्वजनिक रूप से चिंता व्यक्त की कि कंपनी सुरक्षा पर उत्पाद विकास को प्राथमिकता दे रही है।
© 2024 ब्लूमबर्ग एल.पी.
(यह कहानी एनडीटीवी स्टाफ द्वारा संपादित नहीं की गई है और एक सिंडिकेटेड फीड से स्वतः उत्पन्न होती है।)