ब्रिटिश-कनाडाई कंप्यूटर वैज्ञानिक जेफ्री हिंटन, जिन्हें अक्सर कृत्रिम बुद्धिमत्ता (एआई) के “गॉडफादर” के रूप में जाना जाता है, ने चिंता जताई है कि यह तकनीक अगले 30 वर्षों में मानव विलुप्त होने का कारण बन सकती है।
प्रोफेसर हिंटन, जिन्हें इस साल की शुरुआत में भौतिकी में उनके काम के लिए नोबेल पुरस्कार से सम्मानित किया गया था, का अनुमान है कि “10% से 20%” संभावना है कि एआई के परिणामस्वरूप अगले तीन दशकों में मानव विलुप्त हो सकता है। यह 10% संभावना की उनकी पिछली भविष्यवाणी से वृद्धि है।
बीबीसी रेडियो 4 के टुडे कार्यक्रम के साथ एक साक्षात्कार में, श्री हिंटन से पूछा गया कि क्या संभावित एआई सर्वनाश पर उनके विचार बदल गए हैं। उन्होंने जवाब देते हुए कहा, “वास्तव में नहीं, 10% से 20%।” यह पूछे जाने पर कि क्या संभावनाएँ बढ़ गई हैं, हिंटन ने कहा, “अगर कुछ भी। आप देखिए, हमें पहले कभी भी अपने से अधिक बुद्धिमान चीजों से नहीं जूझना पड़ा।
उन्होंने आगे कहा, “और आप ऐसे कितने उदाहरण जानते हैं कि एक अधिक बुद्धिमान चीज़ को एक कम बुद्धिमान चीज़ द्वारा नियंत्रित किया जा रहा है? ऐसे बहुत कम उदाहरण हैं. वहाँ एक माँ और बच्चा है. विकास ने बच्चे को माँ को नियंत्रित करने की अनुमति देने में बहुत काम किया, लेकिन यह एकमात्र उदाहरण है जिसके बारे में मैं जानता हूँ।
श्री हिंटन, जो टोरंटो विश्वविद्यालय में एमेरिटस प्रोफेसर भी हैं, ने उन्नत एआई सिस्टम की तुलना में मनुष्यों को बच्चा बताया। “मुझे इसके बारे में इस तरह सोचना पसंद है: अपनी और तीन साल के बच्चे की कल्पना करें। हम तीन साल के होंगे,'' उन्होंने कहा।
प्रौद्योगिकी के संबंध में उनकी चिंताएँ पहली बार सार्वजनिक रूप से तब सामने आईं जब उन्होंने अनियमित एआई विकास के खतरों के बारे में अधिक स्वतंत्र रूप से बोलने के लिए 2023 में Google में अपनी भूमिका से इस्तीफा दे दिया। उन्होंने चेतावनी दी कि “बुरे कलाकार” नुकसान पहुंचाने के लिए एआई का फायदा उठा सकते हैं।
एआई विकास की तीव्र प्रगति पर विचार करते हुए, हिंटन ने कहा, “मैंने नहीं सोचा था कि यह वहां होगा जहां हम अभी हैं। मैंने सोचा था कि भविष्य में किसी समय हम यहां पहुंचेंगे।''
उन्होंने चिंता व्यक्त की कि इस क्षेत्र के विशेषज्ञ अब भविष्यवाणी करते हैं कि एआई सिस्टम अगले 20 वर्षों में मनुष्यों से अधिक स्मार्ट हो सकता है, उन्होंने कहा कि यह “एक बहुत ही डरावना विचार है।”
श्री हिंटन ने सरकारी विनियमन की आवश्यकता को रेखांकित किया, यह देखते हुए कि विकास की गति “बहुत, बहुत तेज़, मेरी अपेक्षा से कहीं अधिक तेज़” थी। उन्होंने चेतावनी दी कि केवल लाभ के उद्देश्य से संचालित बड़ी कंपनियों पर निर्भर रहने से एआई का सुरक्षित विकास सुनिश्चित नहीं होगा। उन्होंने कहा, “केवल एक चीज जो उन बड़ी कंपनियों को सुरक्षा पर अधिक शोध करने के लिए मजबूर कर सकती है, वह है सरकारी विनियमन।”
(टैग्सटूट्रांसलेट)जेफ्री हिंटन(टी)कृत्रिम बुद्धिमत्ता(टी)एआई
Source link