एडभान्स एआई मानवताको लागि खतराः इलन मस्क

र्टफिसिएल इन्टिलिजेन्सका प्रमुख व्यक्तिहरुले शक्तिशाली एआई सिस्टमहरुको प्रशिक्षण मानवताकालाई खतरा हुने भन्दै त्यसलाई निलम्बन गर्न चाहन्छन्।

उनीहरूले सम्भावित जोखिमहरूको चेतावनीमा खुला पत्रमा हस्ताक्षर गरेका छन्, र एआई सिस्टमहरु विकास गर्ने दौड नियन्त्रण बाहिर छ।

ट्विटरका सीईओ इलन मस्क एक निश्चित क्षमता भन्दा माथिको एआईको प्रशिक्षण कम्तिमा ६ महिनाको लागि रोक्न चाहनेहरु मध्ये एक भएको बीबीसीले उल्लेख गरेको छ।

एप्पलका सह–संस्थापक स्टीव वोज्नियाक र डिपमान्डका केही अनुसन्धानकर्ताहरूले पनि उक्त पत्रमा हस्ताक्षर गरेका छन्।

च्याटजीपीटी निर्माता ओपनएआईले भर्खरै जीपीटी–४ जारी गरेको छ। यो एक अत्याधुनिक प्रविधि, जसले इमेजरूमा वस्तुहरूको बारेमा प्रश्नहरूको जवाफ दिने जस्ता कार्यहरू गर्ने क्षमताले प्रभावित गरेको छ।

फ्यूचर अफ लाइफ इन्स्टिच्युटबाट र प्रकाशकद्वारा हस्ताक्षर गरिएको उक्त पत्रले भविष्यमा थप उन्नत सिस्टमले निम्त्याउन सक्ने जोखिमहरूको चेतावनी दिँदै त्यो स्तरमा विकासलाई अस्थायी रूपमा रोक्न चाहन्छ।

‘मानव–प्रतिस्पर्धी इन्टिलिजेन्स भएको एआई सिस्टमले समाज र मानवताको लागि गहिरो जोखिम निम्त्याउन सक्छ,’ पत्रमा भनिएको छ।

फ्युचर अफ लाइफ इन्स्टिच्युट एक गैर–लाभकारी संस्था हो, र, यसको मिशन भनेको ‘परिवर्तनकारी प्रविधिहरूलाई चरम, ठूला–ठूला जोखिमहरूबाट टाढा र जीवनलाई लाभदायी बनाउने दिशामा अघि बढाउने हो।’

मस्क संगठनको बाह्य सल्लाहकारको रूपमा सूचीबद्ध छन्।

उन्नत एआई सावधानीपूर्वक विकास गर्न आवश्यक छ, पत्रमा भनिएको छ, तर यसको सट्टा, “हालैका महिनाहरूले एआई ल्याबहरू नियन्त्रण बाहिरको दौडमा बन्द भएका छन् र अझ शक्तिशाली डिजिटल दिमागहरू विकास गर्न र तैनात गर्न सकियो जुन कसैले पनि हैन– उनको निर्माता पनि हैन– बुझ्न सक्छन्, भविष्यवाण्ी गर्न सक्छन् वा भरपर्दो नियन्त्रण गर्न सक्छ।’

पत्रमा चेतावनी दिएको छ कि एआईले सूचना च्यानलहरु गलत स्रचनाबाट भर्न सक्छ र स्वचालनले कामहरू प्रतिस्थापन गर्न सक्छ।

पत्रले इनभेष्टमेन्ट बैंक गोल्डम्यान साक्सको हालैको रिपोर्टलाई पछ्याएको छ जसमा एआईले उत्पादकता बढाउने सम्भावना रहेको भए पनि लाखौं रोजगारीहरू स्वचालित हुन सक्छन्।

यद्यपि, अन्य विज्ञहरूले बीबीसीलाई भने कि श्रम बजारमा एआईको प्रभावको अनुमान गर्न धेरै गाह्रो छ।

बहिष्कृत और अप्रचलित

थप अनुमानका साथ, पत्रले सोध्छः ‘के हामीले गैर–मानव दिमागहरू विकास गर्नुपर्छ जुन अन्ततः संख्या भन्दा बढी, आउटस्मार्ट, अप्रचलित (एसआईसी) र हामीलाई प्रतिस्थापन गर्न सक्छ?’

पत्रमा उद्धृत गरिएको भर्खरको ब्लग पोष्टमा, ओपनएआईले जोखिमको चेतावनी दियो यदि आर्टिफिसिएल जेनरल इन्टिलिजेन्स(एजीआई) लापरवाहीपूर्वक विकसित गरिएमाः ‘एक गलत तरिकाबाट तयार गरिएको सुपरइन्टेलिजेन्ट एजीआईले विश्वलाई गम्भीर हानि पुर्‍याउन सक्छ; निर्णायक सुपरइन्टेलिजेन्स नेतृत्व भएको निरंकुश शासनले गर्न सक्ने पनि गर्छ।

‘महत्वपूर्ण चरणहरूमा सुस्त बनाउन एजीआई प्रयासहरू बीचको समन्वय सम्भवतः महत्वपूर्ण हुनेछ,’ फर्मले लेख्यो।

मस्क ओपनएआईका सह–संस्थापक थिए – यद्यपि उनले केही वर्ष पहिले संगठनको बोर्डबाट राजीनामा दिइसकेका छन्। यसको वर्तमान दिशाको बारेमा आलोचनात्मक ट्वीट गरेका थिए।

उसको कार कम्पनी टेस्लाले बनाएको स्वायत्त ड्राइभिङ कार्यहरू, धेरै समान प्रणालीहरू जस्तै, एआई प्रविधि प्रयोग गर्दछ।

पत्रमा एआई ल्याबहरूलाई ‘जीपीटी–४ भन्दा शक्तिशाली एआई प्रणालीहरूको प्रशिक्षण कम्तिमा छ महिनाको लागि तुरुन्त रोक्न’ भनिएको छ।

यदि यस्तो ढिलाइ तुरुन्तै लागू गर्न सकिँदैन भने, सरकारहरूले कदम चाल्नुपर्छ र मोरेटोरियम स्थापना गर्नुपर्छ, पत्रमा भनिएको छ।

‘एआईलाई समर्पित नयाँ र सक्षम नियामक अधिकारीहरू’ पनि आवश्यक हुनेछ। हालै अमेरिका, बेलायत र ईयूमा प्रविधिको नियमनका लागि धेरै प्रस्ताव अघि बढाइएको छ । यद्यपि, बेलायतले एआईका लागि समर्पित नियामकलाई अस्वीकार गरेको छ ।