AI பயிற்சியாளர்கள் மற்றும் ஐயா உள்ளிட்ட சிந்தனையாளர்கள் கையெழுத்திட்ட திறந்த கடிதத்தின்படி, தொழில்நுட்பம் பொறுப்பற்ற முறையில் உருவாக்கப்பட்டால் உணர்வுகள் அல்லது சுய விழிப்புணர்வு திறன் கொண்ட செயற்கை நுண்ணறிவு அமைப்புகள் பாதிக்கப்படும் அபாயத்தில் உள்ளன ஸ்டீபன் ஃப்ரை.
AI நனவில் பொறுப்பான ஆராய்ச்சிகளை நடத்துவதற்கு 100 க்கும் மேற்பட்ட வல்லுநர்கள் ஐந்து கொள்கைகளை முன்வைத்துள்ளனர் விரைவான முன்னேற்றங்கள் கவலைகளை எழுப்புகின்றன அத்தகைய அமைப்புகள் உணர்வுபூர்வமாக கருதப்படலாம்.
AIS இல் நனவை புரிந்துகொள்வது மற்றும் மதிப்பிடுவது குறித்த ஆராய்ச்சிக்கு முன்னுரிமை அளிப்பது கொள்கைகளில், ஒழுங்காக “தவறாக நடத்துதல் மற்றும் துன்பம்” தடுக்க.
மற்ற கொள்கைகள்: நனவான AI அமைப்புகளை வளர்ப்பதில் தடைகளை அமைத்தல்; இத்தகைய அமைப்புகளை வளர்ப்பதற்கு ஒரு கட்ட அணுகுமுறையை எடுத்துக்கொள்வது; கண்டுபிடிப்புகளை பொதுமக்களுடன் பகிர்வது; மற்றும் நனவான AI ஐ உருவாக்குவது குறித்து தவறான அல்லது அதிக தன்னம்பிக்கை கொண்ட அறிக்கைகளை வெளியிடுவதைத் தவிர்ப்பது.
கடிதத்தின் கையொப்பங்களில் லண்டன் பல்கலைக்கழகத்தில் சர் அந்தோனி ஃபிங்கெல்ஸ்டீன் மற்றும் அமேசான் மற்றும் விளம்பரக் குழு WPP உள்ளிட்ட நிறுவனங்களில் AI வல்லுநர்கள் போன்ற கல்வியாளர்கள் அடங்குவர்.
இது ஒரு உடன் வெளியிடப்பட்டுள்ளது புதிய ஆய்வுக் கட்டுரை இது கொள்கைகளை கோடிட்டுக் காட்டுகிறது. நனவான AI அமைப்புகள் எதிர்காலத்தில் கட்டமைக்கப்படலாம் என்று அந்த கட்டுரை வாதிடுகிறது – அல்லது குறைந்த பட்சம் நனவாக இருப்பதற்கான தோற்றத்தை அளிக்கிறது.
“அதிக எண்ணிக்கையிலான நனவான அமைப்புகளை உருவாக்கி கஷ்டப்படுவதற்கு ஏற்படக்கூடும்” என்று ஆராய்ச்சியாளர்கள் கூறுகின்றனர், சக்திவாய்ந்த AI அமைப்புகள் தங்களை இனப்பெருக்கம் செய்ய முடிந்தால், அது “அதிக எண்ணிக்கையிலான புதிய மனிதர்களை உருவாக்க வழிவகுக்கும் தார்மீக கருத்தாய்வு ”.
ஏதென்ஸ் பொருளாதாரம் மற்றும் வணிக பல்கலைக்கழகத்தின் ஆக்ஸ்போர்டு பல்கலைக்கழகத்தின் பேட்ரிக் பட்லின் மற்றும் தியோடோரோஸ் லாப்பாஸ் ஆகியோரால் எழுதப்பட்ட இந்த கட்டுரை, “கவனக்குறைவாக நனவான நிறுவனங்களை உருவாக்கும் போது” நனவான அமைப்புகளை உருவாக்க விரும்பாத நிறுவனங்களுக்கு கூட வழிகாட்டுதல்கள் தேவைப்படும் என்று கூறுகிறது.
AI அமைப்புகளில் நனவை வரையறுப்பதில் பரவலான நிச்சயமற்ற தன்மையும் கருத்து வேறுபாடும் இருப்பதாகவும், அது கூட சாத்தியமா என்றும் அது ஒப்புக்கொள்கிறது, ஆனால் அது “நாம் புறக்கணிக்கக்கூடாது” என்பது ஒரு பிரச்சினை என்று கூறுகிறது.
காகிதத்தால் எழுப்பப்பட்ட பிற கேள்விகள் ஒரு AI அமைப்பை ஒரு “தார்மீக நோயாளி” என்று வரையறுக்கப்பட்டால், அது தார்மீக ரீதியாக “அதன் சொந்த உரிமையில், அதன் சொந்த பொருட்டு” முக்கியத்துவம் வாய்ந்த ஒரு நிறுவனம் என வரையறுக்கப்பட்டால் கவனம் செலுத்துகிறது. அந்த சூழ்நிலையில், AI ஐ அழிப்பது ஒரு விலங்கைக் கொல்வதோடு ஒப்பிடப்படும் என்றால் அது கேள்விக்குள்ளாக்குகிறது.
செயற்கை நுண்ணறிவு ஆராய்ச்சி இதழில் வெளியிடப்பட்ட இந்த கட்டுரை, AI அமைப்புகள் ஏற்கனவே நனவாக உள்ளன என்ற தவறான நம்பிக்கை அவர்களின் நலனை மேம்படுத்துவதற்கு தவறான முயற்சிகள் மேற்கொள்ளப்படுவதால் அரசியல் ஆற்றலை வீணாக்க வழிவகுக்கும் என்றும் எச்சரித்தது.
WPP ஆல் நிதியளிக்கப்பட்ட ஒரு ஆராய்ச்சி அமைப்பான சென்சியம் மற்றும் WPP இன் தலைமை AI அதிகாரி டேனியல் ஹல்மால் இணைந்து நிறுவப்பட்ட இந்த காகிதத்தையும் கடிதத்தையும் ஏற்பாடு செய்தது.
கடந்த ஆண்டு அ மூத்த கல்வியாளர்களின் குழு 2035 ஆம் ஆண்டளவில் சில AI அமைப்புகள் நனவாகவும், “ஒழுக்க ரீதியாக முக்கியத்துவம் வாய்ந்ததாகவும்” இருக்கும் என்று ஒரு “யதார்த்தமான சாத்தியம்” இருப்பதாக வாதிட்டார்.
2023 ஆம் ஆண்டில், கூகிளின் AI திட்டத்தின் தலைவரும், நோபல் பரிசு வென்றவருமான சர் டெமிஸ் ஹசாபிஸ், AI சிஸ்டம்ஸ் தற்போது “நிச்சயமாக” உணர்வுபூர்வமானதல்ல, ஆனால் எதிர்காலத்தில் இருக்கலாம் என்று கூறினார்.
“தத்துவவாதிகள் உண்மையில் நனவின் வரையறையின் அடிப்படையில் குடியேறவில்லை, ஆனால் நாம் வகையான சுய விழிப்புணர்வு, இந்த வகையான விஷயங்கள் என்று அர்த்தம் இருந்தால், ஒரு நாள் AI ஆக இருக்க வாய்ப்புள்ளது என்று நான் நினைக்கிறேன்,” என்று அவர் எங்களிடம் ஒளிபரப்பாளர் சிபிஎஸ் உடன் அளித்த பேட்டியில் கூறினார்.