Элиезер Шломо Юдковски - американдық жасанды интеллект маманы, технологиялық сингулярлық мәселелерін зерттейді және Friendly AI құруды қолдайды. Ол бірнеше ғылыми-фантастикалық әңгімелердің авторы, онда когнитивтік ғылым мен парасаттылыққа қатысты кейбір тақырыптарды суреттейді.
Элиезер Юдковский: өмірбаяны
Элиезер Шломо Юдковский - заманауи Американың ең белсенді рационалистерінің бірі, компьютер зерттеушісі және «достық жасанды интеллект» идеясын насихаттаушы.
1979 жылы 11 қыркүйекте дүниеге келген. Оның кітаптарын шығаратын үкіметтік емес зерттеу ұйымы - машина интеллектін зерттеу институтының тең құрылтайшысы және зерттеушісі. Элиезер Юдковски - Гарри Поттер және рационализм әдістері атты философиялық романның авторы, ол Интернетте 2010-2015 жылдар аралығында бөліктермен жарияланған. Онда Гарри Оксфорд ғалымының отбасында өседі және Хогвартсқа барар алдында одан рационалдылық әдістерін үйренеді.
Біздің білуімізше, оның «алыпсатарлық реалистер» шеңберімен байланысы жоқ. Оның есімі Робин Хансонмен байланысты жиі аталады, бірнеше жыл бойы (2006 жылдан 2009 жылға дейін) олар Оксфордтағы адамзаттың болашағы институты қаржыландырған «Преюденттен шығу» блогының екі негізгі авторы болды.
Кейде Юдковскийдің аты Раймонд Курцвейлге байланысты естілуі мүмкін. Ол - техногик қауымдастығының философиялық өкілі, ол қол жетімді емес және түсініксіз, сондықтан гуманитарлық қоғамның көпшілігі үшін, олар алыпсатар реалистердің оқырмандары түгел дерлік тиесілі. Таңқаларлық емес, өйткені ол көбінесе формулалар мен кестелерді пайдаланып, қисынды-математикалық тілге, ықтималдық және статистикалық тұжырымдарға жүгінеді.
Ғылыми қызығушылықтар
Юдковски - жасанды интеллект үшін Singularity институтының (SIAI) тең құрылтайшысы және стипендиаты. Ол институттың дамуына үлкен үлес қосты. Ол «Достық интеллект құру» (2001) кітабының, «Жалпы интеллекттегі ұйым деңгейлері» (2002), «Келісілген экстраполяцияланған ерік-жігер» 2004) және «Шешімдердің уақытсыз теориясы» мақалаларының авторы. Оның соңғы ғылыми жарияланымдары Ник Бостромның редакциясымен шыққан «Жаһандық апат тәуекелдері» (2008 ж.) Атты екі мақала, атап айтқанда «Жасанды интеллект жаһандық тәуекелдің оң және теріс факторы» және «Ғаламдық тәуекелдерді бағалаудағы когнитивті жанасу». Юдковский жоғары оқу орындарында оқымаған және жасанды интеллект саласында ресми білімі жоқ автодидакт.
Юдковский өзін-өзі түсінуге, өзін-өзі өзгертуге және рекурсивті өзін-өзі жетілдіруге қабілетті жасанды интеллект құрылымдарын, сондай-ақ мотивацияның тұрақты және оң құрылымына ие болатын жасанды интеллект архитектураларын зерттейді (Достық жасанды интеллект). Юдковский өзінің ғылыми-зерттеу жұмыстарынан басқа, оқырмандардың кең ауқымына қол жетімді академиялық емес тілдегі күрделі модельдерді түсіндірумен де танымал, мысалы, оның Бэйес теоремасын интуитивті түсіндіру мақаласын қараңыз.
Юдковски, Робин Хансонмен бірге, «Өтірік жеңу» блогының негізгі авторларының бірі болды. 2009 жылдың басында ол «Адамның парасаттылығын дамытып, когнитивті алшақтықты жеңуге» бағытталған Less Wrong блогын құрды. Осыдан кейін «Bias-ны жеңу» Хансонның жеке блогына айналды. Осы блогтарда ұсынылған материалдар мыңдаған оқырмандарды қызықтырған почта тізбектерінде ұйымдастырылды - мысалы, «ойын-сауық теориясы» тарауын қараңыз.
Юдковский бірнеше ғылыми фантастикалық әңгімелердің авторы болып табылады, онда ол когнитивтік ғылым мен парасаттылыққа қатысты кейбір тақырыптарды суреттейді.
Мансап
- 2000 ж. Юдковски Singularity институтын құрды (кейінірек MIRI деп өзгертілді).
- 2006. Юдковски «Bias еңсеру» ұжымдық блогына қосылып, кейін «Шынжыр» атанған ән мәтіндерін жаза бастайды.
- 2009 ж. Юдковскийдің «Өтірікті жеңу» туралы жазбалары негізінде әйгілі LessWrong.com ұжымдық блогы құрылды.
- 2010-2015. Юдковский GPiMRM жазады.
- 2013. Юдковски LessWrong.com сайтындағы соңғы жазбаларын жариялайды және сайтқа жазуды тоқтатады. 2017 жылғы жағдай бойынша, Юдковски көпшілікке қол жетімді мәтіндердің көпшілігін Facebook және Arbital-да жариялайды
Ой эксперименті
Виртуалды әлемде қамтылған керемет интеллектуалды жасанды супер интеллектті елестетіп көріңізші - жай ғана мұрын қорабы. Сіз ол кекшіл, мейірімді немесе бейтарап болатынын білмейсіз. Сіз оның тек мұрыннан шығуды қалайтынын және сіз онымен мәтіндік интерфейс арқылы қарым-қатынас жасай алатындығыңызды білесіз. Егер жасанды интеллект шынымен суперинтеллект болса, сіз онымен бес сағат сөйлесіп, оның сендіруіне және манипуляцияларына мойынсұнбай - мұрын қорабын ашпауға бола ма?
Бұл экспериментті Элиезер Юдковски, машина жасау ғылыми-зерттеу институтының (MIRI) ғылыми қызметкері ұсынды. MIRI-де жасанды суперинтеллекттің даму қаупін зерттейтін көптеген ғалымдар бар; ол әлі пайда болмағанымен, ол қазірдің өзінде назар аударып, пікірталастарды қыздыруда.
Юдковский жасанды супер интеллект сізді сендіру үшін не десе де болады деп айтады: мұқият пайымдау, қоқан-лоққы, алдау, байланыс құру, санадан тыс ұсыныс және т.б. Жарық жылдамдығымен жасанды интеллект оқиға желісін құрастырады, әлсіз жақтарын анықтайды және сендірудің ең оңай жолын анықтайды. Экзистенциалды қауіп-қатер туралы теоретик Ник Бостром айтқандай, «біз суперинтеллект ойлағанына жете аламыз деп ойлауымыз керек».
Қысқыш қораптағы жасанды интеллект эксперименті біз жасай алатын нәрсені басқаруға күмән тудырады. Сондай-ақ, бұл бізді өзіміздің шындық туралы білмейтін нәрселердің біршама таңқаларлық мүмкіндіктерін тұжырымдап алуға мәжбүр етеді.
Орыс тіліндегі мақалалар
Е. Юдковский. Дүниежүзілік тәуекелдерді бағалауға әсер ететін ойлау жүйесіндегі қателіктер. Е. Юдковский. Жасанды интеллект жаһандық тәуекелдің жағымды және жағымсыз факторы ретінде. Е. Юдковский. Жалғыздыққа қарау. Е. Юдковский. Түсінікті қателіктер кестесі. Е. Юдковский. Даралықтың үш мектебі. Е. Юдковский. Әмбебап интеллекттің деңгейлері.