Eliezer Shlomo Yudkovsky je americký špecialista na umelú inteligenciu, ktorý študuje problémy technologickej jedinečnosti a obhajuje vytvorenie Friendly AI. Je autorom niekoľkých príbehov sci-fi, v ktorých ilustruje niektoré témy týkajúce sa kognitívnej vedy a racionality.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Eliezer Yudkowski: životopis
Eliezer Shlomo Yudkovsky je jedným z najaktívnejších racionalistov modernej Ameriky, počítačový výskumník a popularizátor myšlienky „priateľskej umelej inteligencie“.
Narodený 11. septembra 1979. Spoluzakladateľ a výskumný pracovník v mimovládnej výskumnej organizácii Institute for Research on Machine Intelligence, ktorá vydáva jeho knihy. Eliezer Yudkovsky je autorom filozofického románu Harry Potter a metódy racionalizmu, ktorý bol v rokoch 2010 až 2015 uverejnený v častiach na internete. V tom vyrastá Harry v rodine vedcov z Oxfordu a pred cestou do Rokfortu sa od neho učí metódam racionálneho myslenia.
Pokiaľ je známe, nemá žiadnu súvislosť s kruhom „špekulatívnych realistov“. Jeho meno sa často spomína v súvislosti s Robinom Hansonom, už niekoľko rokov (od roku 2006 do roku 2009) boli dvomi hlavnými autormi blogu „Prekonanie predsudkov“, ktorý existoval na peniazoch Inštitútu pre budúcu humanitu v Oxforde.
Meno Yudkovsky sa niekedy dá počuť v súvislosti s Raymondom Kurzweilom. Je filozofizujúcim zástupcom komunity technikov, neprístupných a nepochopiteľných pre väčšinu humanitárnej verejnosti, do ktorej patria takmer všetci čitatelia špekulatívnych realistov. To nie je prekvapujúce, pretože sa často obracia k logickému a matematickému jazyku, pravdepodobnostným a štatistickým záverom, vystaveným pomocou vzorcov a tabuliek.
Vedecké záujmy
Yudkovsky je spoluzakladateľom a výskumníkom Inštitútu Singularity Institute for Artificial Intelligence Institute (SIAI). Veľkou mierou prispel k rozvoju inštitútu. Je autorom knihy „Vytvorenie priateľskej inteligencie“ (2001), článkov „Úrovne organizácie vo všeobecnej inteligencii“ (2002), „Koherentná extrapolovaná voľba“ („Koherentná extrapolovaná voľba“), 2004) a The Timeless Decision Theory (2010). Jeho najnovšie vedecké publikácie sú dva články v zbierke „Riziká globálnej katastrofy“ (2008) vydanej Nickom Bostromom, konkrétne „Umelá inteligencia ako pozitívny a negatívny globálny rizikový faktor“ a „Kognitívne narušenie pri posudzovaní globálnych rizík“. Yudkovsky neštudoval na vysokých školách a je autodidaktom bez formálneho vzdelania v oblasti AI.
Yudkovsky skúma návrhy AI, ktoré sú schopné sebapochopenia, sebapravenia a rekurzívneho sebazlepšenia (Seed AI), ako aj architektúry AI, ktoré budú mať stabilnú a pozitívnu motivačnú štruktúru (Friendly Artificial Intelligence). Yudkovsky je okrem svojej výskumnej činnosti známy aj pre vysvetlenia komplexných modelov v neuniverzitnom jazyku, ktoré sú prístupné širokému okruhu čitateľov, pozri aj článok „Intuitívne vysvetlenie Bayesovej vety“.
Yudkovsky bol spolu s Robinom Hansonom jedným z hlavných autorov blogu Overcoming Bias (prekonanie predsudkov). Začiatkom roku 2009 sa podieľal na organizácii blogu Menej zlé, ktorý bol zameraný na „rozvoj ľudskej racionality a prekonanie kognitívnych deformácií“. Po tom, Overcoming Bias sa stal Hansonovým osobným blogom. Materiál prezentovaný na týchto blogoch bol organizovaný ako reťaze príspevkov, ktoré prilákali tisíce čitateľov - pozri napríklad reťazec teórie zábavy.
Yudkovsky je autorom niekoľkých príbehov sci-fi, v ktorých ilustruje niektoré témy týkajúce sa kognitívnej vedy a racionality.
kariéra
- 2000. Yudkovsky zakladá Inštitút singularity Institute (neskôr premenovaný na MIRI).
- 2006. Yudkovsky sa pripojil ku kolektívnemu blogu Overcoming Bias a začal písať texty, ktoré sa neskôr stali Chains.
- 2009. Na základe záznamov Yudkovského o Prekonávaní zaujatosti sa vytvára slávny kolektívny blog LessWrong.com.
- 2010-2015. Yudkovsky píše GPiMRM.
- 2013. Yudkovsky uverejňuje najnovšie príspevky na webe LessWrong.com a prestáva písať na webe. Od roku 2017 publikuje Yudkovsky väčšinu verejne dostupných textov na Facebooku a Arbitalu
Myšlienkový experiment
Predstavte si neuveriteľne inteligentnú umelú superinteligenciu uzamknutú vo virtuálnom svete - povedzme len v šnupavom tabaku. Nevieš, či bude stredný, priateľský alebo neutrálny. Všetko, čo viete, je, že sa chce dostať von z krabice a že s ním môžete komunikovať prostredníctvom textového rozhrania. Ak je AI skutočne superinteligentný, môžete s ním hovoriť päť hodín a nepodľahnúť jeho presvedčeniu a manipulácii - neotvoriť šnupavý tabak?
Tento myšlienkový experiment navrhol Eliezer Yudkowsky, výskumný pracovník Inžinierskeho výskumného ústavu inžinierstva (MIRI). MIRI má veľa vedcov, ktorí skúmajú riziká rozvoja umelej superinteligencie; hoci sa to ešte ešte neobjavilo, už to priťahuje pozornosť a podnecuje diskusiu.
Yudkovsky tvrdí, že umelá superinteligencia môže povedať všetko, čo vás môže presvedčiť: starostlivé zdôvodnenie, hrozby, podvod, budovanie vzťahu, podvedomé návrhy atď. Pri rýchlosti svetla AI vytvára pozemok, zisťuje slabiny a určuje, ako je najľahšie presvedčiť vás. Ako uviedol teoretik existenčnej hrozby Nick Bostrom, „musíme veriť, že superinteligencia môže dosiahnuť všetko, čo si stanovila ako svoj cieľ.“
Experiment AI snuffbox AI spochybňuje našu schopnosť kontrolovať, čo by sme mohli vytvoriť. Prináša nám tiež pochopiť dosť bizarné možnosti toho, čo nevieme o našej vlastnej realite.