Eliezer Shlomo Yudkovsky е американски специалист по изкуствен интелект, който изучава проблемите на технологичната особеност и се застъпва за създаването на Friendly AI. Автор е на няколко истории за научна фантастика, в които илюстрира някои теми, свързани с когнитивната наука и рационалността.
![Image Image](https://images.culturehatti.com/img/kultura-i-obshestvo/75/eliezer-yudkovski-biografiya-tvorchestvo-karera-lichnaya-zhizn.jpg)
Елиезер Юдковски: биография
Елиезер Шломо Юдковски е един от най-активните рационалисти на съвременна Америка, компютърен изследовател и популяризатор на идеята за "приятелски изкуствен интелект".
Роден на 11 септември 1979 г. Съосновател и изследовател на неправителствената изследователска организация Институт за изследвания на машинния интелект, която публикува книгите си. Елиезер Юдковски е автор на философския роман „Хари Потър и методите на рационализма“, публикуван на части в Интернет между 2010 и 2015 г. В него Хари израства в семейството на оксфордски учен и преди да пътува до Хогвартс, научава от него методите на рационалното мислене.
Доколкото е известно, тя няма връзка с кръга от „спекулативни реалисти“. Името му често се споменава във връзка с Робин Хансън, тъй като в продължение на няколко години (от 2006 г. до 2009 г.) те бяха двамата основни автори на блога „Преодоляване на предразсъдъците“, който съществуваше на парите на Института за бъдещо човечество в Оксфорд.
Понякога името на Юдковски може да се чуе във връзка с Реймънд Курцвайл. Той е философствуващ представител на общността на техногените, недостъпни и неразбираеми, като по този начин за по-голямата част от хуманитарната общественост, към която принадлежат почти всички читатели на спекулативни реалисти. Не е изненадващо, защото той често се обръща към логическия и математически език, вероятностни и статистически изводи, изложени с помощта на формули и таблици.
Научни интереси
Юдковски е съосновател и изследовател в Института за сингулярност за Институт за изкуствен интелект (SIAI). Той направи голям принос за развитието на института. Той е автор на книгата "Създаване на приятелски AI" (2001), статии "Нива на организация в общото разузнаване" (2002), "Кохерентна екстраполирана воля" ("Кохерентна екстраполирана воля", 2004) и Теорията на безвременното решение (2010). Последните му научни публикации са две статии в сборника „Рискове от глобална катастрофа“ (2008), редактиран от Ник Бостром, а именно „Изкуственият интелект като положителен и отрицателен глобален фактор на риска“ и „Когнитивно изкривяване при оценка на глобалните рискове“. Юдковски не е учил в университети и е автодидакт без официално образование в областта на AI.
Юдковски изследва проектите на AI, които са способни на саморазбиране, самоизменяне и рекурсивно самоусъвършенстване (Seed AI), както и AI архитектури, които ще имат стабилна и положителна структура на мотивация (Friendly Artificial Intelligence). В допълнение към своята изследователска работа Юдковски е известен с обясненията си на сложни модели на неакадемичен език, достъпен за широк кръг читатели, например вижте статията му „Интуитивно обяснение на теоремата на Байес“.
Юдковски, заедно с Робин Хансън, беше един от основните автори на блога "Преодоляване на пристрастието" (преодоляване на предразсъдъците). В началото на 2009 г. той участва в организацията на блога Less Wrong, насочен към „развиване на човешката рационалност и преодоляване на когнитивните изкривявания“. След това Преодоляването на пристрастието се превръща в личен блог на Хансън. Материалите, представени в тези блогове, бяха организирани като вериги от публикации, които привличаха хиляди читатели - вижте например веригата на теорията на развлеченията.
Юдковски е автор на няколко истории за научна фантастика, в които илюстрира някои теми, свързани с когнитивната наука и рационалността.
кариера
- 2000. Юдковски основава Института за сингулярност (по-късно преименуван на MIRI).
- 2006. Юдковски се присъединява към блога за преодоляване на пристрастието и започва да пише текстове, които по-късно стават вериги.
- 2009. Въз основа на записите на Юдковски за Преодоляване на пристрастия се създава известният колективен блог LessWrong.com.
- 2010-2015. Юдковски пише GPiMRM.
- 2013. Юдковски публикува последните публикации в LessWrong.com и спира да пише на сайта. От 2017 г. Юдковски публикува повечето от публично достъпните текстове във Facebook и Arbital
Мисловен експеримент
Представете си невероятно интелигентна изкуствена суперинтелигентност, затворена във виртуален свят - да речем, просто в табакер. Не знаете дали той ще бъде подъл, приятелски настроен или неутрален. Всичко, което знаете е, че той иска да излезе от кутията и че можете да взаимодействате с него чрез текстов интерфейс. Ако AI е наистина суперинтелигентен, можете ли да говорите с него в продължение на пет часа и да не се поддадете на неговото убеждаване и манипулация - да не отворите snuffbox?
Този мисловен експеримент беше предложен от Eliezer Yudkowsky, изследовател от Инженерния институт за инженерни изследвания (MIRI). MIRI има много учени, които изследват рисковете от развитие на изкуствено свръх разузнаване; въпреки че още не се е появил, той вече привлича вниманието и подхранва дебат.
Юдковски твърди, че изкуственият свръх интелект може да каже всичко възможно, за да ви убеди: внимателно разсъждение, заплахи, измама, изграждане на рапорт, подсъзнателно внушение и така нататък. Със скоростта на светлината ИИ изгражда заговор, проучва слабостите и определя как е най-лесно да ви убедите. Както заяви теоретикът за екзистенциалната заплаха Ник Бостром, "трябва да вярваме, че свръх разузнаването може да постигне всичко, което си поставя като своя цел".
AI експериментът snuffbox поставя под съмнение способността ни да контролираме какво можем да създадем. Освен това ни кара да проумеем доста причудливите възможности на онова, което не знаем за собствената си реалност.