ПОСЛУГИ ПРОФЕСІЙНОГО ДИЗАЙНУ
ДРУК У ПОДАРУНОК
ДО 23 ЛИСТОПАДА
НАПИШІТЬ НАМ

Так считает профессор информатики Калифорнийского университета в Беркли Стюарт Дж. Рассел, разделяющий озабоченность Бострома. Вместе с коллегой Курцвейла по Google, Питером Норвигом, он написал учебник «Искусственный интеллект: современный подход», уже более 20 лет являющийся настольной книгой разработчиков ИИ.

«Многие просто не понимают, о чём идёт речь», — сокрушается Рассел, — «И вроде умные люди, общепризнанные интеллектуалы» Тем не менее, он отмечает наличие колоссального прорыва в разработке ИИ. В то время, как общественность может понимать прогресс в рамках примитивного Закона Мура (компьютеры работают всё быстрее), в области искусственного интеллекта недавно были достигнуты фундаментальные результаты. При этом, широкое применение таких вычислительных  методов, как глубокое обучение, может автоматически увеличить понимание окружающего мира компьютерами.

Как и всякий родитель, мы должны привить нашему ребенку систему ценностей

В свете того, что Google, Facebook и другие компании активно занимаются созданием умной «обучающейся» машины, Рассел предупреждает: «Чего нам не стоит желать — так это преуспеть на пути создания сверхразума, не задумываясь о возможных рисках. Мне это кажется дурацкой затеей». Рассел предлагает аналогию: «Это похоже на исследования ядерного синтеза. Если вы расспросите учёного в этой области, чем он занят, они ответит, что работает над защитой. Желая получить неограниченную энергию, вам необходимо найти способ удержать реакцию синтеза в ограниченном месте». Аналогично, если вы хотите получить неограниченный интеллект, то сначала вам лучше бы разобраться, как заставить компьютеры учитывать человеческие интересы, добавляет он.

Книга Бострома – это, по сути, приглашение к исследованиям в области такой защиты. Сверхразум должен стать богоподобным, но будет ли он движим гневом или полон любви, зависит от нас, инженеров-людей. Как и всякий родитель, мы должны привить нашему ребенку систему ценностей. И не просто каких-то ценностей, но тех, которые отвечают интересам человечества. Крайне упрощая, мы должны будем сказать богу, как бы мы хотели, чтобы он с нами обращался. Так что же делать?

Бостром в значительной степени опирается на идеи философа Элиезера Юдковского, который говорил о «последовательной экстраполированной воле» — основанном на консенсусе «лучшем я» всего человечества. Мы надеемся, что ИИ пожелает дать нам богатые, счастливые, полноценные жизни. Он поможет, например, вылечить спину, или расскажет, как добраться до Марса. И поскольку люди никогда ни о чём не смогут до конца договориться, нам может понадобиться некий идеальный арбитр, способный принимать решения за нас,  выбирая оптимальное из них для человечества в целом. Как же мы запрограммируем эти ценности в наших (потенциальных) сверхразумах? Какой вид математики может позволить дать нужные определения? Эти проблемы учёные должны решать уже сейчас, считает Бостром. По его мнению, это «главная задача нашей эпохи».

Письмо было подписано не только людьми, интересующимися ИИ, вроде Хокинга, Маска и Бострома, но также и видными учеными в этой сфере, включая ведущего специалиста по ИИ Демиса Хассабиса

Обычному человеку нет причин терять сон из-за ужасных роботов. У нас и близко нет технологий для создания сверхразума. С другой стороны, многие из крупнейших мировых корпораций основательно инвестируют в повышение интеллекта своих компьютеров. Ведь настоящий ИИ предоставит любой из этих компаний невероятное преимущество. Они также должны учесть возможные риски и выяснить, как их избежать.

Это предложение — без каких-либо заявлений о надвигающемся ИИ, равном армагеддону, стало основой открытого письма на веб-сайте Института жизни будущего, получившего пожертвование от Илона Маска. Вместо того, чтобы предупреждать об экзистенциальной катастрофе, в письме содержится призыв к большему количеству исследований по использованию преимуществ ИИ, «избегая потенциальных ловушек». Это письмо было подписано не только людьми, интересующимися ИИ, вроде Хокинга, Маска и Бострома, но также и видными учеными в этой сфере, включая ведущего специалиста по ИИ Демиса Хассабиса. Их исходная позиция ясна. В конце концов, если они создадут не разделяющий лучшие человеческие ценности искусственный интеллект, это будет означать, что они оказались недостаточно умны, чтобы контролировать свои собственные творения.

Перевод Евгений Селяков

Часть 1.

Источник

Print Friendly, PDF & Email