Не избивайте пылесос, бунта машин не будет!

Об неестественном интеллекте в наше время не говорит лишь ленивый. Но точка зрения широкой общественности отличается от точки зрения экспертов. Нет, само собой разумеется, они и неизменно легко различались, но сейчас мы стали участниками и свидетелями невиданного конфликта. В центре его — ни большое количество ни мало вопрос о потенциальной угрозе со стороны ИИ для человечества. Обыватель, подначиваемый громкими именами из науки, бизнеса и (особенно) журналистской среды, стоит на позиции абсолютного фатального вреда. У специалистов в ИИ другая позиция — и они очевидно раздражены тем, что из ИИ сделали пугало. Так опасаться либо нет? Кому верить?

Мысль о смертельной опасности машинного интеллекта с позиций публики весьма несложна и в далеком прошлом создана фантастами: когда мы выстроим машину, которая поймёт себя, мы обречены — по причине того, что она сделает всё вероятное, дабы не допустить собственного отключения. Продлите эту идея на протяжении оси времени — и вы получите стопроцентную гарантию «восстания автомобилей» в один прекрасный день в будущем. Сейчас мы очень близки к этому дню: экспоненциальный темп развития ИИ разрешает оценивать время до постройки «суперинтеллекта» в десять-двадцать лет. Элон Маск и Стивен Хокинг уже бьют в набат. И какие конкретно ещё вам необходимы доводы?

«Вы вероятнее не воображаете себе, как скоро начинается на данный момент ИИ. Экспоненциально! И риск напороться на что-то серьёзно страшное в ближайшие пять лет весьма кроме того настоящ. А уж за десять наткнёмся совершенно верно» (Элон Маск)

Вот лишь ни Хокинг, ни Маск — не эксперты по ИИ. Они гениальны в собственных областях и, пожалуй, кроме того очень способны, но занимаются всё-таки вторым. Чтобы выяснить, как наблюдает на проблему сообщество экспертов, стоит прочесть открытое письмо, написанное участниками сравнительно не так давно образованной в Соединенных Штатах добровольческой некоммерческой организации «Университет будущего» (Future of Life Institute, FLI). Цель её — стимулирование инициатив и исследований по смягчению масштабных рисков для человечества; на данный момент они сфокусированы на рисках со стороны суперинтеллекта. В первых числах Января FLI совершил первую конференцию, по итогам которой было написано то самое письмо. В приблизительном литературном переводе документ именуется «Исследовательские приоритеты для построения здорового и нужного ИИ» и посвящён профилактике угроз со стороны интеллектуальных автомобилей.

Это важный и сложный документ на двенадцати страницах, треть из которых наполнена ссылками на фундаментальные труды по разным нюансам ИИ. В случае если кратко и грубо, суть письма сводится к следующему. За последние два десятка лет элементы ИИ доказали собственную практическую полезность, что стало причиной приток инвестиций и ещё сильней подстегнуло развитие «машинного разума». И по мере того, как он попадает в общество, естественным образом увеличивается масштаб вероятных последствий его применения. Сейчас для экспертов разумеется, что нужно наметить замысел действий, что разрешит ИИ и дальше развиваться с большой пользой для общества, избегнув одновременно с этим страшных направлений. Попросту, ИИ обязан делать лишь то, что мы желаем дабы он делал. Ход влево, ход вправо — побег, останов.

А неприятность — в мультидисциплинарности: попадая везде, ИИ уже сейчас «состоит» не только из программирования и математики, но и права, экономики, философии, безопасности, этики, законотворчества и многого другого. Вероятно ли предвосхитить все моменты и опасные пересечения? В FLI предлагают по крайней мере не сидеть сложа руки. Оттолкнувшись от социальной значимости, они пробуют наметить направления, на которых нужно совершить оценку опасностей со стороны ИИ и проработать меры профилактики.

«Создание ИИ станет наибольшим событием в людской истории. К сожалению, вероятно и последним, в случае если лишь мы не осознаем как избежать связанных с неестественным разумом рисков» (Стивен Хокинг)

Скажем, для рынка труда логично совершить изучения последствий массовой автоматизации, появляющегося социального неравенства, изучить вероятные экономические контрмеры. Для военных роботов и робокаров — озадачиться этикой. Плюс отыскать методы проверки соответствия функционала ИИ-совокупностей желаемому и гарантированного приведения его к норме при обнаружении несоответствий по окончании старта (кстати — святой грааль апокалиптической фантастики!). Стимулировать разработку способов точного вычислительного машиностроения. Установить необходимость наличия человека в петле управления некоторых (очень критичных) совокупностей.

Это только кое-какие из перечисленных в письме направлений. Сложно? Сложно, спору нет. Но и выбора у нас нет также. Цена некорректного поведения ИИ-совокупности растёт вместе с её автономностью и сложностью. И, потому, что признано, что ИИ способен принести нам беспрецедентные пользы, мы должны начать «картографирование» страшных мест и проработку сценариев минимизации тяжести последствий в том месте, где избежать рифов не удастся.

FLI собирается раздавать гранты на проведение изучений по направлениям, обозначенным в письме (заявки возможно подавать со прошлого дня, но, честно говоря, не уверен, что круг соискателей не ограничен гражданами Соединённых Штатов). И что примечательно, одно из первых пожертвований — $10 млн., из которых гранты и будут выплачиваться — сделал фактически Элон Маск. Входящий в состав научного совета Университета совместно со Стивеном Хокингом. Да, Маск и Хокинг в действительности не паникёры, они практики.

Паникёрами в истории суперинтеллекта стали СМИ. С некоторых пор стало модно подавать мельчайшее достижение либо провал в работах, которые связаны с ИИ, под апокалиптическим соусом. Ничего не попишешь: популярной прессе и телевидению необходимы сенсации, им мало взвешенного взора на проблему. Маск и Хокинг превратились в «голос ИИ-паники» не по собственному жажде, их удачно вписали в апокалиптическую модель поп-журналисты.

Отгородиться от попсовиков-затейников не удастся, кроме того не пробуйте: в перечне паникёров и такие солидные масс-медиа, например, как BBC. Но вот о чём необходимо задуматься: среди специалистов по ИИ тех, кто допускает какое количество-нибудь настоящую возможность «бунта автомобилей», мало. Из-за чего? По причине того, что эксперты знают: кроме того развиваясь экспоненциально скоро, элементы суперинтеллекта смогут и не сложиться в цельный суперинтеллект, талантливый составить борьбу человеку. Задача создания суперинтеллекта не просто сложна, она неизвестная!

Так что не требуется паники. Не требуется — как в той превосходной свежей шутке — избивать пылесос, заранее отмщая ядерные удары, каковые в один раз нанесёт по мировым столицам Skynet. Продуктивней будет последовать совету специалистов и начать прорабатывать отдельные маленькие (но настоящие!) опасности, просматривающиеся со стороны элементов ИИ.

P.S. В статье использованы иллюстрации Eugenia Loli, Steve Jurvetson, Kosala Bandara.

КОМПЛЕКТ ДЛЯ ВЫЖИВАНИЯ ЖЕЛЕЙНОГО МЕДВЕДЯ ВАЛЕРЫ


Похожие статьи: