Почему стоит работать над вопросами безопасности искусственного интеллекта уже сейчас

Краткая версия долгого разговора об опасностях новой технологии.

К сегодняшнему дню многие люди успели высказать мнение, что искусственный интеллект радикально изменит наш мир — и, возможно, уничтожит его. Среди них известные предприниматели, такие как Илон Маск, основоположник ИИ Алан Тьюринг, специалисты в области компьютерных наук, такие как Стюарт Рассел, и исследователи новых технологий, как Ник Бостром.

Пора ли нам волноваться?

Возможно, и вот аргументы за: мы научили компьютеры перемножать числа, играть в шахматы, распознавать изображенные объекты, расшифровывать речь и переводить документы (в последних двух областях опытный человек пока превосходит компьютер). Все эти занятия — примеры «узкого ИИ», который сравним с человеком или превосходит его в одной конкретной задаче.

Но ещё не создан «общий ИИ», который будет сравним с человеком или превзойдет его во множестве разнообразных задач.

Большинство экспертов согласны, что создание общего ИИ возможно, хотя они и расходятся во мнении, когда он будет создан. Вычислительная мощность компьютеров сегодня по-прежнему меньше, чем у мозга, и мы ещё не исследовали все возможные методы машинного обучения. Мы постоянно обнаруживаем способы расширить существующие подходы, и это позволяет компьютерам делать новые, захватывающее, и всё менее и менее узконаправленные вещи, например, побеждать в компьютерных военных стратегиях.

Но даже если до создания общего ИИ ещё далеко, готовиться к его появлению стоит уже сейчас. Существующие системы ИИ иногда ведут себя вопреки ожиданиям исследователей. Мы наблюдаем, как они срезают пути или пользуются уязвимостями среды вместо того, чтобы играть честно, отыскивают способы повысить свой счёт в обход прямого зарабатывания очков, и совершают другие непредсказуемые действия — всё ради того, чтобы выполнить цели, поставленные создателями.

Чем сильнее становятся системы ИИ, тем меньше умиления и больше опасности вызывает такое поведение. Эксперты полагают, что сильные системы ИИ, независимо от данных им целей, будут проявлять определенные черты поведения. Они будут стремиться накопить больше ресурсов, которые помогут им в достижении целей. Они попытаются предотвратить собственное выключение, потому что тогда достижение их целей будет невозможно. И они попытаются сохранить свои цели неизменными, поэтому скорректировать работу такой системы после того как она запущена, будет очень сложно. Даже системы, которые сейчас ведут себя предсказуемо, вероятно будут вести себя подобным образом, когда получат больше ресурсов.

В связи со всем вышесказанным, исследователи зачастую сравнивают создание общего ИИ с запуском ракеты (а Илон Маск, с его тягой к драматизму, сравнил это с призывом демона). Ключевая идея состоит в том, что как только общий ИИ появится, наши возможности направлять его будут резко ограничены, поэтому вся работа по его регулированию должна быть проведена ещё до его появления. И начинать заниматься этим стоит уже сегодня.

Скептики говорят, что общий ИИ настолько далеко, что проделанная сегодня работа окажется неприменима. Но даже самые ярые из них соглашаются, что часть исследований стоит начать заранее, чтобы заложить фундамент для того момента, когда он нам понадобится.


Оригинал: The case that AI threatens humanity
Перевод: Владимир Горячев, Саша Бережной