Безопасность СИИ с чистого листа

Этот отчёт — результат работы Ричарда Нго, учёного, который ранее изучал безопасность Сильного Искусственного Интеллекта (СИИ) в команде DeepMind.

Вот что он пишет:

В этом отчёте я попытался собрать в одном месте самые убедительные аргументы о том, что разработка Сильного Искусственного интеллекта (СИИ) может представлять экзестенциальный риск для человечества. Он исходит из моей неудовлетворенности существующими аргументами о потенциальных рисках СИИ. Ранние работы обычно оказываются менее релевантными в контексте современного машинного обучения; а более современные работы краткие и несфокусированые.

Изначально я планировал лишь скомпилировать аргументы других исследователей, но отчёт становился всё больше и больше, и в конце-концов оказался скорее отражением моих мыслей чем чьих-то ещё. Несмотря на то, что он рассказывает о стандартных концепциях, я считаю что он даёт уникальную перспективу о том, как рассуждать о СИИ — такую перспективу, которая не основывается на прошлых суждениях, а вырабатывает их с чистого листа; из первых принципов.

Ричард Нго

С выходом новых переводов в этой статье будут появляться ссылки на них.

  1. Безопасность СИИ с чистого листа: Вступление

Добавить комментарий

Заполните поля или щелкните по значку, чтобы оставить свой комментарий:

Логотип WordPress.com

Для комментария используется ваша учётная запись WordPress.com. Выход /  Изменить )

Фотография Twitter

Для комментария используется ваша учётная запись Twitter. Выход /  Изменить )

Фотография Facebook

Для комментария используется ваша учётная запись Facebook. Выход /  Изменить )

Connecting to %s

%d такие блоггеры, как: