Этот отчёт — результат работы Ричарда Нго, учёного, который ранее изучал безопасность Сильного Искусственного Интеллекта (СИИ) в команде DeepMind.
Вот что он пишет:
В этом отчёте я попытался собрать в одном месте самые убедительные аргументы о том, что разработка Сильного Искусственного интеллекта (СИИ) может представлять экзестенциальный риск для человечества. Он исходит из моей неудовлетворенности существующими аргументами о потенциальных рисках СИИ. Ранние работы обычно оказываются менее релевантными в контексте современного машинного обучения; а более современные работы краткие и несфокусированые.
Изначально я планировал лишь скомпилировать аргументы других исследователей, но отчёт становился всё больше и больше, и в конце-концов оказался скорее отражением моих мыслей чем чьих-то ещё. Несмотря на то, что он рассказывает о стандартных концепциях, я считаю что он даёт уникальную перспективу о том, как рассуждать о СИИ — такую перспективу, которая не основывается на прошлых суждениях, а вырабатывает их с чистого листа; из первых принципов.
Ричард Нго
С выходом новых переводов в этой статье будут появляться ссылки на них.