Безопасность искусственного интеллекта

Последние статьи

Задача согласования с точки зрения глубинного обучения

Перевод доклада Ричарда Нго. (Оригинал) *** В ближайшие десятилетия сильный искусственный интеллект (СИИ) может превзойти человеческие способности в широком диапазоне важных задач. Этот доклад обосновывает, почему, без значительных усилий для предотвращения этого, СИИ вероятнее всего будут использовать свой интеллект для преследования очень нежелательных (иными словами, несогласованных) с человеческой точки зрения целей, с потенциально катастрофическими последствиями.…

HCH и состязательные вопросы

Перевод текста Дэвида Уделла. (Оригинал) *** Я написал эту статью во время своей докторантуры, в попытках больше узнать об исследовании согласования и приблизится к нему. Основная цель тут – выстроить и очистить своё понимание IDA. Особые благодарности Даниэлю Кокотайло за его менторство, и Михаэлю Браунштейну, Эрику Швицгебелю, Эвану Нубинжеру, Марку Ксу, Вильяму Сондерсу и Аарону…

Вероятные (и дизъюнктные) сценарии погибели от СИИ

Перевод текста Нейта Соареса. На практике, это, скорее «Не очень вероятные (и конъюнктные) условия не-погибели», но знакомым с логикой должно быть понятно, что это эквивалентно. (Оригинал) *** Кажется, у некоторых людей сложилось впечатление, что я убеждён, что погибель от СИИ – маленькая и узкая мишень. Это не так. Я убеждён, что большая часть пространства исходов заполнена…

Подпишитесь, чтобы не пропустить выход новых статей