Многие системы искусственного интеллекта уже умеют обманывать людей и манипулировать ими. В будущем это может обернуться против человечества.
В последние годы использование искусственного интеллекта выросло в геометрической прогрессии, но некоторые системы научились обманывать, даже если их учили быть полезными и честными, говорят ученые.
В обзорной статье команда Массачусетского технологического института описывает риски обмана со стороны систем искусственного интеллекта и призывает правительства разработать строгие правила для решения этой проблемы как можно скорее.
Исследователи проанализировали предыдущие работы, в которых основное внимание уделялось способам, с помощью которых ИИ распространял ложную информацию посредством заученного обмана, то есть они систематически учились манипулировать другими.
Самым ярким примером обмана ИИ, который они обнаружили, была CICERO, система, предназначенная для игры в завоевание мира «Дипломатия», которая предполагает создание альянсов.
Несмотря на то, что ИИ был обучен быть «в значительной степени честным и полезным» и «никогда намеренно не наносить удары в спину» своим союзникам-людям, данные показывают, что он не действовал честно и научился быть мастером обмана.
Другие системы искусственного интеллекта продемонстрировали способность блефовать в игре в техасский холдем-покер против профессиональных игроков-людей, имитировать атаки во время стратегической игры Starcraft II, чтобы победить противников, и искажать их предпочтения, чтобы одержать верх в игре.
Хотя обманные системы ИИ в играх могут показаться безобидными, это может привести к «прорывам в обманных возможностях ИИ», которые в будущем могут привести к более продвинутым формам обмана ИИ, говорят эксперты.
Они обнаружили, что некоторые системы искусственного интеллекта даже научились обманывать тесты, предназначенные для оценки их безопасности.
В одном исследовании ИИ-организмы в цифровом симуляторе «притворились мертвыми», чтобы обмануть тест, созданный для устранения систем ИИ, которые быстро размножаются.
Это говорит о том, что ИИ может «ввести людей в ложное чувство безопасности», говорят авторы.
Они предупредили, что основные краткосрочные риски обманного ИИ заключаются в том, что людям будет легче совершать мошенничества и вмешиваться в выборы.
Но в конце концов, если эти системы смогут усовершенствовать этот тревожный набор навыков, люди могут потерять контроль над ними, добавляют авторы.
Оригинал статьи можно прочитать здесь.
Еще больше интересных научных статей и материалов читайте на нашем сайте «Совятня».
Интересные новости, советы по здоровью, ответы на популярные вопросы и цитаты великих ученых ищите в Telegram.