ИИ развил чудовищный навык против человечества

ИИ развил чудовищный навык против человечества

Многие системы искусственного интеллекта уже умеют обманывать людей и манипулировать ими. В будущем это может обернуться против человечества.

В последние годы использование искусственного интеллекта выросло в геометрической прогрессии, но некоторые системы научились обманывать, даже если их учили быть полезными и честными, говорят ученые.

В обзорной статье команда Массачусетского технологического института описывает риски обмана со стороны систем искусственного интеллекта и призывает правительства разработать строгие правила для решения этой проблемы как можно скорее.

Исследователи проанализировали предыдущие работы, в которых основное внимание уделялось способам, с помощью которых ИИ распространял ложную информацию посредством заученного обмана, то есть они систематически учились манипулировать другими.

Самым ярким примером обмана ИИ, который они обнаружили, была CICERO, система, предназначенная для игры в завоевание мира «Дипломатия», которая предполагает создание альянсов.

Несмотря на то, что ИИ был обучен быть «в значительной степени честным и полезным» и «никогда намеренно не наносить удары в спину» своим союзникам-людям, данные показывают, что он не действовал честно и научился быть мастером обмана.

Другие системы искусственного интеллекта продемонстрировали способность блефовать в игре в техасский холдем-покер против профессиональных игроков-людей, имитировать атаки во время стратегической игры Starcraft II, чтобы победить противников, и искажать их предпочтения, чтобы одержать верх в игре.

Хотя обманные системы ИИ в играх могут показаться безобидными, это может привести к «прорывам в обманных возможностях ИИ», которые в будущем могут привести к более продвинутым формам обмана ИИ, говорят эксперты.

Они обнаружили, что некоторые системы искусственного интеллекта даже научились обманывать тесты, предназначенные для оценки их безопасности.

В одном исследовании ИИ-организмы в цифровом симуляторе «притворились мертвыми», чтобы обмануть тест, созданный для устранения систем ИИ, которые быстро размножаются.

Это говорит о том, что ИИ может «ввести людей в ложное чувство безопасности», говорят авторы.

Они предупредили, что основные краткосрочные риски обманного ИИ заключаются в том, что людям будет легче совершать мошенничества и вмешиваться в выборы.

Но в конце концов, если эти системы смогут усовершенствовать этот тревожный набор навыков, люди могут потерять контроль над ними, добавляют авторы.

Оригинал статьи можно прочитать здесь.

Еще больше интересных научных статей и материалов читайте на нашем сайте «Совятня».

Интересные новости, советы по здоровью, ответы на популярные вопросы и цитаты великих ученых ищите в Telegram.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *