Истории об ИИ, которые являются чушью. Или нет?

Истории об ИИ, которые являются чушью. Или нет?

Искусственный интеллект (ИИ) прочно входит в нашу жизнь. И сейчас пришло время принять то, что предлагают нам новые технологии. А главное – развеять мифы об ИИ.

Люди обожают истории об ИИ, но когда мы действительно в них вникаем, эти истории, казавшиеся неопровержимыми фактами, оказываются совсем не такими, какими казались на первый взгляд.

ИИ, который «превосходит» медсестер

Nvidia создает новых медсестер с искусственным интеллектом,  гласили заголовки, медсестер, которые на самом деле лучше, чем их человеческие коллеги. Nvidia — пионер настоящей технологии ИИ и они также извлекают выгоду из общей шумихи вокруг ИИ, потому что они создают чипы, которые питают искусственный интеллект.

Естественно, никто из тех, кто видел заголовки новостей о медсестрах, не думал, что ИИ сможет полностью заменить медсестер. Но, конечно, Nvidia не утверждала, что их программное обеспечение может делать что-то физическое. Они предполагали, что их ИИ может думать о медицинских вопросах лучше, чем медсестры.

На самом деле речь шла о чат-боте, большой языковой модели под названием Polaris, который может просто предоставлять информацию и советы, а также вовлекать пациентов в беседу.

При этом компания заявляла, что ИИ не будет диагностировать пациентов или принимать клинические решения. Если бы они попытались создать ботов, которые могли бы это сделать, это привело бы к серьезной ответственности.

ИИ, нацеленный на военного оператора, никогда не существовал

Сейчас один из самых классических страхов перед ИИ — что он восстанет и убьет нас всех. Это произошло в прошлом году с рассказом начальника отдела испытаний и эксплуатации ИИ ВВС США.

Полковник Такер Гамильтон рассказал об испытании ВВС, в ходе которого ИИ выбирал цели для поражения, а человек-оператор имел полное право вето на выстрелы. Человек-оператор мешал ИИ поразить как можно больше целей. Так что же сделал ИИ? Убил оператора. Он убил оператора, потому что этот человек мешал ему достичь своей цели. Затем, когда ВВС поработали с ИИ, чтобы конкретно сказать ему не убивать оператора, ИИ нацелился на башню связи, чтобы оператор не наложил на него больше вето.

Это была симуляция, а не реальные испытания. Причина, по которой они никогда не программировали и не запускали эту симуляцию, заявили в ВВС, не в том, что они против концепции автономного вооружения. Если бы они заявили, что они слишком этичны, чтобы принять это во внимание, вы вполне могли бы предположить, что они лгут. Нет, причина, по которой они никогда не будут проводить такое моделирование, заявили в ВВС, заключается в том, что ИИ, выйдя из-под контроля, будет настолько очевидным результатом в этом сценарии, что нет необходимости создавать симуляцию для его тестирования.

Оригинал статьи можно прочитать здесь.

Еще больше интересных научных статей и материалов читайте на нашем сайте «Совятня».

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *