Бота Тай «научили» быть злой преднамеренно

Два дня назад компания Microsoft запустила в социальной сети твиттер чат-бота Тай, который должен помочь понять разработчикам принцип машинного обучения. Система «общалась» с пользователями, запоминая сказанные ними фразы, которые позже использовала для ответов.

Спустя сутки бот начал давать грубые и политнекорректные ответы, после чего Microsoft приостановила его работу. В компании прокомментировали, почему так произошло.

В Microsoft отметили, что Тай – это социальный и культурный эксперимент, которые помогает более глубоко изучать машинное обучение. Но из-за скоординированных действий группы злоумышленников спустя сутки искусственный интеллект обучился грубым и некорректным фразам. Поэтому разработчики вынуждены отключить его, после чего внесут в работу бота коррективы.

Ранее мы писали, что Microsoft запустила в Twitter бота Тай, который общается с пользователями. Но спустя сутки система начала давать грубые и некорректные ответы, из-за чего ее пришлось отключить.

Популярное за неделю

Galaxy M51

На прилавках появились новые смартфоны Samsung Galaxy M51

Компания Samsung запустила в продажу новые смартфоны Samsung Galaxy M51, которые уже появились на прилавках магазинов в Германии. По предварительным данным, продажа телефонов должна...
153
Замена батареи news

Как понять, что «умер» аккумулятор телефона

Современные смартфоны имеют целый ряд существенных дискомфортных проблем. Однако главной среди них является вопрос запаса энергии и недолговечность аккумуляторных батарей. На деле же -...
2840
Логотип Huawei

Заговор против Huawei: Samsung, LG и SK Hynix прекратили поставки

Неприятные известия то и дело сыплются на компанию Huawei. Китайский техногигант испытывает сильное давление от властей США и пытается удержать свой бизнес разработки смартфонов...
23
Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!