Бота Тай «научили» быть злой преднамеренно

Аватар
Автор: Владимир

Два дня назад компания Microsoft запустила в социальной сети твиттер чат-бота Тай, который должен помочь понять разработчикам принцип машинного обучения. Система «общалась» с пользователями, запоминая сказанные ними фразы, которые позже использовала для ответов.

Спустя сутки бот начал давать грубые и политнекорректные ответы, после чего Microsoft приостановила его работу. В компании прокомментировали, почему так произошло.

В Microsoft отметили, что Тай – это социальный и культурный эксперимент, которые помогает более глубоко изучать машинное обучение. Но из-за скоординированных действий группы злоумышленников спустя сутки искусственный интеллект обучился грубым и некорректным фразам. Поэтому разработчики вынуждены отключить его, после чего внесут в работу бота коррективы.

Ранее мы писали, что Microsoft запустила в Twitter бота Тай, который общается с пользователями. Но спустя сутки система начала давать грубые и некорректные ответы, из-за чего ее пришлось отключить.

Популярное за неделю

Задняя панель Asus Zenfone 8

Появились данные по новому смартфону Asus Zenfone 8

Компания Asus долгое время продавала линейку смартфонов Zenfone, но с недавних пор ROG Phone вышли на первый план. По ценовой политике и конкурентоспособности хорошо...
12506
Задняя панель Xiaomi Mi 11 Lite

Появилась точная информация о Xiaomi Mi 11 Lite

Все еще не указана дата анонса флагмана бюджетной категории от Xiaomi, однако появились кадры Mi 11 Lite на подставке с описанием технических данных. Съемку...
12376
Внешний вид Xiaomi Mi 10S

Официально подтвержден выпуск глобальной версии Xiaomi Mi 10S

От компании Xiaomi ожидается новая конференция с показом флагманских моделей линейки Mi 11. Также модель Mi 10 получила модификацию – компания выпустила Mi 10S...
12737
Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!