Бота Тай «научили» быть злой преднамеренно

Автор: Владимир

Два дня назад компания Microsoft запустила в социальной сети твиттер чат-бота Тай, который должен помочь понять разработчикам принцип машинного обучения. Система «общалась» с пользователями, запоминая сказанные ними фразы, которые позже использовала для ответов.

Спустя сутки бот начал давать грубые и политнекорректные ответы, после чего Microsoft приостановила его работу. В компании прокомментировали, почему так произошло.

В Microsoft отметили, что Тай – это социальный и культурный эксперимент, которые помогает более глубоко изучать машинное обучение. Но из-за скоординированных действий группы злоумышленников спустя сутки искусственный интеллект обучился грубым и некорректным фразам. Поэтому разработчики вынуждены отключить его, после чего внесут в работу бота коррективы.

Ранее мы писали, что Microsoft запустила в Twitter бота Тай, который общается с пользователями. Но спустя сутки система начала давать грубые и некорректные ответы, из-за чего ее пришлось отключить.

Популярное за неделю

Код 495: что за оператор и какой регион

Код 495: что за оператор и какой регион

На территории России действуют разные телефонные коды. И для того, чтобы дозвониться до нужного абонента, важно знать определённую комбинацию цифр. Мы расскажем сегодня про...
2810

Как узнать что телефон прослушивается? Признаки

Многие люди обеспокоены тем, что их мобильные телефоны могут прослушиваться или прослушивать без их ведома. Но как именно происходит прослушивание или слежка за телефоном?...
79
Задняя панель Xiaomi Mi 11 Lite

Появилась точная информация о Xiaomi Mi 11 Lite

Все еще не указана дата анонса флагмана бюджетной категории от Xiaomi, однако появились кадры Mi 11 Lite на подставке с описанием технических данных. Съемку...
22351
Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!