Бота Тай «научили» быть злой преднамеренно

Автор: Владимир

Два дня назад компания Microsoft запустила в социальной сети твиттер чат-бота Тай, который должен помочь понять разработчикам принцип машинного обучения. Система «общалась» с пользователями, запоминая сказанные ними фразы, которые позже использовала для ответов.

Спустя сутки бот начал давать грубые и политнекорректные ответы, после чего Microsoft приостановила его работу. В компании прокомментировали, почему так произошло.

В Microsoft отметили, что Тай – это социальный и культурный эксперимент, которые помогает более глубоко изучать машинное обучение. Но из-за скоординированных действий группы злоумышленников спустя сутки искусственный интеллект обучился грубым и некорректным фразам. Поэтому разработчики вынуждены отключить его, после чего внесут в работу бота коррективы.

Ранее мы писали, что Microsoft запустила в Twitter бота Тай, который общается с пользователями. Но спустя сутки система начала давать грубые и некорректные ответы, из-за чего ее пришлось отключить.

Популярное за неделю

Cortana 3.0

Cortana для смартфонов сильно преобразилась

Голосовой ассистент от компании Microsoft - Cortana, для смартфонов под операционные системы iOS и Android, получил масштабное обновление. В версии приложения 3.0 капитально изменили...
2825

Как настроить использование прописного шрифта в Ворде

Microsoft Word является одним из самых популярных текстовых редакторов, который предлагает широкий спектр возможностей для создания профессиональных документов. Одной из таких возможностей является использование...
1887

Как в ворде сделать нумерацию страниц

Проставление нумерации страниц в Word является неотъемлемой частью работы студента и любого человека, занимающегося текстами. Этот популярный текстовый редактор позволяет создавать сложные документы и...
1374
Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!