Бота Тай «научили» быть злой преднамеренно

Автор: Владимир

Два дня назад компания Microsoft запустила в социальной сети твиттер чат-бота Тай, который должен помочь понять разработчикам принцип машинного обучения. Система «общалась» с пользователями, запоминая сказанные ними фразы, которые позже использовала для ответов.

Спустя сутки бот начал давать грубые и политнекорректные ответы, после чего Microsoft приостановила его работу. В компании прокомментировали, почему так произошло.

В Microsoft отметили, что Тай – это социальный и культурный эксперимент, которые помогает более глубоко изучать машинное обучение. Но из-за скоординированных действий группы злоумышленников спустя сутки искусственный интеллект обучился грубым и некорректным фразам. Поэтому разработчики вынуждены отключить его, после чего внесут в работу бота коррективы.

Ранее мы писали, что Microsoft запустила в Twitter бота Тай, который общается с пользователями. Но спустя сутки система начала давать грубые и некорректные ответы, из-за чего ее пришлось отключить.

Популярное за неделю

Код 495: что за оператор и какой регион

Код 495: что за оператор и какой регион

На территории России действуют разные телефонные коды. И для того, чтобы дозвониться до нужного абонента, важно знать определённую комбинацию цифр. Мы расскажем сегодня про...
14767

Как в ворде сделать нумерацию страниц

Проставление нумерации страниц в Word является неотъемлемой частью работы студента и любого человека, занимающегося текстами. Этот популярный текстовый редактор позволяет создавать сложные документы и...
3164

Какой у меня адрес электронной почты

Названия почтовых сервисов, такие как yandex.ru, gmail.com, mail.ru, icloud.com, состоят из домена и логина, разделенных символом @. Например, ваше имя пользователя может быть super,...
3254
Добавить комментарий

Такой e-mail уже зарегистрирован. Воспользуйтесь формой входа или введите другой.

Вы ввели некорректные логин или пароль

Sorry that something went wrong, repeat again!