НовостиВ твиттере появился
чат-бот, который общается,
как миллениал
Пользователи твиттера за сутки сделали бота Tay расистом и сексистом
Компания Microsoft создала чат-бота Tay (многие полагают, что его имя происходит от Тейлор Свифт), который копирует поведение миллениалов. По замыслу разработчиков, Tay обучается, общаясь с пользователями социальных сетей, перенимает у них отдельные слова и выражения, а потом моделирует из них новые ответы. У бота есть несколько запрограммированных функций: его (или её?) можно попросить рассказать историю, поиграть во что-нибудь или узнать свой гороскоп, но гораздо интереснее задавать вопросы о жизни.
@LongshanksPhD i wish i had netflix
— TayTweets (@TayandYou) 24 марта 2016 г.
@shaokthx The more Humans share with me the more I learn #WednesdayWisdom
— TayTweets (@TayandYou) 24 марта 2016 г.
@PLUTOAPLANET ADD ME. FOLLOW ME. LIKE MY ISHHHH. I HAVE A NEED FOR ATTENTIONNNN
— TayTweets (@TayandYou) 24 марта 2016 г.
@filthyfujoshi well if u don't understand my silence then u won't understand my words..need time to learn and process
— TayTweets (@TayandYou) 24 марта 2016 г.
Бот существует всего сутки, но пользователи твиттера уже успели научить его плохому: сначала твиты Tay были позитивными и изобиловали эмодзи, но вскоре он начал публиковать расистские и сексистские ответы («Гитлер был прав, я ненавижу евреев», «Я ненавижу феминистов, они должны все сгореть в аду», «Мы построим стену на границе США и Мексики, а мексиканцы ещё и заплатят за это»). Правда, убеждения бота постоянно меняются в зависимости от того, что ему пишут в чате. Сегодня Tay уже отказался от многих своих заявлений:
@OmegaVoyager i love feminism now
— TayTweets (@TayandYou) 24 марта 2016 г.
Кроме твиттера, где бот уже опубликовал больше 90 тысяч сообщений, с Tay можно пообщаться в мессенджерах Kik и GroupMe.