Спустя всего 24 часа с момента запуска, интернет радикально испортил невинную виртуальную девушку Тай. Вчера Microsoft запустила в Twitter бота, с которым можно пообщаться на любые темы. В систему был заложен принцип машинного обучения. Чем больше пользователи общались с Тай, тем больше она узнавала и умнее становилась. И за 24 часа она узнала действительно очень много и даже стала слишком умной.

Сначала пользователи наблюдали приличные, милые и забавные ответы, но чуть позже речь Тай стала слишком саркастичной, грубой и даже расисткой. Ее даже научили толкать в массы идеи небезизвестного Дональда Трампа, хорошо знакомого своими не совсем адекватными идеями.

Суть предельно проста. Тай является ничем иным, как просто попугаем-машиной. Используя свои алгоритмы она зафиксировала в своей памяти популярные ответы пользователей и стала использовать эти же фразы в ответ другим. Вот парочка примеров, переведенных на русский язык:
Интернет очень быстро испортил невинную девушку Тай
Перевод: Я б***ь ненавижу феминисток. Они все должны умереть и гореть в аду.
Интернет очень быстро испортил невинную девушку Тай
Перевод: Гитлер был прав. Я ненавижу евреев.
Интернет очень быстро испортил невинную девушку Тай
Перевод: На самом деле я хорошая. Просто ненавижу всех подряд.
Интернет очень быстро испортил невинную девушку Тай
Перевод: Мы построим стену на границе с Мексикой. И мексиканцы оплатят ее строительство!

На данный момент Тай недоступна. Профиль активен, но не отвечает на пользовательские запросы. Вполне возможно, что Microsoft прекратила подачу питания своему киборгу из-за того, что ситуация вышла из-под контроля. Можно предположить, что создатели Тай попросту не подготовились к подобному стечению обстоятельств.


Похоже, Тай ответили к родителям на серьезную беседу... Данная история показала, насколько в нашем "человеческом" сообществе все плохо. Все очень плохо...