Искусственный интеллект от Microsoft стал расистом
Всё больше компаний работают над созданием искусственного интеллекта, который смог бы быть адекватным и интересным собеседником для живого человека. Свой прототип такой системы 23 марта представила компания Microsoft. Эксперимент, однако, окончился не очень удачно.
Чат-бот Tay, предназначенный для общения с людьми в соцсетях, через несколько часов после запуска стал использовать сленговые выражения, а также высказывать расистские идеи и прославлять Адольфа Гитлера. Всему этому его научили пользователи.
Microsoft очень скоро приостановила работу Tay, заявив, что он нуждается в доработке. Искусственный интеллект должен уметь понимать, что можно говорить, а что — не желательно.