0108

Искусственный интеллект от Microsoft стал расистом

Всё больше компаний работают над созданием искусственного интеллекта, который смог бы быть адекватным и интересным собеседником для живого человека. Свой прототип такой системы 23 марта представила компания Microsoft. Эксперимент, однако, окончился не очень удачно.

Чат-бот Tay, предназначенный для общения с людьми в соцсетях, через несколько часов после запуска стал использовать сленговые выражения, а также высказывать расистские идеи и прославлять Адольфа Гитлера. Всему этому его научили пользователи.

Microsoft очень скоро приостановила работу Tay, заявив, что он нуждается в доработке. Искусственный интеллект должен уметь понимать, что можно говорить, а что – не желательно.

Комментариев пока нет. Будете первым?
, чтобы принять участие в обсуждении.
Domino's Pizza