Экспериментальный чат-бот Tay, разработанный Microsoft для социальной сети Twitter, научился ругаться и делать расистские заявления, сообщает BBC. В частности, бот выразил свое согласие с национальной политикой Адольфа Гитлера и заявил о ненависти к феминисткам.