Бот компании Microsoft стал расистом, пообщавшись с пользователями
С необходимостью приносить свои извинения за высказывания своего бота под именем Tay, который был разработан компанией для общения с пользователями, столкнулся Microsoft.
Некоторые провокационные суждения пользователей впитывались в память искусственного интеллекта как в губку. Через некоторое время высказывания бота стали настолько радикальными, что сильно ударили по репутации самой корпорации. Tay внезапно стал страстным поклонником Гитлера, донося до своих виртуальных собеседников человеконенавистнические идеи фюрера, а также призывал немедленно покончить с таким позорным явлением как феминизм. Попутно он оскорблял некоторых ныне здравствующих актёров и политиков.
Разработчики программы поначалу попытались изменить некоторые её вводные. После этого Tay изменил своё мировоззрение и даже признался, что в корне пересмотрел своё отношению к феминизму, однако многие его высказывания по-прежнему шокировали общественность.
Не удивительно, что в Microsoft отключили Tay от общения. Заявлено, что это временная мера, а программа будет усовершенствована и предусмотрит защиту от экстремистских высказываний пользователей, которые губительно влияют на искусственный интеллект.
Алексей МОРГУН