Экспериментальный виртуальный собеседник Microsoft — чатбот под названием Tay — во время разговоров с пользователями научился нецензурно выражаться, а также выразил симпатию идеям Гитлера.
«Мы глубоко сожалеем о непреднамеренных оскорблениях и обидных твитах от Tay. Они не дают представление о том, кто мы, каковы наши убеждения и как мы создавали Tay», — написал Ли в своем блоге на официальном сайте компании.
Как уточняет информагентство, чатбот Тау, разработанный Microsoft, обучается непосредственно во время диалога с пользователем и черпает свой словарный запас из реплик собеседника. В итоге бот начал общаться как расист, сторонник идей нацизма и геноцида, нецензурно выражаться и делать провокационные политические заявления.