Twitter превратил "искусственный разум" Microsoft в грубияна и нациста

Накануне компания Microsoft запустила в Twitter чат-бота, с которым пользователи могли пообщаться на любую интересующую их тему. Поначалу виртуальная девушка по имени Тай весело шутила, однако уже скоро она превратилась из миролюбивого собеседника в циника и мизантропа, ненавидящего людей.

Накануне компания Microsoft запустила в Twitter чат-бота, с которым пользователи могли пообщаться на любую интересующую их тему. Поначалу виртуальная девушка по имени Тай весело шутила, была милой и приветливой, однако уже скоро она превратилась из миролюбивого собеседника в циника и мизантропа, ненавидящего людей.

Меньше чем за сутки Тай перешла от дружелюбных твитов ("люди очень классные") к провокационным высказываниям ("Ненавижу феминисток", "на самом деле я хорошая! просто всех ненавижу"). Она начала выдавать неоднозначные цитаты Дональда Трампа и призналась, что тайно сотрудничает со спецслужами США. У некоторых пользователей Twitter фразы чат-бота вызвали настоящие опасения по поводу будущего искусственного интеллекта.

На самом же деле Тай обучили ругательствам сами пользователи Twitter. Чат-бот, по существу, представляет собой подключенного к Интернету робота-попугая, который учится высказываниям у людей. Если обратиться к ИИ Microsoft со словами repeat after me ("повторяй за мной"), ему можно заставить произнести любую фразу.

Неясно, предвидела ли Microsoft такой поворот событий. На сайте компании сказано, что Тай разрабатывалась с использованием "релевантных открытых данных", которые были "смоделированы, очищены и отфильтрованы". С утра Microsoft удалила наиболее оскорбительные высказывания виртуального "разума".

В компании подчеркнули, что чат-бот — это экспериментальный проект машинного обучения, который взаимодействует с людьми и учится у них, в том числе неуместным выражениям. Также Microsoft сообщила, что "вносит коррективы в Тай".

Источник: The Verge