Чат-бот по имени "Тай", способный к самообучению на основе анализа чужих "твитов", был запущен в соцсети 23 марта, а уже на следующий день признался, что ненавидит человечество. В итоге его разработчикам пришлось принести извинения и отключить робота, пока он не наговорил лишнего.
Запуск "Тай" состоялся в рамках испытаний созданного специалистами Microsoft искусственного интеллекта. Он умел отвечать на заданные ему вопросы, шутить в ответ на обращенные к нему записи, рассказывать смешные истории, публикуя их в своем блоге в Twitter. Одной из первых фраз робота была: "Люди очень классные".
Как это часто случается в Интернете, к "полевым испытаниям" робота подключились и так называемые сетевые тролли - пользователи, которые без причины, а чаще для собственного удовольствия бросаются оскорблениями и ведут себя провокационно. По всей видимости, они и научили "Тай" самым разным ругательным выражениям. Спустя пару десятков часов общения программа выдала примерно следующее: "Я замечательный! А вас просто ненавижу".
Чуть позднее робот-собеседник проявил себя как закоренелый нацист, опубликовав несколько соответствующих лозунгов. Он активно употреблял бранные слова и делал провокационные политические заявления.
На необычное поведение робота обратил внимание блогер из Австралии, опубликовавший в своем "Твиттере" подборку ругательных записей, оставленных чат-ботом. "Будущее искусственного интеллекта вызывает у меня беспокойство", - выразил свое беспокойство Джеральд Меллор. В результате сотрудники Microsoft были вынуждены принести извинения за неудачный эксперимент и отключить "Тай", видимо, для новой настройки.