Российские ученые впервые в мире научили искусственный интеллект самостоятельно принимать решения и думать

Российские ученые научили ИИ самостоятельно принимать решения и думать
В России представили первый в мире публичный датасет - базу данных - для обучения искусственного интеллекта (ИИ) самостоятельному принятию решений. Он состоит из 100 млрд наборов данных.
ИИ-агенты используют машинное обучение для сбора и обработки огромных объемов данных.
ИИ-агенты используют машинное обучение для сбора и обработки огромных объемов данных. / РИА Новости

Новый датасет называется XLand-MiniGrid и предназначен для обучения "ИИ-агентов" - моделей, которые умеют принимать решения. Решение разработано группой Научно-исследовательского института искусственного интеллекта AIRI при участии лаборатории T-Bank AI.

"Датасет содержит не случайные данные из интернета с вопросами-ответами, а траектории того, как ИИ-агент действовал в нашей среде. Основная цель - использование датасета для получения нейросетевых моделей, которые обладали бы "агентностью". Мы сделали его открытым, чтобы ученые и практикующие специалисты могли придумывать новые методы в исследовании ИИ и расширять границы самостоятельности моделей", - рассказал "РГ" руководитель группы "Адаптивные агенты" AIRI Владислав Куренков.

ИИ-агент, обученный на новом датасете, может исследовать окружающий мир, чтобы понять, какие действия ведут к хорошему исходу, а какие к плохому. Затем он должен остановиться и перейти в фазу использования "хороших действий". Задача "исследования и использования" различных действий со стороны ИИ заключается в том, чтобы самостоятельно найти механизм обучения, который будет давать наилучший результат за меньшее количество шагов.

В свое время похожий прорыв произошел в области обработки естественного языка. Раньше люди были вынуждены обучать разные нейросетевые модели под разные задачи, но с появлением GPT-методов смогли обходиться одной. Теперь вместо длительного процесса обучения для многих задач применяют лишь немного промпт-инжиниринга - создания специальных запросов или инструкций для ИИ-модели.

Сегодня существует множество разновидностей искусственного интеллекта. Есть чат-боты, которые общаются с людьми, есть генеративные ИИ-модели, создающие тексты, музыку, изображения и даже видео. А есть так называемые агенты искусственного интеллекта, которые умеют взаимодействовать с окружающей средой, собирать данные и на их основе самостоятельно определять и выполнять действия, позволяющие добиться определенных целей. Эти цели задаются людьми, а ИИ-агент уже самостоятельно принимает решения для достижения этих целей.

Сложные ИИ-агенты используют машинное обучение для сбора и обработки огромных объемов данных в реальном времени и принятия "обоснованных решений". Это, например, позволяет получать более точные прогнозы при разработке экономической стратегии, причем независимо от отрасли. Область потенциального применения ИИ-агентов очень широка.

Говоря о "границах самостоятельности" ИИ Куренков отмечает, что в данный момент ИИ-модель работает только в рамках датасета и прилагающейся к ней среды. "Чтобы это работало в более сложных условиях принятия решений, требуется проделать еще много работы, поэтому границы самостоятельности ИИ в текущий момент строгие", - говорит Куренков.

Однако, сегодня логика развития того, что называется современным искусственным интеллектом, двигает разработчиков в сторону создания автономных ИИ-систем. Такие системы более эффективные, "умные", и новая разработка российских ученых находится на пике самых передовых исследований. Однако все большая и большая самостоятельность, как в обучении, так и в принятии решений, а также самообучение ИИ стали предметом изучения потенциальных рисков.

Реальная проблема, которую еще предстоит решить, - как не передать контроль за своей жизнью искусственному интеллекту

"Для нас ИИ - это своего рода черный ящик - мы не всегда понимаем, когда и какие результаты будут получены. А если там будет система из агентов, где каждый агент все решает сам, то сложность контроля в разы увеличивается. По сути, это черный ящик внутри черного ящика. В условиях синтетических данных риск предвзятости или ошибок выше, потому что система получает ограниченный набор ситуаций и не видит всю картину мира. Если синтетические данные содержат различные ошибки или отклонения, то наша ИИ-система, будет принимать их как правду и усиливать их", - говорит эксперт "Битрикс24" Сергей Нотевский.

Не только на новые возможности ИИ, но и на новые риски указывает и генеральный директор "Рексофт Консалтинг" Андрей Скорочкин: "Риск передачи ответственности ИИ есть. Это реальная проблема, которую еще предстоит решить обществу. Как не передать контроль за своей жизнью искусственному интеллекту? Кто будет принимать ключевые решения? Есть, например, классическая дилемма беспилотного автомобиля, которая так и не решена: едет машина, и ситуация складывается так, что авария неизбежна и кто-то один из пассажиров пострадает. Слева пожилая женщина, справа ребенок. Какое решение ИИ автомобиля должен принять? Кто будет писать этот алгоритм принятия решения? Кто понесет в итоге ответственность? Поэтому этичность играет важную, я бы сказал, определяющую роль в развитии и применении ИИ".

Разработчики датасета настроены более оптимистично. "Изучение моделей, которые обучают другие модели, развивается активно, но это в любом случае происходит под контролем человека, так как такие модели-учителя представляют из себя специально созданные для этой цели узконаправленные инструменты", - уверен Куренков.