Эксперты: Ограничения для ИИ в Европе приведут к оттоку разработки

Под запрет евробюрократов попали идентификация по биометрии в режиме реального времени, за исключением поиска пропавших людей или уголовных преступников и террористов, создание классификаторов граждан на основе их поведения или биометрии, прогнозирование преступлений, создание баз для распознавания лиц на основе изображений в интернете или записей камер, манипуляции или введение в заблуждение.
Под запрет попали не сами технологии, а сценарии их применения, отмечают опрошенные "РГ" эксперты. Однако сами по себе сценарии так же не являются хорошими или плохими, и не очень понятно, почему именно ИИ оказывается под дополнительным регулированием, говорит Иван Оселедец, профессор РАН, генеральный директор Института AIRI. "Возьмем к примеру манипуляции решением потребителя в покупке того или иного товара: сделать это можно и с помощью ИИ-технологий, и без их помощи. Разве это повод запрещать рекомендательные системы? Не лучше ли ограничить только негативные сценарии их использования? Риски использования систем ИИ должны регулироваться существующим законодательством", - говорит Оселедец. Появление специфического регулирования ИИ-сектора станет ограничителем для развития технологий, но вместе с тем сформирует новый рынок.
"Европа делает ставку на этические приоритеты и защиту пользователей, усложняя процесс сертификации новых технологий. Однако параллельно появляется рынок продуктов и сервисов, связанных с аудитом ИИ, методами explainability и т.д", - уверен Николай Бриллиантов, профессор Центра искусственного интеллекта Сколтеха. При этом если большие корпорации почти наверняка справятся с дополнительными издержками, которые возникнут в связи с этим, то для молодых и средних команд разработчиков это можно стать серьезным ограничителем.
Введение Акта значительно притормозить развитие ИИ-отрасли и нанести ущерб конкурентоспособности ЕС. "В результате ЕС может утратить статус привлекательной площадки для инноваций. Перспективные разработчики и учёные будут предпочитать регионы с более гибкими подходами к регулированию, а запуск новых технологий заметно замедлится", - полагает Даниил Гаврилов, руководитель лаборатории научных исследований искусственного интеллекта T-Bank AI Research.
Европейское регулирование в сфере ИИ в перспективе может стать стандартом "ответственного ИИ" для отрасли так же, как когда GDPR стал де-факто стандартом для всех, кто работает с данными пользователей, хранит их или обрабатывает. В то же время, отмечает представитель МТС AI, если сравнивать условия в США и Китае с условиями в европейских странах, то, конечно, у американских и китайских компаний после принятия нового закона ЕС будет преимущество по сравнению с европейскими.
"Разумное регулирование ИИ нужно в любой стране, включая Россию. Оно должно устанавливать правила защиты прав граждан и персональных данных, распределять ответственность за некорректную работу алгоритмов (например, дискриминацию или искажение фактов) и при этом стимулировать развитие отрасли, поддерживая стартапы и научные группы", - уверен Бриллиантов. Он обращает внимание на чрезвычайно тонкий момент ответственности разработчиков, который при избыточном регулировании может привести к параличу разработки. "Искусственный интеллект может вести себя непредсказуемо, и если алгоритм в процессе эксплуатации начинает проявлять новые свойства, разработчик не должен нести полную ответственность за то, что он не мог предугадать. Чтобы предотвратить "паралич развития" из-за страха санкций, стоит подумать о введении "переходного периода" (или "времени охлаждения"). В этот период компания, выпустившая ИИ-продукт, могла бы устранять выявленные проблемы без немедленных серьёзных штрафов, при условии отсутствия злого умысла", - резюмирует эксперт.