Острая проблема юридической ответственности, когда ИИ наносит ущерб
Проблема пробела в юридической ответственности, когда искусственный интеллект (ИИ) наносит ущерб, является острой проблемой.
Министерство юстиции только что обнародовало Документы об экспертизе проекта постановления правительства, детализирующего некоторые статьи и меры по реализации Закона об искусственном интеллекте.
В проекте представления Министерство науки и технологий сообщило, что практика внедрения ИИ может привести ко многим проблемам, таким как этические риски, алгоритмические предвзятости, нарушение конфиденциальности, защита персональных данных, коммерческая тайна и дискриминация в применении ИИ; отсутствие механизма классификации и контроля рисков в системе ИИ; отсутствие механизма проверки, лицензирования и надзора за системами ИИ, особенно системами ИИ с высоким риском; трудности с установлением ответственности, когда система ИИ наносит ущерб; отсутствие эффективного механизма координации в построении и совместном использовании общей вычислительной инфраструктуры для ИИ;...
Все это создает большие барьеры для исследований, разработок, внедрения и использования систем искусственного интеллекта во Вьетнаме.
Органы власти выявили ряд типичных проблем, таких как:
Несоответствия в управлении, эксплуатации и защите данных - основного ресурса для ИИ: Резолюция 57-NQ/TW четко указала, что необходимо "сделать данные основным производственным материалом" и "развитие экономики данных, рынка данных".
Однако практика сбора, обработки, обмена и использования данных для обучения моделей ИИ сталкивается со многими трудностями. Действующие правила защиты персональных данных, хотя и существуют, но недостаточно детализированы для решения конкретных задач ИИ (например, сводные данные, анонимные данные, право на объяснение). Подключение и обмен данными между национальными базами данных, отраслевыми базами данных по-прежнему медленные, не отвечающие требованиям развития крупных систем ИИ.
Примечательно проблема пробела в юридической ответственности, когда ИИ наносит ущерб: это одна из самых болезненных юридических проблем на практике. Когда система ИИ наносит ущерб (например, беспилотные автомобили вызывают аварии, программное обеспечение для медицинской диагностики дает неверные результаты, кредитная система автоматически отказывается от кредитования дискриминационным образом), кто будет нести ответственность? Разработчик, производитель, пользователь или сама система ИИ? Действующее гражданское и уголовное законодательство не имеет удовлетворительного ответа на эти ситуации. Это вызывает панику у потребителей и риски для бизнеса.
Кроме того, это вызов национальной безопасности, общественного порядка и моральных ценностей: развитие ИИ создает очень острые не традиционные угрозы безопасности. Глубокие технологии злоупотребляются для создания ложной информации, клеветы, мошенничества или создания политической и социальной нестабильности,...
Поэтому, по данным Министерства науки и технологий, необходимо разработать подробные положения, регулирующие исполнение Закона об искусственном интеллекте, создавая прочную основу для управления и содействия исследовательской деятельности, разработке, внедрению и использованию искусственного интеллекта во Вьетнаме.
Наличие всеобъемлющей правовой системы станет рычагом, который поможет Вьетнаму преодолеть вызовы, построить динамичную экономику искусственного интеллекта и утвердить позицию страны, обладающей технологической автономией.
Смотрите оригинал здесь