Со 2 февраля 2025 года действуют статьи 1-5 Закона об искусственном интеллекте, несоблюдение которых может привести к крупным штрафам

11 февраля 2025   /  AI

🚨 ВАЖНОЕ УВЕДОМЛЕНИЕ — Со 2 февраля вступают в силу статьи 1-5 Закона об искусственном интеллекте, несоблюдение которых может повлечь за собой крупные штрафы. Многие компании в ЕС еще не приняли необходимые меры — вот основные моменты.

ai law

Со 2 февраля 2025 года вступают в силу первые положения Постановления об искусственном интеллекте (AI Act), направленные на повышение безопасности и регулирование рынка искусственного интеллекта в Европейском союзе.

Основные изменения включают:

  • Запрещенные практики — запрет на использование, маркетинг или размещение на рынке систем ИИ, которые соответствуют критериям запрещенных практик. В качестве примера можно привести манипуляционные системы, использующие уязвимости человека, системы социального скоринга и системы, анализирующие эмоции на рабочем месте или в сфере образования. Нарушение этих правил влечет за собой крупные финансовые штрафы — до 35 млн евро или 7 % годового мирового оборота компании.
  • Обязательство по повышению грамотности в области ИИ. Работодатели должны обеспечить надлежащее обучение сотрудников и их осведомленность об ИИ, чтобы они могли безопасно использовать системы ИИ на работе. Отсутствие подготовки по ИИ может привести к несоблюдению требований и повысить риск использования систем ИИ не по назначению. Что касается грамотности в области ИИ, то стоит также убедиться в том, что в компании реализуется политика использования ИИ. Как это можно сделать?

См. статьи:

Политика использования ИИ в компании может включать, например, четкие процедуры, правила использования ИИ, условия выпуска систем, порядок действий в случае инцидентов и назначение лица, ответственного за эффективное внедрение и использование ИИ в организации (AI Ambassador).

 

Важность образования в области ИИ (статья 4 Закона об ИИ)

Осведомленность и знания об ИИ — это не только требование закона, но и стратегическая необходимость для организаций. Статья 4 Закона об ИИ требует, чтобы компании внедряли программы обучения с учетом знаний, роли и опыта сотрудников.

«Поставщики и пользователи систем ИИ должны принимать меры для обеспечения, насколько это возможно, надлежащего уровня компетентности в области ИИ среди своих сотрудников и других лиц, участвующих в эксплуатации и использовании систем ИИ от их имени, с учетом их технических знаний, опыта, образования и подготовки, а также контекста, в котором будут использоваться системы ИИ, и с учетом лиц или групп лиц, против которых будут использоваться системы ИИ».

Бездействие в этом отношении влечет за собой серьезные последствия, в том числе:

  • Риск нарушения правил защиты данных и конфиденциальности.
  • Повышение вероятности нарушения закона и финансовых штрафов.

Помимо соблюдения нормативных требований, обучение в области ИИ помогает сформировать культуру ответственного использования технологий и минимизировать потенциальные операционные риски.

Где искать руководство?

В этом может помочь стандарт ISO/IEC 42001 для системы управления искусственным интеллектом. Рассматривая соответствующие компетенции тех, кто занимается ИИ в организации, стандарт указывает, например, на следующее:

  • наставничество
  • обучение
  • перевод сотрудников на соответствующие задачи в организации на основе анализа их компетенций.

В то же время соответствующие роли или области компетенции должны включать, например:

  • надзор за системами искусственного интеллекта
  • безопасность
  • защита
  • конфиденциальность.

LLM security

Запрещенные практики ИИ (статья 5 Закона об ИИ)

Постановление Закона об искусственном интеллекте запрещает использование определенных систем искусственного интеллекта, которые могут привести к серьезным рискам для общества. Поставщики и компании, использующие ИИ, должны гарантировать, что они не принимают прямого или косвенного участия в его разработке или внедрении. Помимо прочего, в Законе об искусственном интеллекте перечислены конкретные запрещенные действия, которые считаются особенно опасными. К ним относятся:

  • Подсознательные или манипулятивные методы — системы ИИ, которые подсознательно изменяют поведение пользователя, чтобы он принял решение, которое в противном случае не принял бы.
  • Использование уязвимостей человека — системы, использующие в своих интересах его инвалидность, социальное или экономическое положение.
  • Социальный скоринг — системы, оценивающие граждан и предоставляющие им определенные права на основе их поведения.
  • Оценка криминальных рисков — системы, составляющие профиль человека и оценивающие его индивидуальные особенности без законных оснований.
  • Создание баз данных изображений лиц — нецелевое получение изображений из Интернета или городского видеонаблюдения для создания систем распознавания лиц.
  • Анализ эмоций на рабочем месте или в сфере образования — системы искусственного интеллекта, анализирующие эмоции сотрудников или студентов.
  • Биометрическая категоризация конфиденциальных данных — использование биометрии для извлечения информации о расе, политических взглядах и т. д.
  • Удаленная биометрическая идентификация в реальном времени — использование систем распознавания лиц в общественных местах для правоохранительных органов.

Где искать руководство?

  • Проект руководства по запрещенным практикам искусственного интеллекта (ИИ) — 4 февраля 2025 г. Комиссия опубликовала руководство по запрещенным практикам искусственного интеллекта (ИИ), которое призвано обеспечить последовательное, эффективное и единообразное применение Закона об ИИ на всей территории ЕС.

Важные сроки:

  • С 2 февраля 2025 года. — Глава II (запрещенные практики)
  • С 2 августа 2025 г. — Глава V (модели общего назначения), Глава XII (Штрафы) без статьи 101
  • С 2 августа 2026 года. — Статья 6(2) и Приложение III (схемы повышенного риска), Глава IV (обязательства по обеспечению прозрачности)
  • Со 2 августа 2027 г. — Статья 6(1) (схемы повышенного риска) и соответствующие обязательства

Ключевые уроки для компаний:

  • Соблюдение статей 1-5 Закона об ИИ является обязательным и не может быть проигнорировано.
  • Обучение по вопросам ИИ имеет ключевое значение для предотвращения ошибок, связанных с недостаточной осведомленностью сотрудников, а также потенциальной ответственности компании.
  • Проведение аудита поставщиков технологий необходимо для обеспечения соответствия систем ИИ требованиям закона.
  • Внедрение политики использования ИИ — четкая документация для организации рисков. Политика может включать, например, четкие процедуры, правила использования ИИ, условия выпуска систем, порядок действий в случае инцидентов и назначение лица, ответственного за надзор (AI Ambassador).
  • Разработка инструментов ИИ на законных основаниях — компании, разрабатывающие инструменты ИИ, должны учитывать правовые и этические аспекты на каждом этапе разработки. Это включает, в частности, анализ законности целей системы, законности баз данных, кибербезопасности и тестирования системы. Важно, чтобы процесс разработки систем искусственного интеллекта соответствовал принципам конфиденциальности по замыслу и конфиденциальности по умолчанию RODO — Как разработать инструменты искусственного интеллекта с юридической точки зрения?

Обязательно ознакомьтесь с этими источниками:

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Напишите нашему эксперту

Матеуш Боркевич

УПРАВЛЯЮЩИЙ ПАРТНЕР, АДВОКАТ

+48 663 683 888 Связаться с

Статьи в этой категории

DeepSeek — китайский ИИ с открытым исходным кодом. Есть ли у Гонконга шанс победить OpenAI?

AI

подробнее
DeepSeek — китайский ИИ с открытым исходным кодом. Есть ли у Гонконга шанс победить OpenAI?

И «Оскар» получает… Э. И. Броуди

AI

подробнее
И «Оскар» получает… Э. И. Броуди

Новый указ президента Трампа

AI

подробнее
Новый указ президента Трампа

GPT-чат не работает. Тысячи запросов от пользователей

AI

подробнее
GPT-чат не работает. Тысячи запросов от пользователей

Проект «Звездные врата» — новая эра инфраструктуры искусственного интеллекта в США

AI

подробнее
Проект «Звездные врата» — новая эра инфраструктуры искусственного интеллекта в США
подробнее

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten