З 2 лютого 2025 року діють статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів

11 Лютого 2025   /  AI

ВАЖЛИВА ПОПЕРЕДЖЕННЯ – З 2 лютого набувають чинності статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів. Багато компаній в ЄС ще не вжили необхідних заходів – ось основні моменти.

ai law

З 2 лютого 2025 року набувають чинності перші положення Регламенту про штучний інтелект (AI Act), спрямовані на підвищення безпеки та регулювання ринку штучного інтелекту в Європейському Союзі.

Ключові зміни включають

  • Заборонені практики – заборона на використання та маркетинг або розміщення на ринку систем штучного інтелекту, які відповідають критеріям заборонених практик. Приклади включають системи маніпуляцій, які використовують людські вразливості, системи соціальних оцінок і системи, які аналізують емоції на робочому місці або в навчанні. Порушення цих правил тягне за собою великі фінансові санкції – до 35 мільйонів євро або 7% річного глобального обороту компанії.
  • Зобов’язання щодо ШІ-грамотності. Роботодавці повинні забезпечити належну підготовку та обізнаність працівників у сфері АІ, щоб вони могли безпечно використовувати системи штучного інтелекту на роботі. Недостатня підготовка в галузі АІ може призвести до недотримання вимог законодавства та підвищити ризик неналежного використання систем АІ. Що стосується грамотності в галузі АІ, варто також переконатися, що в компанії впроваджена політика використання АІ. Як це можна зробити?

Читайте в статтях:

Політика використання АІ в компанії може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, способи реагування на інциденти та призначення особи, відповідальної за ефективне впровадження та використання АІ в організації (AI Ambassador).

 

Важливість освіти у сфері штучного інтелекту (стаття 4 Закону про штучний інтелект)

Поінформованість і знання про штучний інтелект – це не лише законодавча вимога, а й стратегічна необхідність для організацій. Стаття 4 Закону про штучний інтелект вимагає від компаній впроваджувати навчальні програми, адаптовані до знань, ролі та досвіду працівників.

«Постачальники та користувачі систем штучного інтелекту повинні вживати заходів для забезпечення, наскільки це можливо, належного рівня компетентності в галузі штучного інтелекту серед свого персоналу та інших осіб, залучених до експлуатації та використання систем штучного інтелекту від їхнього імені, беручи до уваги їхні технічні знання, досвід, освіту та підготовку, а також контекст, у якому системи штучного інтелекту будуть використовуватися, і беручи до уваги осіб або групи осіб, проти яких системи штучного інтелекту будуть застосовуватися».

Бездіяльність у цьому відношенні тягне за собою серйозні наслідки, зокрема

  • Ризик порушення законодавства про захист даних і приватного життя.
  • Підвищення ймовірності юридичних порушень і фінансових санкцій.

Окрім дотримання нормативних вимог, освіта в галузі штучного інтелекту допомагає сформувати культуру відповідального використання технологій і мінімізувати потенційні операційні ризики.

Де шукати рекомендації?

Стандарт ISO/IEC 42001 для системи управління штучним інтелектом може допомогти. При розгляді відповідних компетенцій тих, хто має справу зі штучним інтелектом в організації, стандарт вказує, наприклад, на наступне:

  • наставництво
  • навчання
  • переведення працівників на відповідні завдання в організації на основі аналізу їхніх компетенцій.

При цьому відповідні ролі або сфери компетенції повинні стосуватися, наприклад, таких питань:

  • нагляд за системою штучного інтелекту
  • безпека
  • захист
  • конфіденційності.

LLM security

Заборонені методи застосування штучного інтелекту (стаття 5 Закону про штучний інтелект)

Закон про штучний інтелект забороняє використання певних систем штучного інтелекту, які можуть призвести до серйозних ризиків для громадськості. Постачальники та компанії, які використовують ШІ, повинні гарантувати, що вони не беруть прямої чи опосередкованої участі в його розробці або впровадженні. Серед іншого, AI Act перераховує конкретні заборонені практики, які вважаються особливо небезпечними. До них належать

  • Підсвідомі або маніпулятивні методи – системи штучного інтелекту, які підсвідомо змінюють поведінку користувача так, щоб він прийняв рішення, яке в іншому випадку не прийняв би.
  • Використання вразливостей людини – системи, які використовують інвалідність, соціальне чи економічне становище людини.
  • Соціальний скоринг – системи, які оцінюють громадян і надають їм певні права на основі їхньої поведінки.
  • Оцінка кримінальних ризиків – системи, які створюють профілі осіб та оцінюють їхні індивідуальні характеристики без законних на те підстав.
  • Створення баз даних зображень облич – нецільове отримання зображень з інтернету або міських камер спостереження для створення систем розпізнавання облич.
  • Аналіз емоцій на робочому місці або в навчанні – системи ШІ, які аналізують емоції співробітників або студентів.
  • Біометрична категоризація конфіденційних даних – використання біометрії для вилучення інформації про расу, політичні погляди тощо.
  • Віддалена біометрична ідентифікація в режимі реального часу – використання систем розпізнавання облич у громадських місцях для забезпечення правопорядку.

Де шукати рекомендації?

  • Проєкт керівних принципів щодо заборонених практик штучного інтелекту (ШІ) – 4 лютого 2025 року. Комісія опублікувала керівні принципи щодо заборонених практик штучного інтелекту (ШІ), які мають на меті забезпечити послідовне, ефективне та однакове застосування Закону про ШІ на всій території ЄС.

Важливі дедлайни:

  • З 2 лютого 2025 року. – Глава II (заборонені практики)
  • З 2 серпня 2025 року. – Глава V (моделі загального призначення), Глава XII (Штрафи) без статті 101
  • З 2 серпня 2026 року. – Стаття 6(2) та Додаток III (схеми з високим ступенем ризику), Глава IV (зобов’язання щодо прозорості)
  • З 2 серпня 2027 року – Стаття 6(1) (схеми з високим ступенем ризику) та відповідні зобов’язання

Ключові уроки для компаній:

  • Дотримання статей 1-5 Закону про штучний інтелект є обов’язковим і не може бути проігнороване.
  • Навчання з питаньштучного інтелекту є ключовим для уникнення помилок через необізнаність працівників, а також потенційної відповідальності компанії.
  • Проведення аудиту постачальників технологій необхідне для забезпечення відповідності систем АІ вимогам законодавства.
  • Впровадити політику використання ШІ – створити чітку документацію для упорядкування ризиків. Політика може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, порядок реагування на інциденти, а також призначення особи, відповідальної за нагляд (AI Ambassador).
  • Розробка інструментів ШІ на законних підставах – компанії, що розробляють інструменти ШІ, повинні враховувати правові та етичні аспекти на кожному етапі розробки. Це включає, але не обмежується аналізом законності цілей системи, законності баз даних, кібербезпеки та тестування системи. Важливо, щоб процес розробки систем штучного інтелекту відповідав принципам конфіденційності за задумом і конфіденційності за замовчуванням RODO – Як розробляти інструменти штучного інтелекту легально?

Обов’язково ознайомтеся з цими джерелами:

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Напишіть нашому експерту

Матеуш Боркевич

КЕРУЮЧИЙ ПАРТНЕР, АДВОКАТ

+48 663 683 888 Контакти

Статті в цій категорії

DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?

AI

більше
DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?

І «Оскар» отримує… Ел Ел Броуді

AI

більше
І «Оскар» отримує… Ел Ел Броуді

Новий указ президента Трампа

AI

більше
Новий указ президента Трампа

Не працює GPT-чат. Тисячі запитів від користувачів

AI

більше
Не працює GPT-чат. Тисячі запитів від користувачів

Stargate Project – нова ера інфраструктури штучного інтелекту в США

AI

більше
Stargate Project – нова ера інфраструктури штучного інтелекту в США
більше

Контакти

Маєте запитання?zobacz telefon+48 570 913 713
zobacz e-mail

Офіс у Варшаві

03-737 Варшава

(Прес-центр Koneser - Spaces)

pl. Konesera 12 lok. 119

google maps

Офіс у Вроцлаві

53-659 Вроцлав

(Кворум D)

Генерала Владислава Сікорського 26

google maps

Привіт, користувачу,
ти вже підписаний на розсилку?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten