З 2 лютого 2025 року діють статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів
11 Лютого 2025 / AI
ВАЖЛИВА ПОПЕРЕДЖЕННЯ – З 2 лютого набувають чинності статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів. Багато компаній в ЄС ще не вжили необхідних заходів – ось основні моменти.
З 2 лютого 2025 року набувають чинності перші положення Регламенту про штучний інтелект (AI Act), спрямовані на підвищення безпеки та регулювання ринку штучного інтелекту в Європейському Союзі.
Ключові зміни включають
- Заборонені практики – заборона на використання та маркетинг або розміщення на ринку систем штучного інтелекту, які відповідають критеріям заборонених практик. Приклади включають системи маніпуляцій, які використовують людські вразливості, системи соціальних оцінок і системи, які аналізують емоції на робочому місці або в навчанні. Порушення цих правил тягне за собою великі фінансові санкції – до 35 мільйонів євро або 7% річного глобального обороту компанії.
- Зобов’язання щодо ШІ-грамотності. Роботодавці повинні забезпечити належну підготовку та обізнаність працівників у сфері АІ, щоб вони могли безпечно використовувати системи штучного інтелекту на роботі. Недостатня підготовка в галузі АІ може призвести до недотримання вимог законодавства та підвищити ризик неналежного використання систем АІ. Що стосується грамотності в галузі АІ, варто також переконатися, що в компанії впроваджена політика використання АІ. Як це можна зробити?
Читайте в статтях:
- Що повинна містити політика використання АІ-систем?
- Штучний інтелект – що це таке (з юридичної точки зору) і як з ним борються у світі
Політика використання АІ в компанії може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, способи реагування на інциденти та призначення особи, відповідальної за ефективне впровадження та використання АІ в організації (AI Ambassador).
Важливість освіти у сфері штучного інтелекту (стаття 4 Закону про штучний інтелект)
Поінформованість і знання про штучний інтелект – це не лише законодавча вимога, а й стратегічна необхідність для організацій. Стаття 4 Закону про штучний інтелект вимагає від компаній впроваджувати навчальні програми, адаптовані до знань, ролі та досвіду працівників.
«Постачальники та користувачі систем штучного інтелекту повинні вживати заходів для забезпечення, наскільки це можливо, належного рівня компетентності в галузі штучного інтелекту серед свого персоналу та інших осіб, залучених до експлуатації та використання систем штучного інтелекту від їхнього імені, беручи до уваги їхні технічні знання, досвід, освіту та підготовку, а також контекст, у якому системи штучного інтелекту будуть використовуватися, і беручи до уваги осіб або групи осіб, проти яких системи штучного інтелекту будуть застосовуватися».
Бездіяльність у цьому відношенні тягне за собою серйозні наслідки, зокрема
- Ризик порушення законодавства про захист даних і приватного життя.
- Підвищення ймовірності юридичних порушень і фінансових санкцій.
Окрім дотримання нормативних вимог, освіта в галузі штучного інтелекту допомагає сформувати культуру відповідального використання технологій і мінімізувати потенційні операційні ризики.
Де шукати рекомендації?
Стандарт ISO/IEC 42001 для системи управління штучним інтелектом може допомогти. При розгляді відповідних компетенцій тих, хто має справу зі штучним інтелектом в організації, стандарт вказує, наприклад, на наступне:
- наставництво
- навчання
- переведення працівників на відповідні завдання в організації на основі аналізу їхніх компетенцій.
При цьому відповідні ролі або сфери компетенції повинні стосуватися, наприклад, таких питань:
- нагляд за системою штучного інтелекту
- безпека
- захист
- конфіденційності.
Заборонені методи застосування штучного інтелекту (стаття 5 Закону про штучний інтелект)
Закон про штучний інтелект забороняє використання певних систем штучного інтелекту, які можуть призвести до серйозних ризиків для громадськості. Постачальники та компанії, які використовують ШІ, повинні гарантувати, що вони не беруть прямої чи опосередкованої участі в його розробці або впровадженні. Серед іншого, AI Act перераховує конкретні заборонені практики, які вважаються особливо небезпечними. До них належать
- Підсвідомі або маніпулятивні методи – системи штучного інтелекту, які підсвідомо змінюють поведінку користувача так, щоб він прийняв рішення, яке в іншому випадку не прийняв би.
- Використання вразливостей людини – системи, які використовують інвалідність, соціальне чи економічне становище людини.
- Соціальний скоринг – системи, які оцінюють громадян і надають їм певні права на основі їхньої поведінки.
- Оцінка кримінальних ризиків – системи, які створюють профілі осіб та оцінюють їхні індивідуальні характеристики без законних на те підстав.
- Створення баз даних зображень облич – нецільове отримання зображень з інтернету або міських камер спостереження для створення систем розпізнавання облич.
- Аналіз емоцій на робочому місці або в навчанні – системи ШІ, які аналізують емоції співробітників або студентів.
- Біометрична категоризація конфіденційних даних – використання біометрії для вилучення інформації про расу, політичні погляди тощо.
- Віддалена біометрична ідентифікація в режимі реального часу – використання систем розпізнавання облич у громадських місцях для забезпечення правопорядку.
Де шукати рекомендації?
- Проєкт керівних принципів щодо заборонених практик штучного інтелекту (ШІ) – 4 лютого 2025 року. Комісія опублікувала керівні принципи щодо заборонених практик штучного інтелекту (ШІ), які мають на меті забезпечити послідовне, ефективне та однакове застосування Закону про ШІ на всій території ЄС.
Важливі дедлайни:
- З 2 лютого 2025 року. – Глава II (заборонені практики)
- З 2 серпня 2025 року. – Глава V (моделі загального призначення), Глава XII (Штрафи) без статті 101
- З 2 серпня 2026 року. – Стаття 6(2) та Додаток III (схеми з високим ступенем ризику), Глава IV (зобов’язання щодо прозорості)
- З 2 серпня 2027 року – Стаття 6(1) (схеми з високим ступенем ризику) та відповідні зобов’язання
Ключові уроки для компаній:
- Дотримання статей 1-5 Закону про штучний інтелект є обов’язковим і не може бути проігнороване.
- Навчання з питаньштучного інтелекту є ключовим для уникнення помилок через необізнаність працівників, а також потенційної відповідальності компанії.
- Проведення аудиту постачальників технологій необхідне для забезпечення відповідності систем АІ вимогам законодавства.
- Впровадити політику використання ШІ – створити чітку документацію для упорядкування ризиків. Політика може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, порядок реагування на інциденти, а також призначення особи, відповідальної за нагляд (AI Ambassador).
- Розробка інструментів ШІ на законних підставах – компанії, що розробляють інструменти ШІ, повинні враховувати правові та етичні аспекти на кожному етапі розробки. Це включає, але не обмежується аналізом законності цілей системи, законності баз даних, кібербезпеки та тестування системи. Важливо, щоб процес розробки систем штучного інтелекту відповідав принципам конфіденційності за задумом і конфіденційності за замовчуванням RODO – Як розробляти інструменти штучного інтелекту легально?
Обов’язково ознайомтеся з цими джерелами:
- https://eur-lex.europa.eu/legal-content/PL/TXT/?uri=CELEX:32024R1689
- https://digital-strategy.ec.europa.eu/pl/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act
- https://digital-strategy.ec.europa.eu/en/events/third-ai-pact-webinar-ai-literacy
- https://www.gov.pl/attachment/9bb34f05-037d-4e71-bb7a-6d5ace419eeb
Potrzebujesz pomocy w tym temacie?
Напишіть нашому експерту
Статті в цій категорії
DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?
DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?Не працює GPT-чат. Тисячі запитів від користувачів
Не працює GPT-чат. Тисячі запитів від користувачівStargate Project – нова ера інфраструктури штучного інтелекту в США
Stargate Project – нова ера інфраструктури штучного інтелекту в США