Домінування CUDA та NVIDIA – невидима інфраструктура штучного інтелекту, що виходить за межі регулювання?

У квітні 2025 року ринкова капіталізація NVIDIA перевищила 2,79 трлн доларів, а її акції зросли на понад 170% за рік, що дозволило компанії стати третьою за вартістю публічною компанією у світі після Microsoft і Apple та досягти 90% частки ринку чіпів для штучного інтелекту у 2024 році. Хоча ще кілька років тому NVIDIA асоціювалася переважно з графічними картами для геймерів, сьогодні вона є основою глобальної цифрової економіки, заснованої на штучному інтелекті. Її графічні процесори, зокрема серія H100, є не тільки стратегічним активом для центрів обробки даних, але й основним рушієм розвитку базових моделей, включаючи найсучасніші моделі загального призначення, такі як ChatGPT.

NVIDIA

CUDA – штучний інтелект, що змінює правила гри

В основі перетворення NVIDIA на світового лідера в галузі штучного інтелекту лежить CUDA (Compute Unified Device Architecture) – запатентована платформа програмування, яка дозволяє повною мірою використовувати потужність графічних процесорів для наукових, промислових і комерційних застосувань. CUDA – це не просто технологічний рівень, а критично важлива інфраструктура для масштабованості та ефективності моделей штучного інтелекту.

Недарма цю платформу іноді називають «невидимою операційною системою штучного інтелекту». Вона є ключовим елементом життєвого циклу систем на основі штучного інтелекту: від навчання та валідації до впровадження моделей у реальні додатки. На практиці саме CUDA визначає, як швидко і в яких масштабах можна розробляти сучасні системи штучного інтелекту.

GPU проти CPU – чому графічні процесори мають вирішальне значення для штучного інтелекту?

У контексті навчання великих мовних моделей та обробки даних у величезних обсягах класичні процесори (CPU) стають недостатніми. Ключові особливості графічних процесорів, особливо від NVIDIA, дають їм перевагу в середовищах штучного інтелекту:

  • Паралельна архітектура – графічні процесори, такі як NVIDIA H100, містять тисячі ядер, що забезпечують одночасну обробку великих наборів даних, що ідеально підходить для матричних операцій, які використовуються в нейронних мережах.
  • Енергоефективність – графічні чіпи нового покоління забезпечують до 25 разів вищу енергоефективність порівняно з попередніми рішеннями, що означає нижчі експлуатаційні витрати та більшу масштабованість.
  • Пам’ять з високою пропускною здатністю – такі технології, як HBM2 (High Bandwidth Memory), забезпечують блискавичну обробку терабайтів даних, що є необхідним для критично важливих додатків, які працюють у режимі реального часу.

NVIDIA

Закрита екосистема CUDA – одночасно перевага і недолік

Як закрите рішення, CUDA забезпечує значне підвищення продуктивності – до 1000 разів за останнє десятиліття. Однак той факт, що ця технологія контролюється однією компанією, викликає занепокоєння:

  • Технологічна домінація – понад 80% моделей ШІ, включаючи всі основні базові моделі, навчаються в середовищі CUDA.
  • Відсутність альтернатив – відкриті рішення, такі як AMD ROCm та Intel oneAPI, мають менше 10% частки ринку, головним чином через слабшу оптимізацію та відсутність повної сумісності з популярними бібліотеками ШІ.
  • Мережевий ефект – чим більше розробників використовують CUDA, тим складніше перейти на конкурентні рішення – це створює закриту екосистему, яку ринку важко врівноважити.

Інфраструктура ШІ та європейське законодавство: прогалина в Законі про ШІ?

Закон про ШІ (EU 2024/1689) – це перший комплексний законодавчий акт, що регулює використання штучного інтелекту в Європі. Однак він зосереджується переважно на алгоритмічному рівні – на даних для навчання, прозорості моделей та ризиках їх використання.

Водночас обчислювальний рівень – інфраструктура, без якої ці системи не можуть існувати – залишається поза його прямою сферою застосування.

CUDA не класифікується як самостійна система ШІ, але її вплив на відповідність, можливість аудиту та безпеку систем ШІ є незаперечним. Без можливості перевірити функціонування інфраструктури – як з точки зору апаратного забезпечення (графічні процесори «чорного ящика»), так і закритого програмного забезпечення – важко говорити про повне впровадження принципів прозорості та підзвітності.

Правові наслідки – монополія, залежність, відсутність аудиту

Відсутність регулювання в галузі обчислювальної інфраструктури порушує конкретні правові та системні питання:

  • Обмежена можливість аудиту – закритий характер CUDA ускладнює дотримання вимог статті 13 Закону про ШІ щодо прозорості та перевірюваності.
  • Ризик монополії – підвищення цін на графічні процесори на понад 300 % у період з 2020 по 2024 рік може свідчити про зловживання домінуючим становищем (стаття 102 TFEU).
  • Відсутність технологічного суверенітету ЄС – аж 98 % європейських центрів обробки даних ШІ використовують технологію NVIDIA, що викликає серйозні питання щодо незалежності інфраструктури та її стійкості до зовнішніх збурень.

NVIDIA

Чи можлива підзвітність без прозорості?

Закон про ШІ встановлює ланцюгову відповідальність – обов’язки покладаються не тільки на розробників систем, але й на користувачів та дистриб’юторів. Однак ринкова реальність показує, що кінцеві користувачі не мають реальної можливості оцінити інфраструктуру CUDA, яку вони використовують опосередковано. Не існує технічних стандартів або вимог, що розкривають деталі функціонування закритих платформ.

Рекомендації для регуляторних органів та галузі ШІ

Хоча CUDA офіційно не класифікується як система ШІ, її слід визнати компонентом, що впливає на відповідність вимогам, можливість аудиту та безпеку. Рекомендації:

  • Керівні принципи ЄК та Офіс ШІ необхідно розробити правові тлумачення, що враховують вплив обчислювальних платформ на системи ШІ, як це зроблено у випадку хмарних обчислень та GDPR.
  • Сприяння технологічній нейтральності – програми ЄС з підтримки технологій (наприклад, «Цифрова Європа») повинні надавати перевагу відкритим, сумісним технологіям.
  • Перегляд сфери застосування Закону про ШІ – у довгостроковій перспективі варто розглянути можливість оновлення Закону про ШІ, щоб він також охоплював технологічну інфраструктуру як фактор, що визначає безпеку та відповідність вимогам систем ШІ.

CUDA – технологічне диво чи юридичний ризик?

CUDA, безсумнівно, є технологією, яка забезпечила безпрецедентний прогрес у галузі ШІ. Однак її закрита структура, домінування на ринку та відсутність регуляторного нагляду можуть призвести до того, що відповідальність за системи ШІ стане ілюзорною. Для ЄС, який прагне до прозорості, етики та цифрового суверенітету, це виклик, який більше не можна ігнорувати.

* * *

СТ. 13 Закон про ШІ

Прозорість та обмін інформацією з користувачами

  1. Системи ШІ з високим рівнем ризику повинні бути спроектовані та розроблені таким чином, щоб забезпечити достатню прозорість їх роботи, що дозволить користувачам інтерпретувати результати роботи системи та використовувати їх належним чином. Необхідно забезпечити відповідний тип та рівень прозорості, щоб постачальник та користувач могли виконувати свої відповідні зобов’язання, встановлені в розділі 3.
  2. Системи ШІ з високим рівнем ризику повинні супроводжуватися посібником користувача у відповідному цифровому або іншому форматі, що містить стислу, повну, точну та чітку інформацію, яка є актуальною, доступною та зрозумілою для користувачів.
  3. Посібник користувача повинен містити принаймні таку інформацію:
  4. (a) ідентифікаційні дані та контактні відомості постачальника та, у разі необхідності, його уповноваженого представника;
  5. (b) характеристики, можливості та обмеження роботи системи ШІ з високим рівнем ризику, включаючи:

(i) його передбачуване використання;

(ii) рівень точності, включаючи його показники, рівень надійності та кібербезпеки, зазначені в статті 15, щодо яких система ШІ з високим рівнем ризику була випробувана та валідована і які можна очікувати, а також будь-які відомі та передбачувані обставини, які можуть вплинути на ці очікувані рівні точності, надійності та кібербезпеки;

(iii) будь-які відомі або передбачувані обставини, пов’язані з використанням системи ШІ з високим рівнем ризику відповідно до її призначення або за обставин, що можуть бути передбачені з розумною ймовірністю, які можуть спричинити ризик для здоров’я та безпеки або основних прав, як зазначено в статті 9(2);

(iv) у разі застосування, технічні можливості та характеристики системи ШІ з високим рівнем ризику для надання інформації, що має значення для пояснення її функціонування;

(v) у разі наявності, ефективність системи стосовно конкретних осіб або груп осіб, для яких вона призначена; (vi) у разі наявності, специфікації щодо вхідних даних або будь-якої іншої відповідної інформації щодо наборів даних для навчання, валідації та випробування, з урахуванням передбачуваного використання системи ШІ з високим рівнем ризику; (vii) у разі наявності, інформація, що дозволяє користувачам інтерпретувати результати системи ШІ з високим рівнем ризику та використовувати ці результати належним чином;

  1. (c) зміни в системі ШІ з високим рівнем ризику та її експлуатаційних характеристиках, які були заздалегідь заплановані постачальником на момент первинної оцінки відповідності;
  2. (d) заходи людського нагляду, зазначені в статті 14, включаючи технічні заходи, введені для полегшення інтерпретації результатів систем ШІ з високим рівнем ризику користувачами;
  3. e) необхідні обчислювальні та апаратні ресурси, очікуваний життєвий цикл системи ШІ з високим рівнем ризику та будь-які необхідні заходи з технічного обслуговування та ремонту, включаючи їх частоту, для забезпечення належного функціонування цієї системи ШІ, включаючи оновлення програмного забезпечення;
  4. f) у відповідних випадках, опис механізмів, включених до системи ШІ з високим рівнем ризику, які дозволяють суб’єктам, що її використовують, правильно збирати, зберігати та інтерпретувати журнали подій відповідно до статті 12.

СТ. 12 TFEU

Заборона зловживання домінуючим становищем

Будь-яке зловживання одним або кількома підприємствами домінуючим становищем на внутрішньому ринку або на його значній частині забороняється як таке, що несумісне з внутрішнім ринком, якщо воно може вплинути на торгівлю між державами-членами.

Таке зловживання може, зокрема, полягати в:

  1. a) прямому або непрямому нав’язуванні несправедливих цін купівлі або продажу або інших несправедливих торговельних умов;
  2. b) обмеження виробництва, ринків або технічного розвитку на шкоду споживачам;
  3. c) застосування різних умов до рівноцінних угод з іншими торговельними партнерами, що ставить їх у нерівні умови конкуренції;
  4. d) укладення договорів, які передбачають прийняття іншими сторонами додаткових зобов’язань, які за своєю природою або згідно з торговельною практикою не мають відношення до предмета таких договорів.

Види криптоактивів, що регулюються MiCA

Регламент MiCA (Markets in Crypto-Assets) є першим законодавчим актом Європейського Союзу, який комплексно регулює права та обов’язки емітентів та постачальників послуг, пов’язаних з криптоактивами. Метою MiCA є забезпечення високого рівня захисту інвесторів, зокрема роздрібних інвесторів, підвищення прозорості ринку криптоактивів та гармонізація правил, що регулюють цей ринок у всій Європейській Союзі. Завдяки MiCA ринок криптоактивів отримує чіткі правила, що сприяє безпеці інвестицій та розвитку галузі.

kryptowaluty kryptoaktywa

Види криптоактивів, що регулюються MiCA

Види криптоактивів, що регулюються MiCA, включають цифрові представлення вартості або прав, що зберігаються в електронному вигляді з використанням технології розподіленого реєстру (DLT) або подібних технологій.

Регламент MiCA розрізняє три основні типи криптоактивів, які відрізняються за своїми характеристиками та рівнем ризику. Це розрізнення є надзвичайно важливим, оскільки визначає регуляторні зобов’язання компаній, що випускають криптоактиви або пропонують їх інвесторам. Завдяки чітким визначенням у MiCA компанії можуть привести свою діяльність у відповідність до законодавчих вимог, а інвестори отримують кращий захист на ринку криптоактивів.

Категорії криптоактивів:

Токени, прив’язані до активів (ART)

Токени, прив’язані до активів (ART), — це криптоактиви, метою яких є підтримка стабільної вартості шляхом прив’язки до іншої вартості, права або їх комбінації, включаючи принаймні одну фіатну валюту.

ART не вважаються токенами електронних грошей (EMT). Ключова відмінність полягає в тому, що вартість ART не може визначатися виключно за допомогою однієї фіатної валюти. Якщо криптоактив базує свою вартість на більш ніж одному показнику або на комбінації активів, включаючи принаймні одну офіційну валюту, він класифікується як ART.

Емітент токена ART зобов’язаний забезпечити його викуп або шляхом виплати готівкою, що не є електронними грошима, що відповідає ринковій вартості активів, пов’язаних з токеном, або шляхом передачі цих активів.

  • MiCA дозволяє певну гнучкість у визначенні міри вартості ART, але викуп повинен бути можливим готівкою або шляхом передачі базового активу.
  • Зокрема, емітент повинен завжди забезпечувати можливість погашення готівкою (крім електронних грошей), номінованою в тій самій офіційній валюті, яка була прийнята на момент продажу токена.

Токени електронних грошей (EMT)

Токени EMT прив’язані до однієї офіційної валюти (наприклад, євро) і служать цифровим еквівалентом традиційних грошей. Їх основною особливістю є гарантоване погашення за номінальною вартістю.

Випускати токени електронних грошей можуть лише кредитні установи або установи електронних грошей. Ці суб’єкти повинні забезпечити, щоб власники токенів могли реалізувати своє право на погашення в будь-який час, за номінальною вартістю та в валюті, до якої прив’язаний токен.

Прикладом такого токена є стабільні монети, прив’язані до євро, які мають на меті підтримувати паритет 1:1 з євро. Згідно з MiCA, емітенти таких токенів повинні відповідати суворим нормативним вимогам, зокрема мати відповідний правовий статус та забезпечувати реальну можливість викупу токенів за їх номінальною вартістю.

Інші криптоактиви

До цієї категорії належать криптовалюти, які не класифікуються як токени, забезпечені активами, такі як біткойн (BTC) та ефіріум (ETH), які не мають механізму стабілізації вартості. До цієї групи також належать токен-утиліти, які надають доступ до послуг або товарів, що пропонуються емітентом.

До цієї категорії також належать токен-утиліти, які надають власникам доступ до конкретних послуг або товарів, що пропонуються емітентом. Такий токен можна порівняти з цифровим ваучером або квитком, що дає право власнику скористатися конкретною послугою або придбати конкретний товар.

kryptowaluty kryptoaktywa MICA

Криптоактиви, виключені з регулювання MiCA

MiCA не охоплює всі цифрові активи. Регламент виключає зі своєї сфери застосування певні категорії цифрових активів, які вже регулюються іншими законодавчими актами ЄС або не відповідають визначенню криптоактивів у значенні MiCA. Зокрема, положення виключають фінансові інструменти та фінансові продукти, що підпадають під дію MiFID II.

Відповідно до статті 2(4) Регламенту, з сфери застосування MiCA також виключаються:

  • депозити, включаючи структуровані депозити,
  • готівка (якщо вона не відповідає визначенню токенів електронних грошей),
  • страхові, пенсійні продукти та схеми.

Незамінні токени (NFT)

Регламент MiCA також не регулює незамінні токени (NFT), за умови, що вони є дійсно унікальними та незамінними. Це стосується, наприклад, цифрових творів мистецтва або унікальних колекційних предметів у комп’ютерних іграх.

Однак важливо зазначити істотну відмінність: якщо криптоактиви випускаються як непідмінні токени в рамках великої серії або колекції, це може вважатися показником їх фактичної підмінності, що призведе до того, що вони підпадатимуть під дію положень MiCA. Крім того, частки унікального та непідмінного криптоактиву не вважаються унікальними та непідмінними, тому вони також підпадатимуть під дію положень MiCA.

Криптоактиви, обмежені внутрішніми мережами

Регламент MiCA також не поширюється на криптоактиви, що використовуються в закритих мережах, такі як бали лояльності або ваучери, які приймаються тільки їх емітентом. Цей виняток застосовується до цифрових активів, які функціонують в обмеженій екосистемі і не призначені для більш широкої торгівлі на ринку.

kryptowaluty kryptoaktywa MICA

Висновки та рекомендації

Ми рекомендуємо вам звернутися до юриста для отримання всебічної юридичної підтримки у визначенні класифікації криптоактивів та забезпеченні дотримання нормативних вимог, що регулюють ринки криптоактивів та фінансових інструментів.

Sójka AI – цифровий охоронець етики та безпеки

У час постійного розвитку технологій штучний інтелект (ШІ) відіграє дедалі важливішу роль у нашому повсякденному житті. Від додатків, що допомагають нам організувати час, до алгоритмів розпізнавання зображень, ШІ набирає популярності, але водночас ставить серйозні виклики. Ці виклики особливо очевидні в таких сферах, як етика, поширення фейкових новин, право та кібербезпека. У відповідь на ці виклики було створено проект Sójka AI, який поєднує етичні межі технологій із зосередженням на безпеці користувачів.

AI

Етичний штучний інтелект – необхідність у цифрову епоху

Інтернет – це простір, що відкриває необмежені можливості, але водночас сповнений загроз. На кожному кроці можна натрапити на токсичний контент, мову ворожнечі чи маніпуляції. Ми також все частіше використовуємо інструменти штучного інтелекту, призначені для допомоги в повсякденному житті. На жаль, ШІ також може становити загрозу, якщо він не розроблений і не контролюється належним чином. Саме тому було створено проект Sójka AI, який виступає охоронцем цифрової етики, захищаючи користувачів від шкідливого контенту.

Чому нам потрібний етичний штучний інтелект?

Перевага штучного інтелекту полягає в його здатності аналізувати величезні обсяги даних за короткий час. Це дозволяє ШІ виявляти та реагувати на проблеми, які часто залишаються поза увагою людини.

Однак без відповідних етичних обмежень такі алгоритми можуть генерувати небезпечний контент або заохочувати неналежну поведінку. Sójka AI є відповіддю на ці загрози, надаючи інструменти для модерації контенту та усунення токсичних і потенційно небезпечних взаємодій.

AI

Bielik AI – смак відповідального штучного інтелекту

Bielik AI – це перший крок до більш відповідальної технології штучного інтелекту в Польщі. Проект отримав визнання за свою здатність аналізувати дані, виявляти загрози та підтримувати етичний розвиток штучного інтелекту. Bielik AI досяг своєї мети завдяки використанню передових алгоритмів, які аналізують дані в етичному контексті, забезпечуючи безпечний і позитивний досвід користувачів в Інтернеті.

Співпраця з громадою

Важливим аспектом Bielik AI була співпраця з користувачами, які допомогли розвинути проект завдяки своєму досвіду та пропозиціям. Такий самий підхід обрали творці Sójka AI, які також покладаються на співпрацю з інтернет-користувачами для створення алгоритму, що ефективно захищатиме користувачів від онлайн-загроз. Посилання на опитування.

Як Bielik AI впливає на розвиток Sójka AI?

Bielik AI послужив натхненням для створення Sójka AI. Завдяки досвіду, отриманому під час створення Bielik, творці Sójka змогли зосередитися на розробці нових технологій, які дозволять ще ефективніше модерувати контент, виявляти шкідливі дії та захищати користувачів від маніпуляцій і небажаного контенту.

LLM security

Що може зробити Sójka AI – цифровий охоронець етики?

Sójka AI – це алгоритм, який діє як цифровий охоронець, видаляючи токсичний контент і захищаючи користувачів від шкідливої інформації. Завдяки своїй вдосконаленій конструкції Sójka може:

  • аналізувати чати та виявляти токсичні наміри – алгоритм здатний розпізнавати, коли онлайн-розмова набуває негативного характеру і користувачі починають використовувати образливі слова або вирази;
  • перевіряти відповіді ШІ та видаляти небезпечний контент – Sójka AI може аналізувати відповіді, згенеровані іншими моделями ШІ, забезпечуючи їх відповідність етичним принципам та відсутність шкідливого контенту;.
  • модерувати контент, захищаючи від ненависті та маніпуляцій — Sójka AI може ефективно модерувати контент у різних просторах, видаляючи контент, що містить ненависть, мову ненависті або маніпуляції;.
  • Забезпечувати психічне благополуччя наймолодших користувачів — Sójka AI — це також інструмент, який приділяє особливу увагу молодим користувачам Інтернету, захищаючи їх від контенту, який може негативно вплинути на їхнє психічне здоров’я.

Практичне застосування Sójka AI

Sójka AI може використовуватися в багатьох сферах, як у бізнесі, так і в повсякденному житті користувачів. Завдяки здатності аналізувати великі масиви даних і швидко реагувати на загрози, його можна використовувати, наприклад, для:

  • модерації онлайн-дискусій – компанії та онлайн-платформи можуть потенційно використовувати Sójka для управління дискусіями та усунення негативного контенту в режимі реального часу;.
  • підтримки освітніх платформ — Sójka AI може використовуватися на освітніх платформах для моніторингу взаємодії учнів, забезпечуючи, щоб вони не стикалися зі шкідливим або невідповідним контентом;.
  • покращення соціальних мереж — завдяки Sójka AI соціальні мережі можуть стати більш дружнім і безпечним місцем для всіх користувачів, особливо для наймолодших;.
  • та багато іншого.

ai law

Правовий контекст та майбутнє етичних моделей ШІ

Проекти на зразок Sójka AI – це лише початок шляху до створення безпечного, етичного та відповідального Інтернету. З кожним роком технології ШІ ставатимуть дедалі складнішими, а їхня роль у нашому житті – дедалі важливішою.

Етичні моделі ШІ в Європейському Союзі – законодавство, практика та напрямки розвитку

Зі стрімким розвитком штучного інтелекту Європейський Союз став світовим лідером у формуванні правових та етичних засад для цієї технології. Такі проекти, як Sójka AI та Bielik AI у Польщі, ілюструють еволюцію від чистої інновації до відповідального впровадження систем, що поважають фундаментальні права, прозорість та безпеку користувачів. В основі цієї трансформації лежить Закон про ШІ – перше у світі комплексне регулювання штучного інтелекту, яке разом з іншими ініціативами створює цілісну екосистему для етичного штучного інтелекту.

Правові засади етичного ШІ в ЄС

Закон про ШІ – класифікація ризиків та зобов’язання

Закон про ШІ, який набрав чинності 1 серпня 2024 року, запроваджує чотирирівневу модель ризиків:

  • неприйнятний ризик (наприклад, системи соціального рейтингування, маніпулятивний ШІ, що використовує вразливість вразливих груп) – повна заборона використання;.
  • високий ризик (наприклад, системи найму, кредитні рейтинги, медична діагностика) – вимагають сертифікації, аудиту та постійного нагляду;.
  • обмежений ризик (наприклад, чат-боти) – обов’язок інформувати користувачів про взаємодію з ШІ;.
  • мінімальний ризик (наприклад, фільтри спаму) – відсутність додаткових правил, окрім загальних етичних принципів.

Приклад: системи модерації контенту, такі як Sójka AI, можуть бути віднесені до систем високого ризику через їхній вплив на свободу вираження поглядів та захист даних. Якщо система ШІ віднесена до цієї категорії, вона повинна відповідати вимогам Закону про ШІ щодо якості даних, прозорості алгоритмів та механізмів оскарження.

Етичні настанови ЄС

У 2019 році Європейська комісія визначила сім основ надійного ШІ:

  1. повага до автономії людини;
  2. технічна та суспільна безпека;
  3. захист приватного життя,
  4. прозорість,
  5. різноманітність та недискримінація,
  6. соціальна відповідальність
  7. та сталий розвиток.

Ці принципи стали основою для Закону про ШІ, особливо в контексті вимоги щодо «орієнтованого на людину» проектування систем.

Ініціативи в ЄС

  • GenAI4EU – програма підтримки впровадження генеративної ШІ в ключових секторах економіки.

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Platforma STEP – nowa era dla AI w Unii Europejskiej

Кроки для підприємств – як створити етичну ШІ відповідно до Закону про ШІ?

1. Картування ризиків та аудит систем

– переконайтеся, що функціональні можливості та цілі є законними, етичними та не створюють можливостей для зловживань. Зважте, як результати роботи системи ШІ можуть бути використані третіми сторонами;

– визначте будь-які вимоги щодо дотримання нормативних вимог (вони можуть відрізнятися залежно від місцезнаходження вашої компанії та цільових ринків) та підтвердьте, що ви здатні їх виконати;

– створіть перелік усіх потенційних ризиків та заходів щодо їх мінімізації стосовно функціональних можливостей та законодавчих вимог;

– проведіть аналіз ризиків у контексті вимог до відповідності, яких ви повинні дотримуватися. Наприклад, якщо система використовуватиме персональні дані як частину навчальної бази даних, проведіть оцінку впливу на захист даних (DPIA). Це допоможе вам зрозуміти масштаб проєкту та виклики, з якими він стикається.

Більше інформації: Як легально розробляти інструменти ШІ?

2. Впровадити управління

  • Створіть команду з етики ШІ, до складу якої увійдуть юристи, інженери та фахівці з дотримання вимог, залежно від ситуації та можливостей.
  • Розробіть політику використання ШІ, яка враховує рекомендації ЄС та особливості галузі. Більше інформації про це ви можете знайти тут:

Co powinna zawierać Polityka wykorzystywania systemów AI?

3. Прозорість та контроль

  • Для систем з високим рівнем ризику:
  • Надайте технічні резюме, що описують логіку, яка лежить в основі ШІ (наприклад, за допомогою інформаційних панелей, таких як Explainable AI Booster). Приклад: https://cloud.google.com/vertex-ai/docs/explainable-ai/overview
  • Введіть обов’язкове затвердження результатів людиною в ключових процесах.

4. Управління даними

  • Використовуйте алгоритми усунення упередженості для усунення упередженості в даних для навчання.

Алгоритми усунення упередженості — це методи, що використовуються в штучному інтелекті (ШІ) та машинному навчанні для усунення або зменшення упередженості в даних, яка може призвести до несправедливих, дискримінаційних або неточних результатів. Упередженість у контексті ШІ означає ненавмисні тенденції в системі, які можуть виникнути в результаті помилок у вхідних даних або в способі навчання моделі ШІ.

  • Проводьте регулярні аудити якості даних, особливо для систем, що використовують чутливі дані (раса, релігія, здоров’я).

5. Сертифікація та відповідність

  • Використовуйте сертифікаційні платформи, розроблені в рамках проєкту CERTAIN, які автоматизують перевірку відповідності Закону про ШІ.
  • Реєструйте системи з високим рівнем ризику в Європейській базі даних ШІ.

6. Навчання та організаційна культура

  • Проводьте освітні програми для співробітників.

AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?

Виклики та майбутнє етичного ШІ в ЄС

Ключові тенденції на найближчі роки:

  1. розвиток ШІ для ESG
  2. регулювання базових моделей – плани розширення регулювання з метою включення вимог до моделей загального призначення (наприклад, Meta Llama 3).
  3. транскордонна співпраця

Підсумок

Підхід ЄС до етичного ШІ, хоч і є складним, але створює унікальну можливість для компаній завоювати довіру клієнтів та конкурентну перевагу. Такі проєкти, як Sójka AI, показують, що поєднання інновацій та відповідальності є можливим, але для цього потрібне стратегічне планування, інвестиції в управління та тісна співпраця з регуляторними органами.

У найближче десятиліття етика стане головним рушієм технологічного прогресу в Європі.

 

Контакти

Маєте запитання?zobacz telefon+48 570 913 713
zobacz e-mail

Офіс у Варшаві

03-737 Варшава

(Прес-центр Koneser - Spaces)

pl. Konesera 12 lok. 119

google maps

Офіс у Вроцлаві

53-659 Вроцлав

(Кворум D)

Генерала Владислава Сікорського 26

google maps

Привіт, користувачу,
ти вже підписаний на розсилку?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten