Доминирование CUDA и NVIDIA — невидимая инфраструктура ИИ, выходящая за рамки регулирования?

В апреле 2025 года рыночная капитализация NVIDIA превысила 2,79 триллиона долларов, а ее акции выросли более чем на 170% за год, что позволило компании стать третьей по стоимости публичной компанией в мире после Microsoft и Apple и занять 90% рынка чипов для искусственного интеллекта в 2024 году. Хотя еще несколько лет назад NVIDIA ассоциировалась в основном с видеокартами для геймеров, сегодня она является основой глобальной цифровой экономики, основанной на искусственном интеллекте. Ее графические процессоры, в частности серия H100, являются не только стратегическим активом для центров обработки данных, но и основной движущей силой развития базовых моделей, включая самые передовые языковые модели общего назначения, такие как ChatGPT.

NVIDIA

CUDA — искусственный интеллект, меняющий правила игры

В основе трансформации NVIDIA в глобального лидера в области искусственного интеллекта лежит CUDA (Compute Unified Device Architecture) — проприетарная платформа программирования, которая позволяет использовать всю мощность графических процессоров для научных, промышленных и коммерческих приложений. CUDA — это не просто технологический уровень, а критически важная инфраструктура для масштабируемости и эффективности моделей искусственного интеллекта.

Недаром эту платформу иногда называют «невидимой операционной системой искусственного интеллекта». Она является ключевым элементом жизненного цикла систем на базе искусственного интеллекта: от обучения и валидации до внедрения моделей в реальные приложения. На практике именно CUDA определяет, как быстро и в каких масштабах можно разрабатывать современные системы искусственного интеллекта.

GPU против CPU – почему графические процессоры так важны для искусственного интеллекта?

В контексте обучения больших языковых моделей и обработки данных в огромных масштабах классические процессоры (CPU) становятся недостаточными. Ключевые особенности графических процессоров, особенно процессоров NVIDIA, дают им преимущество в средах искусственного интеллекта:

  • Параллельная архитектура – графические процессоры, такие как NVIDIA H100, содержат тысячи ядер, которые позволяют одновременно обрабатывать большие наборы данных, что идеально подходит для матричных операций, используемых в нейронных сетях.
  • Энергоэффективность – графические чипы нового поколения обеспечивают до 25 раз более высокую энергоэффективность по сравнению с предыдущими решениями, что приводит к снижению эксплуатационных расходов и большей масштабируемости.
  • Память с высокой пропускной способностью – такие технологии, как HBM2 (High Bandwidth Memory), обеспечивают молниеносную обработку терабайтов данных, что необходимо для критически важных приложений, работающих в режиме реального времени.

NVIDIA

Закрытая экосистема CUDA — преимущество и недостаток

Как закрытое решение, CUDA обеспечивает огромный прирост производительности — за последнее десятилетие до 1000 раз. Однако тот факт, что эта технология контролируется одной компанией, вызывает опасения:

  • Технологическое доминирование — более 80 % моделей ИИ, включая все основные базовые модели, обучаются в среде CUDA.
  • Отсутствие альтернатив — открытые решения, такие как AMD ROCm и Intel oneAPI, занимают менее 10 % рынка, в основном из-за более слабой оптимизации и отсутствия полной совместимости с популярными библиотеками ИИ.
  • Сетевой эффект — чем больше разработчиков используют CUDA, тем сложнее перейти на конкурирующие решения — это создает закрытую экосистему, которой рынок с трудом может противостоять.

Инфраструктура ИИ и европейское законодательство: пробел в Законе об ИИ?

Закон об ИИ (EU 2024/1689) — это первый комплексный законодательный акт, регулирующий использование искусственного интеллекта в Европе. Однако он сосредоточен в основном на алгоритмическом уровне — на данных для обучения, прозрачности моделей и рисках их использования.

Между тем вычислительный уровень — инфраструктура, без которой эти системы не могут существовать, — остается за пределами его прямой сферы действия.

CUDA не классифицируется как самостоятельная система ИИ, но ее влияние на соответствие, аудируемость и безопасность систем ИИ неоспоримо. Без возможности проверить работу инфраструктуры — как с точки зрения аппаратного обеспечения (черные ящики GPU), так и с точки зрения закрытого программного обеспечения — трудно говорить о полном внедрении принципов прозрачности и подотчетности.

Правовые последствия — монополия, зависимость, отсутствие аудита

Отсутствие регулирования в области вычислительной инфраструктуры поднимает конкретные правовые и системные вопросы:

  • Ограниченная возможность аудита — закрытый характер CUDA затрудняет соблюдение требований статьи 13 Закона об ИИ в отношении прозрачности и проверяемости.
  • Риск монополии – рост цен на графические процессоры более чем на 300 % в период с 2020 по 2024 год может свидетельствовать о злоупотреблении доминирующим положением (статья 102 Договора о функционировании Европейского союза).
  • Отсутствие технологического суверенитета ЕС – до 98 % европейских центров обработки данных ИИ используют технологию NVIDIA, что вызывает серьезные вопросы о независимости инфраструктуры и ее устойчивости к внешним сбоям.

NVIDIA

Возможна ли подотчетность без прозрачности?

Закон об ИИ устанавливает цепочку ответственности — обязанности возлагаются не только на разработчиков систем, но и на пользователей и дистрибьюторов. Однако рыночная реальность показывает, что конечные пользователи не имеют реальной возможности оценить инфраструктуру CUDA, которую они используют опосредованно. Не существует технических стандартов или требований, раскрывающих подробности функционирования закрытых платформ.

Рекомендации для регулирующих органов и отрасли ИИ

Хотя CUDA официально не классифицируется как система ИИ, ее следует признать компонентом, влияющим на соответствие, аудируемость и безопасность. Рекомендации:

  • Руководство ЕС и Управление по ИИ необходимо разработать правовые интерпретации, учитывающие влияние вычислительных платформ на системы ИИ, как в случае с облачными вычислениями и GDPR.
  • Содействие технологической нейтральности — программы ЕС по поддержке технологий (например, «Цифровая Европа») должны отдавать предпочтение открытым, взаимосовместимым технологиям.
  • Пересмотр сферы применения Закона об ИИ — в долгосрочной перспективе стоит рассмотреть возможность обновления Закона об ИИ, чтобы он также охватывал технологическую инфраструктуру как фактор, определяющий безопасность и соответствие требованиям систем ИИ.

CUDA – технологическое чудо или правовой риск?

CUDA, несомненно, является технологией, которая обеспечила беспрецедентный прогресс в области ИИ. Однако ее закрытая структура, доминирующее положение на рынке и отсутствие регулирующего надзора могут привести к тому, что ответственность за системы ИИ станет иллюзорной. Для ЕС, который привержен принципам прозрачности, этики и цифрового суверенитета, это вызов, который больше нельзя игнорировать.

* * *

СТАТЬЯ 13 ЗАКОН О ИИ

Прозрачность и обмен информацией с пользователями

  1. Системы ИИ с высоким уровнем риска должны проектироваться и разрабатываться таким образом, чтобы обеспечить достаточную прозрачность их работы, позволяющую пользователям интерпретировать результаты системы и использовать их надлежащим образом. Должны быть обеспечены надлежащий тип и уровень прозрачности, чтобы поставщик и пользователь могли выполнять свои соответствующие обязательства, установленные в разделе 3.
  2. Системы ИИ с высоким уровнем риска должны сопровождаться руководством пользователя в надлежащем цифровом или ином формате, содержащим краткую, полную, точную и ясную информацию, которая является актуальной, доступной и понятной для пользователей.
  3. Руководство пользователя должно содержать как минимум следующую информацию:
  4. (a) идентификационные данные и контактные сведения поставщика и, в случае необходимости, его уполномоченного представителя;
  5. (b) характеристики, возможности и ограничения работы системы ИИ с высоким уровнем риска, включая:

(i) ее предполагаемое использование;

(ii) уровень точности, включая его показатели, уровень надежности и кибербезопасности, упомянутые в статье 15, в отношении которых система ИИ с высоким уровнем риска была испытана и проверена и которые можно ожидать, а также любые известные и предсказуемые обстоятельства, которые могут повлиять на эти ожидаемые уровни точности, надежности и кибербезопасности;

iii) любые известные или предсказуемые обстоятельства, связанные с использованием системы ИИ с высоким уровнем риска в соответствии с ее назначением или в разумно предсказуемых условиях ненадлежащего использования, которые могут создать риск для здоровья и безопасности или основных прав, как указано в статье 9(2);

iv) применимо, технические возможности и характеристики системы ИИ с высоким уровнем риска для предоставления информации, имеющей отношение к объяснению ее работы;

(v) применимым образом, рабочие характеристики системы в отношении конкретных лиц или групп лиц, для которых она предназначена; (vi) применимым образом, спецификации в отношении входных данных или любой другой соответствующей информации, касающейся используемых наборов данных для обучения, валидации и тестирования, с учетом предполагаемого использования системы ИИ с высоким уровнем риска; (vii) применимым образом, информацию, позволяющую пользователям интерпретировать результаты системы ИИ с высоким уровнем риска и использовать эти результаты надлежащим образом;

  1. c) изменения в системе ИИ с высоким уровнем риска и ее рабочих характеристиках, которые были заранее запланированы поставщиком на момент первоначальной оценки соответствия;
  2. d) меры человеческого контроля, упомянутые в статье 14, включая технические меры, введенные для облегчения интерпретации результатов систем ИИ с высоким уровнем риска пользователями;
  3. e) необходимые вычислительные и аппаратные ресурсы, ожидаемый срок службы системы ИИ с высоким уровнем риска и любые необходимые меры по техническому обслуживанию и ремонту, включая их периодичность, для обеспечения надлежащего функционирования этой системы ИИ, включая обновления программного обеспечения;
  4. f) в применимых случаях, описание механизмов, включенных в систему ИИ с высоким уровнем риска, которые позволяют организациям, использующим эту систему, правильно собирать, хранить и интерпретировать журналы событий в соответствии со статьей 12.

СТАТЬЯ 12 ДФЕС

Запрет на злоупотребление доминирующим положением

Любое злоупотребление одним или несколькими предприятиями доминирующим положением на внутреннем рынке или на его значительной части запрещается как несовместимое с внутренним рынком, поскольку оно может повлиять на торговлю между государствами-членами.

Такое злоупотребление может, в частности, заключаться в:

  1. a) прямом или косвенном навязывании несправедливых цен покупки или продажи или других несправедливых торговых условий;
  2. b) ограничение производства, рынков или технического развития в ущерб потребителям;
  3. c) применение к однородным сделкам с другими торговыми партнерами неравных условий, ставящих их в неравное конкурентное положение;
  4. d) постановка заключения договоров в зависимость от принятия другими сторонами дополнительных обязательств, которые по своему характеру или в соответствии с торговой практикой не относятся к предмету таких договоров.

Типы криптоактивов, регулируемых MiCA

Регламент MiCA (Markets in Crypto-Assets) является первым правовым актом Европейского Союза, который всесторонне регулирует права и обязанности эмитентов и поставщиков услуг, связанных с криптоактивами. Целью MiCA является обеспечение высокого уровня защиты инвесторов, в частности розничных инвесторов, повышение прозрачности рынка криптоактивов и гармонизация правил, регулирующих этот рынок в Европейском Союзе. Благодаря MiCA рынок криптоактивов получает четкие правила, что способствует безопасности инвестиций и развитию отрасли.

kryptowaluty kryptoaktywa

Типы криптоактивов, регулируемых MiCA

Типы криптоактивов, регулируемых MiCA, включают цифровые представления стоимости или прав, хранящиеся в электронном виде с использованием технологии распределенного реестра (DLT) или аналогичных технологий.

Регламент MiCA различает три основных типа криптоактивов, которые отличаются по своим характеристикам и уровню риска. Это различие имеет решающее значение, поскольку определяет регуляторные обязательства компаний, выпускающих криптоактивы или предлагающих криптоактивы инвесторам. Благодаря четким определениям в MiCA компании могут привести свою деятельность в соответствие с требованиями законодательства, а инвесторы получают более надежную защиту на рынке криптоактивов.

Категории криптоактивов:

Токены, привязанные к активам (ART)

Токены, привязанные к активам (ART), — это криптоактивы, цель которых состоит в поддержании стабильной стоимости за счет привязки к другой стоимости, праву или их комбинации, включая как минимум одну фиатную валюту.

ART не считаются токенами электронных денег (EMT). Ключевое отличие заключается в том, что стоимость ART не может быть определена исключительно на основе одной фиатной валюты. Если криптоактив основан на более чем одном показателе или на комбинации активов, включая по крайней мере одну официальную валюту, он будет классифицироваться как ART.

Эмитент токена ART обязан обеспечить его выкуп либо путем выплаты наличных денег, отличных от электронных денег, в размере, соответствующем рыночной стоимости активов, связанных с токеном, либо путем передачи этих активов.

  • MiCA допускает некоторую гибкость в определении меры стоимости ART, но выкуп должен быть возможен в наличных деньгах или путем передачи базового актива.
  • В частности, эмитент должен всегда обеспечивать возможность погашения наличными (кроме электронных денег) в той же официальной валюте, которая была принята на момент продажи токена.

Токены электронных денег (EMT)

Токены EMT привязаны к одной официальной валюте (например, евро) и служат цифровым эквивалентом традиционных денег. Их ключевой особенностью является гарантированное погашение по номинальной стоимости.

Выпускать токены электронных денег могут только кредитные учреждения или учреждения электронных денег. Эти организации должны обеспечить, чтобы держатели токенов могли реализовать свое право на погашение в любое время по номинальной стоимости и в валюте, к которой привязан токен.

Примером таких токенов являются стабильные монеты, привязанные к евро, которые призваны поддерживать паритет 1:1 с евро. В соответствии с MiCA эмитенты таких токенов должны будут соблюдать строгие нормативные требования, в том числе иметь соответствующий правовой статус и обеспечивать реальную возможность выкупа токенов по их номинальной стоимости.

Другие криптоактивы

К этой категории относятся криптовалюты, которые не классифицируются как токены, обеспеченные активами, такие как биткойн (BTC) и эфир (ETH), которые не имеют механизма стабилизации стоимости. В эту группу также входят утилитарные токены, которые предоставляют доступ к услугам или товарам, предлагаемым эмитентом.

В эту категорию также входят утилитарные токены, которые дают держателям доступ к определенным услугам или товарам, предлагаемым эмитентом. Такой токен можно сравнить с цифровым ваучером или билетом, дающим право держателю на использование определенной услуги или покупку определенного товара.

kryptowaluty kryptoaktywa MICA

Криптоактивы, исключенные из регулирования MiCA

MiCA не охватывает все цифровые активы. Регламент исключает из своей сферы применения определенные категории цифровых активов, которые либо уже регулируются другими правовыми актами ЕС, либо не соответствуют определению криптоактивов в значении MiCA. В частности, положения исключают финансовые инструменты и финансовые продукты, которые подпадают под действие MiFID II.

В соответствии со статьей 2(4) Регламента из сферы применения MiCA также исключаются:

  • депозиты, включая структурированные депозиты,
  • наличные деньги (если они не соответствуют определению токенов электронных денег),
  • страховые продукты и схемы, пенсионные продукты и схемы.

Незаменимые токены (NFT)

Регламент MiCA также не регулирует незаменимые токены (NFT), при условии что они действительно уникальны и незаменимы. Это относится, например, к цифровым произведениям искусства или уникальным предметам коллекционирования в компьютерных играх.

Однако важно отметить существенное различие: если криптоактивы выпускаются в виде не заменимых токенов в рамках крупной серии или коллекции, это может рассматриваться как показатель их фактической заместимости, в результате чего они будут подпадать под действие положений MiCA. Кроме того, доли уникального и не заменимых криптоактивов не считаются уникальными и не заменимыми, поэтому они также будут подпадать под действие положений MiCA.

Криптоактивы, ограниченные внутренними сетями

Регламент MiCA также не распространяется на криптоактивы, используемые в закрытых сетях, такие как бонусные баллы или ваучеры, принимаемые только их эмитентом. Это исключение применяется к цифровым активам, которые функционируют в ограниченной экосистеме и не предназначены для более широкой торговли на рынке.

kryptowaluty kryptoaktywa MICA

Выводы и рекомендации

Мы рекомендуем вам обратиться к юристу для получения комплексной юридической поддержки в определении классификации криптоактивов и обеспечении соблюдения нормативных требований, регулирующих рынки криптоактивов и финансовых инструментов.

Sójka AI – цифровой страж этики и безопасности

В эпоху постоянно развивающихся технологий искусственный интеллект (ИИ) играет все более важную роль в нашей повседневной жизни. От приложений, помогающих нам организовать свое время, до алгоритмов распознавания изображений, ИИ набирает популярность, но в то же время ставит перед нами серьезные вызовы. Эти вызовы особенно очевидны в таких областях, как этика, распространение фейковых новостей, право и кибербезопасность. В ответ на эти вызовы был создан проект Sójka AI, который сочетает в себе этические границы технологий с акцентом на безопасность пользователей.

AI

Этический искусственный интеллект – необходимость в цифровую эпоху

Интернет – это пространство, которое предлагает безграничные возможности, но в то же время оно полно угроз. На каждом шагу можно столкнуться с токсичным контентом, языком ненависти или манипуляциями. Мы также все чаще используем инструменты искусственного интеллекта, призванные помогать нам в повседневной жизни. К сожалению, ИИ также может представлять угрозу, если он не спроектирован и не контролируется должным образом. Именно поэтому был создан проект Sójka AI, который действует как страж цифровой этики, защищая пользователей от вредоносного контента.

Зачем нужен этичный искусственный интеллект?

Преимущество искусственного интеллекта заключается в его способности анализировать огромные объемы данных за короткое время. Это позволяет ИИ выявлять и реагировать на проблемы, которые часто ускользают от внимания человека.

Однако без соответствующих этических ограничений такие алгоритмы могут генерировать опасный контент или поощрять ненадлежащее поведение. Sójka AI — это ответ на эти угрозы, предоставляющий инструменты для модерации контента и устранения токсичных и потенциально опасных взаимодействий.

AI

Bielik AI – пример ответственного искусственного интеллекта

Bielik AI – это первый шаг на пути к более ответственной технологии искусственного интеллекта в Польше. Проект получил признание за способность анализировать данные, обнаруживать угрозы и поддерживать этическое развитие ИИ. Bielik AI достиг своей цели благодаря использованию передовых алгоритмов, которые анализируют данные в этическом контексте, обеспечивая пользователям безопасный и позитивный опыт работы в Интернете.

Сотрудничество с сообществом

Важным аспектом Bielik AI было сотрудничество с пользователями, которые помогли разработать проект, поделившись своим опытом и предложениями. Тот же подход был принят создателями Sójka AI, которые также полагаются на сотрудничество с интернет-пользователями для создания алгоритма, который будет эффективно защищать пользователей от онлайн-угроз. Ссылка на опрос.

Как Bielik AI влияет на развитие Sójka AI?

Bielik AI послужил вдохновением для создания Sójka AI. Благодаря опыту, полученному при создании Bielik, создатели Sójka смогли сосредоточиться на разработке новых технологий, которые позволят еще более эффективно модерировать контент, выявлять вредоносную деятельность и защищать пользователей от манипуляций и нежелательного контента.

LLM security

Что может сделать Sójka AI – цифровой страж этики?

Sójka AI – это алгоритм, который действует как цифровой страж, удаляя токсичный контент и защищая пользователей от вредной информации. Благодаря своей передовой конструкции Sójka может:

  • анализировать чаты и обнаруживать токсичные намерения – алгоритм способен распознавать, когда онлайн-разговор принимает негативный оборот и пользователи начинают использовать оскорбительные слова или выражения;
  • проверять ответы ИИ и удалять опасный контент – Sójka AI может анализировать ответы, сгенерированные другими моделями ИИ, обеспечивая их соответствие этическим принципам и отсутствие вредного контента;.
  • модерировать контент, защищая от ненависти и манипуляций — Sójka AI может эффективно модерировать контент в различных пространствах, удаляя контент, содержащий ненависть, язык ненависти или манипуляции;.
  • Обеспечить психическое благополучие самых молодых пользователей — Sójka AI — это также инструмент, который уделяет особое внимание молодым пользователям Интернета, защищая их от контента, который может оказать негативное влияние на их психическое здоровье.

Практическое применение Sójka AI

Sójka AI может использоваться во многих областях, как в бизнесе, так и в повседневной жизни пользователей. Благодаря своей способности анализировать большие массивы данных и быстро реагировать на угрозы, она может использоваться, например, для:

  • модерации онлайн-дискуссий — компании и онлайн-платформы могут потенциально использовать Sójka для управления дискуссиями и устранения негативного контента в режиме реального времени;.
  • поддержка образовательных платформ — Sójka AI может использоваться на образовательных платформах для мониторинга взаимодействия студентов, обеспечивая, чтобы они не подвергались воздействию вредного или нежелательного контента;.
  • улучшение социальных сетей — с помощью Sójka AI социальные сети могут стать более дружелюбным и безопасным местом для всех пользователей, особенно для самых молодых;.
  • и многое другое.

ai law

Правовой контекст и будущее этических моделей ИИ

Проекты, такие как Sójka AI, являются лишь началом пути к созданию безопасного, этичного и ответственного Интернета. С каждым годом технологии ИИ будут становиться все более сложными, а их роль в нашей жизни будет расти.

Этические модели ИИ в Европейском союзе – законодательство, практика и направления развития

С быстрым развитием искусственного интеллекта Европейский Союз стал мировым лидером в формировании правовых и этических рамок для этой технологии. Такие проекты, как Sójka AI и Bielik AI в Польше, иллюстрируют эволюцию от чистой инновации к ответственному внедрению систем, уважающих основные права, прозрачность и безопасность пользователей. В центре этой трансформации находится Закон об ИИ – первое в мире комплексное регулирование ИИ, которое вместе с другими инициативами создает целостную экосистему для этического искусственного интеллекта.

Правовая основа для этического ИИ в ЕС

Закон об ИИ – классификация рисков и обязательства

Закон об ИИ, вступивший в силу 1 августа 2024 года, вводит четырехуровневую модель рисков:

  • неприемлемый риск (например, системы социального скоринга, манипулятивный ИИ, использующий уязвимости уязвимых групп) – полный запрет на использование;.
  • высокий риск (например, системы найма, кредитные рейтинги, медицинская диагностика) – требуют сертификации, аудита и постоянного надзора;.
  • ограниченный риск (например, чат-боты) – обязательство информировать пользователей о взаимодействии с ИИ;.
  • минимальный риск (например, спам-фильтры) – отсутствие дополнительных правил, помимо общих этических принципов.

Пример: системы модерации контента, такие как Sójka AI, могут быть отнесены к системам высокого риска из-за их влияния на свободу выражения мнения и защиту данных. Если система ИИ относится к этой категории, она должна соответствовать требованиям Закона об ИИ в отношении качества данных, прозрачности алгоритмов и механизмов обжалования.

Этические руководящие принципы ЕС

В 2019 году Европейская комиссия определила семь основ надежного ИИ:

    1. уважение автономии человека;
    2. техническая и социальная безопасность;
    3. защита частной жизни,
    4. прозрачность,
    5. разнообразие и недискриминация,
    6. социальная ответственность
    7. и устойчивое развитие.

    Эти принципы легли в основу Закона об ИИ, особенно в контексте требования о «человекоцентричном» проектировании систем.

    Инициативы в ЕС

    • GenAI4EU – программа, поддерживающая внедрение генеративного ИИ в ключевых секторах экономики.

    https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Platforma STEP – nowa era dla AI w Unii Europejskiej

Шаги для предприятий – как создать этичный ИИ в соответствии с Законом об ИИ?

1. Картирование рисков и аудит систем

– убедитесь, что функции и цели являются законными, этичными и не создают возможностей для злоупотреблений. Рассмотрите, как результаты работы системы ИИ могут быть использованы третьими лицами;

– определите все требования по соблюдению нормативных требований (они могут различаться в зависимости от местонахождения вашей компании и целевых рынков) и убедитесь, что вы в состоянии их выполнить;

– составьте список всех потенциальных рисков и мер по их снижению в отношении функциональных возможностей и правовых требований;

– проведите анализ рисков в контексте требований, которым вы подлежите. Например, если система будет использовать персональные данные в рамках базы данных для обучения, проведите оценку воздействия на защиту данных (DPIA). Это поможет вам понять масштаб проекта и стоящие перед ним задачи.

Подробнее здесь: Как разработать инструменты ИИ с соблюдением законодательства?

2. Внедрение системы управления

  • Создайте группу по этике ИИ, состоящую из юристов, инженеров и специалистов по соблюдению нормативных требований, в зависимости от ситуации и возможностей.
  • Разработайте политику использования ИИ, учитывающую рекомендации ЕС и особенности отрасли. Подробнее об этом можно прочитать здесь:

Co powinna zawierać Polityka wykorzystywania systemów AI?

3. Прозрачность и контроль

  • Для систем с высоким уровнем риска:
  • Предоставляйте технические сводки с описанием логики работы ИИ (например, с помощью панелей мониторинга, таких как Explainable AI Booster). Пример: https://cloud.google.com/vertex-ai/docs/explainable-ai/overview
  • Введите обязательное утверждение результатов человеком в ключевых процессах.

4. Управление данными

  • Используйте алгоритмы устранения предвзятости для устранения предвзятости в обучающих данных.

Алгоритмы устранения предвзятости — это методы, используемые в искусственном интеллекте (ИИ) и машинном обучении для устранения или уменьшения предвзятости в данных, которая может привести к несправедливым, дискриминационным или неточным результатам. Предвзятость в контексте ИИ означает непреднамеренные тенденции в системе, которые могут возникнуть в результате ошибок во входных данных или в способе обучения модели ИИ.

  • Проводите регулярные проверки качества данных, особенно для систем, которые используют конфиденциальные данные (раса, религия, здоровье).

5. Сертификация и соответствие

  • Используйте платформы сертификации, разработанные в рамках проекта CERTAIN, которые автоматизируют проверку соответствия Закону об ИИ.
  • Регистрируйте системы с высоким уровнем риска в Европейской базе данных ИИ.

6. Обучение и организационная культура

  • Проводите образовательные программы для сотрудников.

AI Literacy i AI Act – jak firmy mogą dostosować się do nowych przepisów?

Вызовы и будущее этического ИИ в ЕС

Ключевые тенденции на ближайшие годы:

  1. разработка ИИ для ESG
  2. регулирование базовых моделей – планы по расширению регулирования с включением требований к моделям общего назначения (например, Meta Llama 3).
  3. трансграничное сотрудничество

Резюме

Подход ЕС к этическому ИИ, хотя и сложный, создает уникальную возможность для компаний укрепить доверие клиентов и конкурентные преимущества. Такие проекты, как Sójka AI, показывают, что сочетание инноваций и ответственности возможно, но для этого необходимо стратегическое планирование, инвестиции в управление и тесное сотрудничество с регулирующими органами.

В ближайшее десятилетие этика станет основной движущей силой технологического прогресса в Европе.

 

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten