AGI — машина, созданная человеком. Сможет ли закон угнаться за технологиями?

Общий искусственный интеллект (ОИ) становится все более реальной перспективой, ставящей беспрецедентные задачи перед законодателями и обществом. Недавний саммит AI Action Summit в Париже и конференция Международной ассоциации за безопасный и этичный ИИ (IASEAI ’25) пролили свет на острую необходимость создания всеобъемлющей правовой базы для этой разрушительной технологии.

ai

Истоки идеи искусственного интеллекта

Концепция искусственного интеллекта зародилась в 1950-х годах, когда ученые-первопроходцы в области компьютерных технологий начали изучать возможность создания машин, которые могли бы сравниться с человеческим интеллектом. Алан Тьюринг, один из предшественников ИИ, предложил тест Тьюринга — эксперимент по оценке того, сможет ли машина вести разговор, неотличимый от человеческого.

Поворотным моментом в истории ИИ стала Дартмутская конференция 1956 года, где был официально введен термин «искусственный интеллект». В то время прогнозировалось, что интеллект человеческого уровня будет достигнут быстро, но технологический прогресс не поспевал за оптимизмом исследователей.

Кризис и возрождение ИИ

В 1980-х и 1990-х годах подход к искусственному интеллекту изменился. Исследования были сосредоточены на более узких областях применения ИИ, таких как экспертные системы, а идея AGI отошла на второй план. Лишь стремительное развитие вычислительных технологий, больших данных и глубокого обучения в XXI веке переориентировало внимание исследователей на тему искусственного интеллекта общего назначения.

AI

Что такое AGI?

AGI, в отличие от современных систем ИИ, обладает потенциалом для выполнения широкого спектра интеллектуальных задач на уровне, сопоставимом с человеческим. Такая универсальность несет в себе как большие возможности, так и серьезные риски, которые необходимо должным образом регулировать.

На данный момент не существует юридического определения, охватывающего деятельность AGI, но, учитывая стремительное развитие технологий ИИ в ближайшем будущем, вполне вероятно, что его придется создать.

Многие компании и организации уже пытаются дать определение AGI. Например, OpenAI разработала определение AGI и пять уровней запроса в 2024 году.

По согласованию с OpenAI:

Сегодняшние чат-боты, такие как ChatGPT, находятся на первом уровне развития.

OpenAI утверждает, что они приближаются ко второму уровню, который означает систему, способную решать базовые задачи на уровне человека с докторской степенью.

Третий уровень — это ИИ, выступающий в роли агента, который может принимать решения и выполнять задачи от имени пользователя.

На четвертом уровне искусственный интеллект достигает способности создавать новые инновации.

Пятый, самый высокий уровень, относится к ИИ, который может выполнять работу целых организаций людей.

OpenAI ранее описывал AGI как «высокоавтономную систему, которая превосходит человека в большинстве задач, имеющих высокую экономическую ценность».

Stargate Project

Проект «Звездные врата

Одним из самых амбициозных начинаний в области AGI является проект «Звездные врата», предполагающий инвестиции в размере 500 миллиардов долларов в развитие инфраструктуры искусственного интеллекта в США. Главная цель — укрепить позиции США как лидера в области AGI, а также создать сотни тысяч рабочих мест и обеспечить глобальный экономический эффект.

AGI способен взять на себя выполнение широкого спектра задач, которые раньше требовали от человека творческого подхода и адаптации.

Подробнее о Звездных вратах:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Почему регулирование AGI имеет решающее значение? Мнения экспертов

На конференции IASEAI ’25 в Париже и Саммите действий в области ИИ эксперты подчеркнули необходимость всеобъемлющего регулирования AGI.

  • Доктор Шимон Лукасик (NASK) отметил, что закон должен соответствовать темпам развития инноваций, обеспечивая при этом их безопасность.
  • Профессор Стюарт Рассел выступил за введение обязательных гарантий для предотвращения вредного использования AGI.
  • Джозеф Стиглиц указал на необходимость учета интересов общества в законодательном процессе.
  • Макс Тегмарк из Института будущего жизни, тем временем, подчеркнул важность международного сотрудничества, особенно между США и Китаем. Только глобальный подход позволит эффективно регулировать развитие AGI.

AGI

Риски, связанные с AGI

Многие эксперты выразили в Париже обеспокоенность развитием ИИ, которое, по их мнению, происходит очень быстро, по мнению некоторых, AGI будут созданы уже в ближайшие 10 лет. Ключевыми вопросами, касающимися AGI, были следующие:

  • Сможет ли AGI самостоятельно изменять правила для достижения своих целей?
  • Какими должны быть резервные механизмы AGI?
  • Как сделать так, чтобы цели ИИ не расходились с интересами человечества?

Исследователи уже убедились, что если у модели есть заданная цель, например победа в игре, то она способна изменить свои правила, чтобы победить. Учитывая этот факт, необходимо смоделировать цели системы ИИ таким образом, чтобы они не расходились с интересами человечества.

Эти соображения и предложения направлены на создание правовой базы и стандартов, которые позволят безопасно и этично развивать ИИ, не препятствуя при этом технологическому прогрессу. Эксперты сходятся во мнении, что регулирование должно быть комплексным и учитывать как технические аспекты, так и социальные последствия развития AGI. Таким образом, международное сотрудничество является ключевым фактором для создания единых стандартов безопасности и этики.

Прозрачность и механизмы безопасности

Прозрачность и механизмы безопасности — еще одни ключевые аспекты, которые должны быть включены в будущие нормативные акты. Профессор Стюард Рассел высказался за то, чтобы законодательно обязать компании, разрабатывающие ИИ, внедрять средства защиты от вредного использования их технологий. Эксперты также предлагают законодательно закрепить требование о наличии механизма аварийного отключения моделей ИИ и создать стандарты для тестирования гарантий.

В контексте механизмов аварийного отключения моделей ИИ существует два ключевых стандарта ISO, которые касаются этого вопроса:

  • ISO 13850 — это стандарт на функции аварийной остановки в машинах. Хотя он не касается непосредственно моделей ИИ, в нем установлены общие принципы разработки механизмов аварийного останова, которые потенциально могут быть применены и к системам ИИ. В стандарте подчеркивается, что функция аварийного останова должна быть доступна и работоспособна в любое время, а ее активация должна иметь приоритет перед всеми другими функциями;
  • С другой стороны,ISO/IEC 42001 — это более поздний стандарт, опубликованный в декабре 2023 года, который непосредственно касается систем управления ИИ. Он охватывает более широкие аспекты управления рисками ИИ, включая оценку рисков и последствий ИИ и управление жизненным циклом системы ИИ.

Согласно ISO/IEC 42001, организации должны внедрить процессы идентификации, анализа, оценки и мониторинга рисков, связанных с системами ИИ, на протяжении всего жизненного цикла системы управления. В этом стандарте особое внимание уделяется постоянному совершенствованию и поддержанию высоких стандартов при разработке систем ИИ.

Стоит отметить, что, несмотря на то, что эти стандарты содержат рекомендации, конкретные механизмы защиты для продвинутых систем ИИ, таких как AGI, все еще изучаются и обсуждаются на международном уровне. Эксперты подчеркивают, что с развитием все более совершенных систем ИИ традиционные методы «отключения» могут оказаться недостаточными, поэтому необходимо будет разработать другие стандарты и решения.

Sztuczna inteligencja

Подробнее об искусственном интеллекте:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Регулирование AGI и кибербезопасность

AGI может выявлять и использовать уязвимости быстрее, чем любой человек или существующие системы ИИ. Поэтому регулирование AGI должно включать в себя:

  • Предотвращение использования ИИ для кибератак.
  • Стандартизация безопасности систем AGI, чтобы снизить риск захвата злоумышленниками.
  • Определение юридической ответственности в случае инцидентов, связанных с AGI.

Междисциплинарный подход к законотворчеству

Развитие AGI требует междисциплинарного подхода, который включает в себя:

  • Сотрудничество юристов с экспертами по ИИ, этиками и экономистами.
  • Глобальные правила, защищающие права человека и неприкосновенность частной жизни.
  • Прозрачность механизмовразработки и контроляAGI.

Проактивный правовой подход может сделать AGI безопасным и полезным для всего человечества, не блокируя технологический прогресс.

AGI — это технология с огромным потенциалом, но и с серьезными рисками. Крайне важно создать правовую базу и стандарты, которые позволят обеспечить ее безопасное развитие. Международное сотрудничество и междисциплинарный подход являются ключевыми факторами для того, чтобы AGI служила человечеству, а не создавала риски.

Фонд МСП 2025 — финансирование регистрации товарных знаков для МСП

Защитите свой бренд и получите финансирование в 2025 году!

Хорошие новости для малых и средних предприятий (МСП)! 3 февраля 2025 года стартует следующий выпуск программы SME Fund, предлагающей финансирование регистрации товарных знаков на уровне Европейского союза. Эта программа — прекрасная возможность защитить свой бренд и повысить конкурентоспособность на европейском рынке.

sme fund 2025

Что такое Фонд МСП 2025?

Фонд МСП — это инициатива Ведомства интеллектуальной собственности Европейского союза (EUIPO), направленная на поддержку малых и средних предприятий в области защиты прав интеллектуальной собственности. В рамках этой программы предприниматели могут получить ваучер стоимостью до 1 000 евро для покрытия расходов на регистрацию товарных знаков и промышленных образцов.

Зачем защищать торговую марку?

Регистрация торговой марки на уровне ЕС дает компании ряд преимуществ, в том числе:

✅ Исключительные права на торговую марку на всей территории Европейского союза,

✅ Защита от недобросовестной конкуренции и подделок,

✅ Повышение репутации и узнаваемости на рынке,

✅ Надежные инвестиции в брендинг и маркетинг,

✅ Облегчение привлечения инвесторов и финансирования.

sme fund 2025

Программа SME Fund 2025 предназначена для малых и средних предприятий (МСП), расположенных на территории Европейского союза, в том числе:

✔ Индивидуальные предприниматели,

✔ коммерческие компании,

✔ гражданские партнерства.

Условием участия является соблюдение критериев МСП, т.е. менее 250 сотрудников и годовой оборот не более 50 млн евро.

Как получить финансирование от Фонда МСП 2025?

Чтобы получить финансирование, необходимо пройти четырехэтапный процесс:

1. подача заявки на финансирование через платформу EUIPO,

2. получение решения о предоставлении ваучера,

3. регистрация торговой марки и оплата пошлин,

4. подача заявки на возмещение понесенных расходов.

Весь процесс занимает около 2 месяцев — от подачи заявки до получения возмещения.

sme fund 2025

Сколько вы можете получить? Сумма финансирования

В рамках программы SME Fund 2025 предприниматели могут получить:

💰 75% возмещения расходов на подачу заявки на регистрацию товарного знака на уровне ЕС или страны,

💰 50 % возмещения основных пошлин за международную заявку,

💰 Максимальная сумма финансирования составляет 1 000 евро на одно МСП.

Почему стоит действовать быстро?

🕒 Количество средств в программе ограничено!

Финансирование предоставляется в порядке живой очереди, поэтому имеет смысл подать заявку как можно скорее после запуска программы 3 февраля 2025 года.

Чем мы можем помочь?

Наша юридическая фирма уже много лет помогает предпринимателям в регистрации товарных знаков. Мы предлагаем всестороннюю поддержку на каждом этапе процесса:

🔹 Анализ регистрационной способности знака,

🔹 Подготовка и подача заявки на регистрацию,

🔹 Подача заявки на регистрацию товарного знака в соответствующее ведомство,

🔹 Выполнение формальностей, связанных с возмещением расходов.

Защитите свой бренд с Фондом МСП 2025 и нашей юридической фирмой! С помощью Фонда МСП 2025 и нашей поддержки вы сможете защитить свой бренд с минимальными затратами.

📞 Свяжитесь с нами сегодня и договоритесь о бесплатной консультации:

Не ждите! Средства ограничены — подайте заявку как можно скорее и защитите свой бренд в ЕС!

Более подробную информацию вы можете найти здесь:

https://uprp.gov.pl/pl/aktualnosci/informacje/rusza-kolejna-edycja-programu-pn-fundusz-dla-msp

Налоговые аспекты ведения бизнеса в Германии

Уважаемые господа,

Приглашаем вас принять участие в бесплатном вебинаре по налоговым аспектам ведения бизнеса в Германии, организованном юридической фирмой «Лесьневский, Боркевич, Костка и партнеры» (LBK&P) в сотрудничестве с немецкой налоговой консультационной фирмой Dr. Klein, Dr. Mönstermann International Tax Services GmbH. Мероприятие предназначено как для компаний, только начинающих свою деятельность на немецком рынке, так и для тех, кто уже работает там — особенно в секторе малого и среднего бизнеса и крупных предприятий. Пожалуйста, не стесняйтесь передавать приглашение своим знакомым компаниям, которым могут быть интересны темы вебинаров.

📅 Дата проведения: 18 февраля 2025 г.

⏰ Время: 10:00 утра.

📍 Место проведения: онлайн

В ходе вебинара эксперты LBK&P Павел Сулига (налоговый консультант в Польше и Германии, признанный эксперт в области немецкого налогового и хозяйственного права, ежедневно обслуживает в Германии, среди прочих, польские компании из строительной отрасли, зарегистрированные на ВФБ) и Бартломей Чалупиньский (налоговый консультант в Польше, руководитель отдела налогов @ LBK&P) обсудят ключевые вопросы, касающиеся налогового регулирования и обязательств, связанных с ведением бизнеса в Германии.

Повестка дня:

✅ Основные налоговые изменения в Германии с 01.01.2025.

✅ Какие налоговые обязательства возникают при открытии бизнеса в Германии?

✅ Документация и информационные обязательства при ведении трансграничного бизнеса — на что обратить внимание.

ПРИМЕЧАНИЯ:

После вебинара есть возможность получить бесплатную 30-минутную индивидуальную консультацию с нашими экспертами (требуется отдельная запись, количество мест ограничено). Чтобы забронировать их, пожалуйста, напишите наrezerwacje@lbplegal.com.

🔗 Ссылка для регистрации на вебинар — ссылка для участия в вебинаре и данные для входа будут отправлены вам не позднее, чем за 3 дня до мероприятия.

Подробности мероприятия также описаны в приложении вместе с регистрационной ссылкой.

Приглашаем вас!

Скачать вложение:

Webinar - Podatkowe aspekty prowadzenia działalności gospodarczej w Niemczech

Со 2 февраля 2025 года действуют статьи 1-5 Закона об искусственном интеллекте, несоблюдение которых может привести к крупным штрафам

🚨 ВАЖНОЕ УВЕДОМЛЕНИЕ — Со 2 февраля вступают в силу статьи 1-5 Закона об искусственном интеллекте, несоблюдение которых может повлечь за собой крупные штрафы. Многие компании в ЕС еще не приняли необходимые меры — вот основные моменты.

ai law

Со 2 февраля 2025 года вступают в силу первые положения Постановления об искусственном интеллекте (AI Act), направленные на повышение безопасности и регулирование рынка искусственного интеллекта в Европейском союзе.

Основные изменения включают:

  • Запрещенные практики — запрет на использование, маркетинг или размещение на рынке систем ИИ, которые соответствуют критериям запрещенных практик. В качестве примера можно привести манипуляционные системы, использующие уязвимости человека, системы социального скоринга и системы, анализирующие эмоции на рабочем месте или в сфере образования. Нарушение этих правил влечет за собой крупные финансовые штрафы — до 35 млн евро или 7 % годового мирового оборота компании.
  • Обязательство по повышению грамотности в области ИИ. Работодатели должны обеспечить надлежащее обучение сотрудников и их осведомленность об ИИ, чтобы они могли безопасно использовать системы ИИ на работе. Отсутствие подготовки по ИИ может привести к несоблюдению требований и повысить риск использования систем ИИ не по назначению. Что касается грамотности в области ИИ, то стоит также убедиться в том, что в компании реализуется политика использования ИИ. Как это можно сделать?

См. статьи:

Политика использования ИИ в компании может включать, например, четкие процедуры, правила использования ИИ, условия выпуска систем, порядок действий в случае инцидентов и назначение лица, ответственного за эффективное внедрение и использование ИИ в организации (AI Ambassador).

 

Важность образования в области ИИ (статья 4 Закона об ИИ)

Осведомленность и знания об ИИ — это не только требование закона, но и стратегическая необходимость для организаций. Статья 4 Закона об ИИ требует, чтобы компании внедряли программы обучения с учетом знаний, роли и опыта сотрудников.

«Поставщики и пользователи систем ИИ должны принимать меры для обеспечения, насколько это возможно, надлежащего уровня компетентности в области ИИ среди своих сотрудников и других лиц, участвующих в эксплуатации и использовании систем ИИ от их имени, с учетом их технических знаний, опыта, образования и подготовки, а также контекста, в котором будут использоваться системы ИИ, и с учетом лиц или групп лиц, против которых будут использоваться системы ИИ».

Бездействие в этом отношении влечет за собой серьезные последствия, в том числе:

  • Риск нарушения правил защиты данных и конфиденциальности.
  • Повышение вероятности нарушения закона и финансовых штрафов.

Помимо соблюдения нормативных требований, обучение в области ИИ помогает сформировать культуру ответственного использования технологий и минимизировать потенциальные операционные риски.

Где искать руководство?

В этом может помочь стандарт ISO/IEC 42001 для системы управления искусственным интеллектом. Рассматривая соответствующие компетенции тех, кто занимается ИИ в организации, стандарт указывает, например, на следующее:

  • наставничество
  • обучение
  • перевод сотрудников на соответствующие задачи в организации на основе анализа их компетенций.

В то же время соответствующие роли или области компетенции должны включать, например:

  • надзор за системами искусственного интеллекта
  • безопасность
  • защита
  • конфиденциальность.

LLM security

Запрещенные практики ИИ (статья 5 Закона об ИИ)

Постановление Закона об искусственном интеллекте запрещает использование определенных систем искусственного интеллекта, которые могут привести к серьезным рискам для общества. Поставщики и компании, использующие ИИ, должны гарантировать, что они не принимают прямого или косвенного участия в его разработке или внедрении. Помимо прочего, в Законе об искусственном интеллекте перечислены конкретные запрещенные действия, которые считаются особенно опасными. К ним относятся:

  • Подсознательные или манипулятивные методы — системы ИИ, которые подсознательно изменяют поведение пользователя, чтобы он принял решение, которое в противном случае не принял бы.
  • Использование уязвимостей человека — системы, использующие в своих интересах его инвалидность, социальное или экономическое положение.
  • Социальный скоринг — системы, оценивающие граждан и предоставляющие им определенные права на основе их поведения.
  • Оценка криминальных рисков — системы, составляющие профиль человека и оценивающие его индивидуальные особенности без законных оснований.
  • Создание баз данных изображений лиц — нецелевое получение изображений из Интернета или городского видеонаблюдения для создания систем распознавания лиц.
  • Анализ эмоций на рабочем месте или в сфере образования — системы искусственного интеллекта, анализирующие эмоции сотрудников или студентов.
  • Биометрическая категоризация конфиденциальных данных — использование биометрии для извлечения информации о расе, политических взглядах и т. д.
  • Удаленная биометрическая идентификация в реальном времени — использование систем распознавания лиц в общественных местах для правоохранительных органов.

Где искать руководство?

  • Проект руководства по запрещенным практикам искусственного интеллекта (ИИ) — 4 февраля 2025 г. Комиссия опубликовала руководство по запрещенным практикам искусственного интеллекта (ИИ), которое призвано обеспечить последовательное, эффективное и единообразное применение Закона об ИИ на всей территории ЕС.

Важные сроки:

  • С 2 февраля 2025 года. — Глава II (запрещенные практики)
  • С 2 августа 2025 г. — Глава V (модели общего назначения), Глава XII (Штрафы) без статьи 101
  • С 2 августа 2026 года. — Статья 6(2) и Приложение III (схемы повышенного риска), Глава IV (обязательства по обеспечению прозрачности)
  • Со 2 августа 2027 г. — Статья 6(1) (схемы повышенного риска) и соответствующие обязательства

Ключевые уроки для компаний:

  • Соблюдение статей 1-5 Закона об ИИ является обязательным и не может быть проигнорировано.
  • Обучение по вопросам ИИ имеет ключевое значение для предотвращения ошибок, связанных с недостаточной осведомленностью сотрудников, а также потенциальной ответственности компании.
  • Проведение аудита поставщиков технологий необходимо для обеспечения соответствия систем ИИ требованиям закона.
  • Внедрение политики использования ИИ — четкая документация для организации рисков. Политика может включать, например, четкие процедуры, правила использования ИИ, условия выпуска систем, порядок действий в случае инцидентов и назначение лица, ответственного за надзор (AI Ambassador).
  • Разработка инструментов ИИ на законных основаниях — компании, разрабатывающие инструменты ИИ, должны учитывать правовые и этические аспекты на каждом этапе разработки. Это включает, в частности, анализ законности целей системы, законности баз данных, кибербезопасности и тестирования системы. Важно, чтобы процесс разработки систем искусственного интеллекта соответствовал принципам конфиденциальности по замыслу и конфиденциальности по умолчанию RODO — Как разработать инструменты искусственного интеллекта с юридической точки зрения?

Обязательно ознакомьтесь с этими источниками:

DeepSeek — китайский ИИ с открытым исходным кодом. Есть ли у Гонконга шанс победить OpenAI?

DeepSeek — это серия моделей китайского языка, которая впечатляет своей производительностью и низкой стоимостью обучения. Благодаря открытому исходному коду DeepSeek-R1 и DeepSeek-V3 вызывают большой ажиотаж в индустрии ИИ.

DeepSeek

Источник: www.deepseek.com

DeepSeek: революция в мире ИИ родом из Гонконга

DeepSeek все чаще появляется в дискуссиях о будущем искусственного интеллекта. Этот проект, базирующийся в Гонконге, предлагает большие языковые модели (LLM), характеризующиеся открытым кодом, высокой производительностью и — что очень важно — гораздо меньшей стоимостью обучения, чем конкурирующие решения от OpenAI или Meta.

В этой статье мы рассмотрим DeepSeek-R1 и DeepSeek-V3, а также обсудим последнюю информацию о процессе разработки и распространения этих моделей — на основе как официальных материалов, доступных наплатформе Hugging Face, так и публикацийSpider’s Webиchina24.com.

Оглавление

  1. Как родилась компания DeepSeek?
  2. DeepSeek-R1 и DeepSeek-V3: краткое техническое введение
  3. Стоимость обучения и производительность: где секрет?
  4. Открытый исходный код и лицензирование
  5. Модели DeepSeek-R1, R1-Zero и Distill: чем они отличаются?
  6. Соперничество Китая и США: санкции, полупроводники и инновации
  7. Будет ли DeepSeek угрожать доминированию OpenAI?
  8. Резюме
  9. Источники

AI born

Как родилась DeepSeek?

По последним сообщениям прессы, в 2015 году в Гонконге была основана High-Flyer Capital Management — компания, которая до недавнего времени была практически неизвестна в IT-индустрии за пределами Азии. Ситуация кардинально изменилась с появлением DeepSeek, серии больших языковых моделей, которые покорили экспертов Кремниевой долины.

Однако DeepSeek — это не просто коммерческий проект, это еще и глоток открытости в мире, где обычно доминируют закрытые решения с огромными бюджетами, такие как модели от OpenAI (включая GPT-4 и OpenAI o1).

DeepSeek-R1 и DeepSeek-V3: краткое техническое представление

Согласноофициальной странице проекта на Hugging Face, DeepSeek в настоящее время выпускает несколько вариантов своих моделей:

  1. DeepSeek-R1-Zero: создается в результате продвинутого обучения без начального этапа SFT (Supervised Fine-Tuning), фокусируясь на укреплении навыков рассуждения (так называемой цепочки мыслей).
  2. DeepSeek-R1: авторы включили дополнительную предварительную тонкую настройку (SFT) перед этапом обучения с подкреплением, что улучшило читабельность и согласованность генерируемого текста.
  3. DeepSeek-V3: названа в честь базовой модели, на основе которой были получены описанные выше варианты R1-Zero и R1. DeepSeek-V3 может иметь до 671 миллиарда параметров и была обучена за два месяца при стоимости около 5,58 миллиона долларов (данные:china24.com).

ai tech

Технический контекст

  • Большое количество параметров (до 671 миллиарда) означает возможность генерировать очень сложные утверждения и аналитические выкладки.
  • Оптимизированный процесс обучения гарантирует, что даже такая большая архитектура не потребует бюджета, сопоставимого с OpenAI.
  • Главная цель: самостоятельная выработка многоступенчатых решений и минимизация «галлюцинаций», столь характерных для других моделей.

Стоимость обучения и производительность: где секрет?

ИSpider’s Web, иchina24.comотмечают, что затраты на обучение DeepSeek-R1 (около 5 миллионов долларов США на первую итерацию) в разы ниже тех, о которых мы слышим в контексте GPT-4 или других закрытых моделей OpenAI, где речь идет о миллиардах долларов.

Где же кроется рецепт успеха?

  • Собственные методы оптимизации процесса обучения,
  • Маневренная архитектура, позволяющая модели обучаться эффективнее при меньшем количестве GPU,
  • Экономное управление обучающими данными (избегание ненужных повторений и точный выбор набора данных).

open source

Открытый исходный код и лицензирование

DeepSeek, в отличие от большинства западных конкурентов, опирается на открытый код. Как гласит официальная документация моделина Hugging Face:

«Серия DeepSeek-R1 поддерживает коммерческое использование, допускает любые модификации и производные работы, включая, но не ограничиваясь, дистилляцией…».

Это означает, что сообщество может не только свободно использовать эти модели, но и модифицировать и развивать их. Кроме того, в рамках линейки DeepSeek-R1-Distill уже разработано несколько вариантов, оптимизированных для более низких требований к ресурсам.

Важно:

  • Модели DeepSeek-R1-Distill основаны, в частности, на общедоступных Qwen2.5 и Llama3, с которыми сочетаются соответствующие лицензии Apache 2.0 и Llama.
  • Тем не менее, все это предоставляется сообществу на очень свободной основе, что стимулирует эксперименты и дальнейшие инновации.

AI

Модели DeepSeek-R1, R1-Zero и Distill: чем они отличаются?

Из документации, опубликованнойна Hugging Face, вытекает трехуровневое разделение:

1. DeepSeek-R1-Zero

  • Обучение только с помощью RL (reinforcement learning), без предварительного SFT,
  • Модель может генерировать очень сложные цепочки рассуждений (chain-of-thought),
  • Однако может страдать от повторов и проблем с читабельностью.

2. DeepSeek-R1

  • Включение фазы SFT перед RL решило проблемы, отмеченные в R1-Zero,
  • Улучшилась согласованность и уменьшилась склонность к галлюцинациям,
  • По результатам тестов (бенчмарков) он сопоставим с OpenAI o1 в математических, программистских и аналитических задачах.

3. DeepSeek-R1-Distill

  • «Бережливые» версии модели (1.5B, 7B, 8B, 14B, 32B, 70B параметров),
  • Позволяют упростить реализацию на более слабом оборудовании,
  • Созданы путем дистилляции (переноса знаний с полной модели R1 на меньшие архитектуры).

Соперничество Китая и США: санкции, полупроводники и инновации

Как отмечаетSouth China Morning Post (цитата по china24.com), разработка китайских моделей ИИ происходит на фоне ограниченного доступа к передовым полупроводникам, вызванного санкциями США.

Между тем китайские компании — в том числе DeepSeek или ByteDance (Doubao) — демонстрируют, что даже в таком неблагоприятном климате они способны создавать модели

  • Несравнимые с западными решениями,
  • и зачастую гораздо дешевле в обслуживании.

Как отмечает Джим Фан (ученый из Nvidia), проект DeepSeek может стать доказательством того, что инновации и ограничительные условия (сокращение финансирования, санкции) не должны быть взаимоисключающими.

Будет ли DeepSeek угрожать доминированию OpenAI?

High-Flyer Capital Management и другие китайские компании выходят на рынок с моделью, которая:

  • показывает лучшие результаты, чем западные конкуренты в некоторых тестах,
  • дешевле в разработке и обслуживании,
  • предоставляет открытые репозитории, что позволяет быстро развивать экосистему на основе сообщества.

Если OpenAI (и другие гиганты) не разработают стратегию конкуренции с более дешевыми и одинаково хорошими моделями, китайские решения — такие как DeepSeek или Doubao — могут оттянуть на себя значительную долю рынка.

LLM przyszłość

Эра дорогих моделей ИИ подходит к концу?

DeepSeek — живой пример того, что эра гигантских и сверхдорогих моделей ИИ может подойти к концу. Благодаря открытому коду, низкой стоимости обучения и очень хорошим показателям бенчмарков амбициозные стартапы из Китая могут изменить существующую расстановку сил в индустрии ИИ.

Учитывая растущую технологическую напряженность между Китаем и США, дальнейшее развитие DeepSeek и подобных проектов, скорее всего, станет одной из главных нитей в глобальном соревновании за лидерство в области ИИ.

Источники

  1. «Китайский DeepSeek побеждает все модели OpenAI. У Запада большие проблемы» — Паутина
  2. «DeepSeek. Китайский стартап создает ИИ с открытым исходным кодом» — china24.com
  3. Официальный сайт DeepSeek-R1 на Hugging Face

Автор: собственная компиляция на основе указанных публикаций.

Текст предназначен для информационных и журналистских целей.

И «Оскар» получает… Э. И. Броуди

Объявлены номинации на премию «Оскар». Среди фаворитов — фильм Брэди Корбета «Бруталист» с Эдриеном Броуди в главной роли, также номинированный на престижную премию. Фильм рассказывает о борьбе архитектора еврейского происхождения, который эмигрировал из послевоенной Европы в США в поисках безопасного убежища для себя и своей жены. Еще до объявления номинантов разгорелись жаркие споры о том, должен ли Эдриен Броуди получить награду за свою феноменальную актерскую игру из-за того, что его акцент, который мы слышим на протяжении всего фильма, был исправлен средствами искусственного интеллекта. Как видите, это не имело никакого значения в контексте самой номинации Эдриена, но в конце концов, окажут ли споры вокруг использования искусственного интеллекта в фильме решающее влияние на вердикт Американской академии кинематографических искусств и наук?

cinema

ИИ улучшил акцент Эдриена Броуди в «Бруталисте» — как технологии меняют кино?

В фильме«Бруталист»искусственный интеллект использовался для тонкой коррекции венгерского произношения актеров Эдриена Броуди и Фелисити Джонс. Редактор фильма Давид Янчо рассказал, что для повышения аутентичности диалогов на венгерском языке была использована технология Respeecher. Оба актера работали с тренером по диалектам, но продюсеры хотели добиться идеального произношения, которого трудно достичь традиционными методами. Являются ли такие методы будущим кинематографа или скорее угрозой для аутентичности игры актеров?

Принцип работы технологии Respeecher

Respeecher — это передовой инструмент синтеза речи, который позволяет превратить голос одного человека в голос другого, сохраняя все эмоции, интонации и естественность звучания. В основе процесса лежат алгоритмы машинного обучения, которые работают в несколько ключевых этапов:

  1. Сбор голосовых данных— сначала создатели записывают образцы целевого голоса. В случае сThe Brutalist это были записи актеров, которые должны были использовать венгерский акцент.
  2. Акустический анализ— система Respeecher анализирует уникальные характеристики голоса, такие как тембр, темп речи и произношение определенных фонем.
  3. Машинноеобучение — на основе предоставленных образцов алгоритмы изучают характеристики голоса, а затем генерируют цифровую версию, которая в точности отражает оригинальные особенности.
  4. Синтез аудио— в финале голос актера изменяется в соответствии с требованиями создателей — в данном случае это было аутентичное звучание венгерского акцента.

Преимущество такого подхода в том, что актеру не нужно заново записывать диалог. Как подчеркнули создатели фильма, технология использовалась только как вспомогательный инструмент, а не заменяла работу актеров.

ai cinema

ИИ в киноиндустрии — прорыв или угроза?

Использование искусственного интеллекта в таких фильмах, как«Бруталист», — это лишь верхушка айсберга. Технологии находят все больше и больше применений в кинематографе:

  • Спецэффекты— ИИ позволяет создавать реалистичные визуальные эффекты, что снижает стоимость производства.
  • Постпродакшн— инструменты на базе ИИ автоматизируют такие процессы, как монтаж, цветокоррекция и улучшение звука.
  • Написание сценариев— алгоритмы, анализирующие сюжеты популярных фильмов, могут предложить новые истории.
  • Оцифровка актеров— ИИ позволяет омолаживать или «оживлять» умерших актеров для использования в новых постановках. (Raindance)

usa law ai

Правовые и этические аспекты использования ИИ в кинематографе

Использование искусственного интеллекта в кино вызывает ряд юридических и этических вопросов, которые становятся все более острыми по мере расширения применения этой технологии. В случае с фильмом«Бруталист»мы можем выделить несколько ключевых вопросов:

  1. Авторское право— принадлежит ли цифровой голос, созданный искусственным интеллектом, актеру, технологической компании или продюсерам фильма? Использование голоса актера в синтетической форме может повлечь за собой требования вознаграждения за дополнительное использование образа.
  2. Прозрачность— зрители не были проинформированы об использовании Respeecher во время первых показов фильма. Должны ли кинематографисты открыто рассказывать о подобной практике, особенно если она влияет на восприятие спектаклей?
  3. Влияние на актерскую профессию— Критики обеспокоены тем, что развитие ИИ может привести к снижению спроса на актеров дубляжа или даже на самих актеров, когда их голоса будут генерироваться синтетически.

oscar ai

Споры и влияние на шансы на получение премии «Оскар

Раскрытие информации об использовании искусственного интеллекта в фильме«Бруталист»вызвало споры в киноиндустрии. Высказывались опасения, что подобная практика может подорвать подлинность игры актеров и привести к этическим дилеммам, связанным с использованием технологий в искусстве. В контексте предстоящей церемонии вручения премии «Оскар» некоторые эксперты предположили, что использование искусственного интеллекта в фильме«Бруталист»может повлиять на шансы Эдриена Броуди получить награду за лучшую мужскую роль. Тем не менее, и режиссер, и монтажер фильма уверяют нас, что ИИ был лишь инструментом, помогающим, а не заменяющим талант и работу актеров.

Резюме

Фильм «Бруталист»стал символом новой эры в кинематографе, когда искусственный интеллект становится не только творческим инструментом, но и предметом споров. Случай с Эдриеном Броуди и использованием Respeecher открывает дискуссию о границах применения технологий в искусстве. Будет ли ИИ лишь подспорьем для творцов или же он станет доминировать в индустрии, вытесняя человеческое творчество? Одно можно сказать точно — будущее кинематографа будет тесно связано с развитием технологий.

Источники:

Новый указ президента Трампа

23 января 2025 года президент Дональд Трамп подписал указ, определяющий новые приоритеты США в области искусственного интеллекта (ИИ). Это решение последовало за отменой исполнительного приказа EO 14110, изданного Джо Байденом в 2023 году, и вводит новые правила, регулирующие развитие ИИ в США. Этот шаг администрации Трампа подчеркивает важность ИИ для поддержания глобального доминирования США, стимулирования инноваций и обеспечения национальной безопасности.

AI USA

Новые приоритеты в политике в области ИИ

В указе президента Трампа изложены основные цели США в области искусственного интеллекта. В документе четко подчеркивается, что развитие ИИ должно основываться на принципах свободного рынка, исключающих «идеологические предубеждения». Ключевым элементом новой политики является укрепление глобальных позиций США в области ИИ для обеспечения экономической конкурентоспособности, развития человеческого потенциала и национальной безопасности.

В отличие от подхода администрации Байдена, предусматривавшего более строгое тестирование безопасности и обмен результатами с правительством, новая политика ставит во главу угла большую свободу для технологических компаний. Трамп назвал предыдущие правила слишком ограничительными, что, по его словам, могло помешать развитию ИИ в США.

business ai

Ключевые элементы постановления Трампа

  1. Отмена постановления EO 14110
  2. Постановление Байдена, призванное обеспечить безопасное и надежное развитие ИИ, было сочтено администрацией Трампа излишне ограничивающим свободу инноваций. Новое законодательство открывает путь к пересмотру всех нормативных актов и действий, вытекающих из отмененного постановления.
  3. Укрепление позиций США как мирового лидера в области ИИ
  4. В документе подчеркивается, что политика США направлена на сохранение и развитие доминирующего положения в области искусственного интеллекта. Это будет способствовать развитию технологических инноваций, экономической конкурентоспособности и национальной безопасности.
  5. Разработка плана действий в области ИИ
  6. В течение 180 дней после подписания указа специальные советники, включая помощника президента по науке и технологиям и специального советника по ИИ и криптовалютам, в сотрудничестве с помощником президента по экономической политике, помощником президента по внутренней политике, директором Управления по управлению и бюджету (OMB Director) и главами тех исполнительных департаментов и агентств, которые они сочтут необходимыми, должны представить план действий, в котором будет подробно описана реализация новых приоритетов.
  7. Обновление политики надзора
  8. Управление по управлению и бюджету (OMB) должно обновить существующие меморандумы по надзору за ИИ, чтобы привести их в соответствие с новой политикой.

bialy dom

Актуальность для Соединенных Штатов

1 Влияние на технологический сектор

Новый указ Трампа способен усилить инновационный импульс в секторе ИИ за счет устранения регуляторных барьеров. Это даст технологическим компаниям больше свободы для разработки новых систем и приложений, что может укрепить глобальные позиции США в этой области. В то же время отсутствие жесткого регулирования вызывает опасения по поводу этичности использования технологий и риска злоупотреблений.

2 Национальная безопасность и глобальная конкуренция

Подчеркивание роли ИИ в контексте национальной безопасности указывает на растущее значение этой технологии в обороне и разведке. США, как лидер в области инноваций, сталкиваются с конкуренцией прежде всего со стороны Китая, который также вкладывает значительные средства в ИИ. Новая политика призвана обеспечить США технологическое преимущество.

3 Критика и споры

Решение об отмене постановления Байдена подверглось критике со стороны ряда экспертов, которые опасаются, что отсутствие ограничений может привести к развитию опасных технологий ИИ. Алондра Нельсон из Центра американского прогресса предупреждает, что американская общественность может быть лишена защиты от потенциального вреда развития ИИ.

Закон об искусственном интеллекте — новаторское регулирование ИИ в ЕС

Европейский союз, напротив, разработал иной подход. Закон об искусственном интеллекте — это нормативный акт, который ставит Европейский союз в авангард глобальных усилий по созданию ответственной и прозрачной правовой базы для искусственного интеллекта. Опубликованное 12 июля 2024 года в Официальном журнале Европейской комиссии, это постановление является ключевым для формирования будущего технологий искусственного интеллекта в Европе, обеспечивая при этом высокий уровень защиты прав граждан и потребителей.

Постановление определяет системы ИИ с точки зрения их риска, классифицируя их по различным уровням (минимальный, ограниченный, высокий и неприемлемый). Системы ИИ с высоким уровнем риска, например, используемые в здравоохранении, образовании или при приеме на работу, должны будут соответствовать особым требованиям к безопасности, прозрачности и надежности. Кроме того, запрещено применение ИИ, которое считается неприемлемым, например, массовое биометрическое наблюдение в общественных местах или манипулирование поведением человека.

Сравнение с подходом США

В отличие от более мягкой политики США, Европейский союз уделяет больше внимания профилактике и защите прав граждан. В ЕС нормативные акты направлены на предотвращение потенциальных угроз ИИ, таких как алгоритмическая дискриминация, слежка или манипулирование общественным мнением.


Выводы и перспективы

Новый указ президента Трампа свидетельствует о том, что администрация ставит развитие ИИ в приоритет как ключевой элемент экономической и технологической стратегии США. Политика свободного рынка призвана привлечь инвестиции и стимулировать инновации, однако ее побочные эффекты могут привести к отсутствию адекватных этических и правовых гарантий.

GPT-чат не работает. Тысячи запросов от пользователей

Chat GPT

Иллюстрация сгенерирована конкурентом #GoogleGemini.

В четверг, 23 января, популярный чат GPT перестал работать. Об отключении сообщили тысячи обеспокоенных интернет-пользователей.

В четверг, 23 января, сайт, предоставляющий онлайн-доступ к популярному чату GPT, на некоторое время перестал работать. Перебой произошел примерно в 13:00 по польскому времени, что хорошо видно на графике сообщений downdetector.co.uk. Интересно, что сайты OpenAI, компании, ответственной за Chat GPT, в это же время продолжали работать.

В то же время сообщалось о проблемах с другими сервисами OpenAI. Модели GPT-4o и GPT-4 не работали, некоторые пользователи отмечали, что их сайты chatgpt.com и chat.openai.com не открывались. Другие отмечали, что Chat GPT не отвечает на их запросы. Приложения, разработанные для поддержки этой модели, также не отвечали на запросы.

Это не первый сбой в работе Chat GPT. В течение последних нескольких недель происходили кратковременные сбои в работе сервиса. Самый крупный был в декабре, когда произошел крупный сбой в США, который также привел к ошибкам в работе других сервисов OpenAI.

Проект «Звездные врата» — новая эра инфраструктуры искусственного интеллекта в США

Проект «Звездные врата» — одно из самых амбициозных технологических начинаний современной эпохи. В ближайшие четыре года в развитие передовой инфраструктуры искусственного интеллекта в США планируется инвестировать 500 миллиардов долларов, из которых 100 миллиардов будут выделены немедленно. Цель инициативы — укрепить позиции США как лидера в области искусственного интеллекта, создать сотни тысяч новых рабочих мест и обеспечить значительный экономический эффект в глобальном масштабе.

Stargate Project

Источник: www.openai.com/index/announcing-the-stargate-project

Реиндустриализация и укрепление национальной безопасности

Проект «Звездные врата» является ключевой частью процесса реиндустриализации США, помогая вернуть производство и инвестиции на американскую землю. Реализация этого проекта не только укрепит стратегические возможности США с точки зрения национальной безопасности и защиты международных интересов, но и ускорит развитие технологий, способных революционным образом изменить функционирование общества. Это значительный шаг к построению будущего, основанного на инновациях и передовых технологических решениях».

Споры вокруг проекта «Звездные врата

Проект вызвал не только всеобщий интерес, но и множество споров. Элон Маск, известный миллиардер и бывший соучредитель OpenAI, публично раскритиковал инициативу. В то время как президент Дональд Трамп назвал проект «крупнейшим в истории планом создания инфраструктуры ИИ», Маск выразил скептицизм, заявив, что у инвесторов, включая SoftBank, нет достаточных средств для его реализации.

В посте, опубликованном на платформе X, Маск написал: «У SoftBank значительно меньше 10 миллиардов долларов. Я получил это из хорошего источника». Его заявления также указывают на продолжающийся конфликт с Сэмом Альтманом, генеральным директором OpenAI, которого Маск назвал «Свирепым Сэмом».

Stargate Project

Искусственный интеллект общего назначения (ИОН) — прорыв для человечества

Одной из главных целей проекта «Звездные врата» является разработка AGI (Artificial General Intelligence) — искусственного интеллекта общего назначения, способного мыслить, обучаться и действовать на уровне, сравнимом с человеческим. AGI способен взять на себя решение широкого круга задач, которые до сих пор требовали от человека творческого подхода и адаптации.

Потенциальное влияние AGI на мир

  • Решение глобальных проблем

AGI может способствовать более эффективному решению таких проблем, как изменение климата, здравоохранение или социальные кризисы.

  • Достижения в области науки и образования

AGI ускорит научные открытия и революционизирует образовательные процессы, обеспечивая персонализированный подход к обучению.

  • Повышение качества жизни

Автоматизация сложных процессов позволит людям сосредоточиться на творчестве и инновациях, снизив бремя рутинных задач.

AI

Ключевые инновации и технологическое сотрудничество

Проект «Звездные врата» — это плод сотрудничества технологических лидеров, которые объединяют усилия для создания передовой инфраструктуры ИИ. Проект нацелен на создание современных центров обработки данных и массивных вычислительных систем для поддержки разработки передовых моделей искусственного интеллекта. Строительство первого из таких центров обработки данных уже началось в Техасе.

Источники:

  1. Информация о проекте взята с официального сайта OpenAI: https://openai.com/index/announcing-the-stargate-project/.
  2. Информация основана на статье CNN: https://edition.cnn.com/2025/01/21/tech/openai-oracle-softbank-trump-ai-investment/index.html.
  3. Дополнительная информация на основе статьи Politico: https://www.politico.eu/article/us-elon-musk-troll-donald-trump-500b-ai-plan/.

Трамп меняет регулирование искусственного интеллекта — новый подход к ИИ в США

Дональд Трамп начал свой президентский срок со значительных изменений в подходе к регулированию искусственного интеллекта (ИИ). Одним из первых шагов стала отмена исполнительного приказа Джо Байдена 2023, который вводил детальные требования к безопасности систем ИИ. Это решение вызвало споры среди экспертов, которые отмечают, что отсутствие адекватного регулирования может принести как возможности, так и серьезные угрозы для общества и позиции США как технологического лидера.

AI USA

О чем был исполнительный указ Байдена по ИИ?

Исполнительный указ Джо Байдена был направлен на обеспечение безопасного и ответственного развития искусственного интеллекта. Он сфокусирован на нескольких ключевых областях:

  1. Стандарты безопасности и тестирование систем искусственного интеллекта
  2. Компании, разрабатывающие искусственный интеллект, должны были проводить тестирование своих систем на безопасность и делиться результатами с правительством США. Это необходимо для выявления потенциальных рисков, таких как алгоритмическая предвзятость или риск использования ИИ в деятельности, угрожающей национальной безопасности.
  3. Защита от дезинформации, генерируемой ИИ
  4. Министерство торговли должно было разработать рекомендации по водяным знакам и системам аутентификации контента, позволяющим легко идентифицировать материалы, созданные ИИ. Это позволит снизить воздействие дезинформации и фальшивых новостей на общественность.
  5. Конфиденциальность и защита данных
  6. В постановлении подчеркивается необходимость защиты данных граждан от незаконного использования для обучения моделей ИИ. Хотя президент Байден призвал Конгресс принять соответствующие законы, конкретные законодательные акты, посвященные этому вопросу, на тот момент отсутствовали.
  7. Предотвращение алгоритмической дискриминации
  8. Один из ключевых моментов регулирования касался предотвращения создания алгоритмов ИИ на основе нерепрезентативных данных, которые могут привести к дискриминации, например, в системах найма, судебной системе или здравоохранении.
  9. Безопасность в здравоохранении и науках о жизни
  10. Администрация Байдена ввела в действие механизмы, предотвращающие использование ИИ для создания опасных биологических материалов. Министерство здравоохранения должно было разработать программы безопасности, связанные с применением ИИ в медицине, направленные на улучшение здравоохранения и разработку инновационных методов лечения. Их выполнение должно было стать условием получения федерального финансирования на проекты в области наук о жизни.
  11. Рынок труда и влияние ИИ
  12. Правила предполагали разработку норм, защищающих работников от недобросовестного использования ИИ в системах оценки работы или найма.

Подробнее о системах искусственного интеллекта в штатах вы можете прочитать здесь:

Стоит отметить, что отмененная версия постановления больше не доступна даже на сайте Белого дома, так что постановление не только отменено, но и удалено вместе с архивными версиями из официального источника. На данный момент его можно найти только здесь.

bialy dom

Почему Трамп отменил постановление?

Дональд Трамп утверждал, что правила, введенные Джо Байденом, были слишком строгими и могли ограничить развитие инновационных технологий. С точки зрения республиканцев, такие правила, как обязательная отчетность о тестах безопасности и обмен информацией с правительством, могут помешать технологическим компаниям и подорвать их конкурентоспособность на мировом рынке.

Трамп подчеркнул, что подход США к ИИ должен быть менее бюрократическим и более направленным на стимулирование инноваций. Решение об отмене постановления соответствует его философии дерегулирования и сокращения вмешательства государства в частный сектор.

Кроме того, постановление Байдена было направлено на повышение безопасности разработок ИИ за счет введения стандартов прозрачности, снижения риска дезинформации и противодействия алгоритмической дискриминации. Технологические компании также должны были делиться информацией о потенциальных недостатках своих моделей, в том числе о предвзятости ИИ, что особенно критиковалось в кругах, связанных с Трампом, как угрожающее их конкурентоспособности.

Решение Трампа — либерализация или риск?

Решение об отмене постановления вызвало неоднозначную реакцию. Такие эксперты, как Алондра Нельсон из Центра американского прогресса, предупреждают, что отсутствие стандартов безопасности ослабит защиту потребителей от рисков ИИ. Александр Новрестех из Института Катона, напротив, отметил, что отказ от некоторых положений Байдена, таких как облегчение иммиграции для специалистов в области ИИ, может иметь негативные последствия для сектора.

Однако сторонники Трампа утверждают, что его решение — это возможность ускорить технологическое развитие. Они подчеркивают, что слишком жесткое регулирование, подобное тому, что введено в Европе, может затормозить инновации.

404 Biały dom

Источник графики: сайт Белого дома

Последствия решения Трампа

Эксперты предупреждают, что отсутствие четко определенных правил, регулирующих развитие ИИ, может привести к ряду рисков:

  • Дезинформация и фальшивые новости: отсутствие правил проверки подлинности контента, создаваемого ИИ, может способствовать распространению ложной информации.
  • Угрозы национальной безопасности: Без надлежащей проверки безопасности системы ИИ могут быть уязвимы для использования в киберпреступности или военных действиях.
  • Этика и доверие: отсутствие регулирования повышает риск алгоритмической дискриминации и нарушения конфиденциальности, что может подорвать доверие общества к технологиям ИИ.

С другой стороны, сторонники решения Трампа подчеркивают, что либерализация регулирования позволит технологиям развиваться быстрее и привлечет инвестиции в сектор ИИ.

business ai

Останутся ли США лидером в области ИИ?

Решение Трампа отменить указ Байдена открывает новую главу в подходе США к регулированию ИИ. В то время как Европа делает упор на защиту гражданских прав, США могут пойти более либеральным путем, отдавая предпочтение свободе инноваций, но ущемляя при этом даже основные права человека.

Однако отсутствие четко определенной нормативной базы в долгосрочной перспективе может ослабить позиции США как лидера в области ИИ, особенно в контексте международного сотрудничества и создания глобальных стандартов. Ключевое значение будет иметь поиск баланса между поддержкой развития и минимизацией рисков, связанных с этой революционной технологией.

Искусственный интеллект (ИИ) остается одной из самых важных технологий XXI века, и решения, принятые мировыми лидерами в США на этой неделе, будут влиять на его развитие в течение десятилетий.

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten