AGI — машина, созданная человеком. Сможет ли закон угнаться за технологиями?

27 февраля 2025   /  AI

Общий искусственный интеллект (ОИ) становится все более реальной перспективой, ставящей беспрецедентные задачи перед законодателями и обществом. Недавний саммит AI Action Summit в Париже и конференция Международной ассоциации за безопасный и этичный ИИ (IASEAI ’25) пролили свет на острую необходимость создания всеобъемлющей правовой базы для этой разрушительной технологии.

ai

Истоки идеи искусственного интеллекта

Концепция искусственного интеллекта зародилась в 1950-х годах, когда ученые-первопроходцы в области компьютерных технологий начали изучать возможность создания машин, которые могли бы сравниться с человеческим интеллектом. Алан Тьюринг, один из предшественников ИИ, предложил тест Тьюринга — эксперимент по оценке того, сможет ли машина вести разговор, неотличимый от человеческого.

Поворотным моментом в истории ИИ стала Дартмутская конференция 1956 года, где был официально введен термин «искусственный интеллект». В то время прогнозировалось, что интеллект человеческого уровня будет достигнут быстро, но технологический прогресс не поспевал за оптимизмом исследователей.

Кризис и возрождение ИИ

В 1980-х и 1990-х годах подход к искусственному интеллекту изменился. Исследования были сосредоточены на более узких областях применения ИИ, таких как экспертные системы, а идея AGI отошла на второй план. Лишь стремительное развитие вычислительных технологий, больших данных и глубокого обучения в XXI веке переориентировало внимание исследователей на тему искусственного интеллекта общего назначения.

AI

Что такое AGI?

AGI, в отличие от современных систем ИИ, обладает потенциалом для выполнения широкого спектра интеллектуальных задач на уровне, сопоставимом с человеческим. Такая универсальность несет в себе как большие возможности, так и серьезные риски, которые необходимо должным образом регулировать.

На данный момент не существует юридического определения, охватывающего деятельность AGI, но, учитывая стремительное развитие технологий ИИ в ближайшем будущем, вполне вероятно, что его придется создать.

Многие компании и организации уже пытаются дать определение AGI. Например, OpenAI разработала определение AGI и пять уровней запроса в 2024 году.

По согласованию с OpenAI:

Сегодняшние чат-боты, такие как ChatGPT, находятся на первом уровне развития.

OpenAI утверждает, что они приближаются ко второму уровню, который означает систему, способную решать базовые задачи на уровне человека с докторской степенью.

Третий уровень — это ИИ, выступающий в роли агента, который может принимать решения и выполнять задачи от имени пользователя.

На четвертом уровне искусственный интеллект достигает способности создавать новые инновации.

Пятый, самый высокий уровень, относится к ИИ, который может выполнять работу целых организаций людей.

OpenAI ранее описывал AGI как «высокоавтономную систему, которая превосходит человека в большинстве задач, имеющих высокую экономическую ценность».

Stargate Project

Проект «Звездные врата

Одним из самых амбициозных начинаний в области AGI является проект «Звездные врата», предполагающий инвестиции в размере 500 миллиардов долларов в развитие инфраструктуры искусственного интеллекта в США. Главная цель — укрепить позиции США как лидера в области AGI, а также создать сотни тысяч рабочих мест и обеспечить глобальный экономический эффект.

AGI способен взять на себя выполнение широкого спектра задач, которые раньше требовали от человека творческого подхода и адаптации.

Подробнее о Звездных вратах:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Почему регулирование AGI имеет решающее значение? Мнения экспертов

На конференции IASEAI ’25 в Париже и Саммите действий в области ИИ эксперты подчеркнули необходимость всеобъемлющего регулирования AGI.

  • Доктор Шимон Лукасик (NASK) отметил, что закон должен соответствовать темпам развития инноваций, обеспечивая при этом их безопасность.
  • Профессор Стюарт Рассел выступил за введение обязательных гарантий для предотвращения вредного использования AGI.
  • Джозеф Стиглиц указал на необходимость учета интересов общества в законодательном процессе.
  • Макс Тегмарк из Института будущего жизни, тем временем, подчеркнул важность международного сотрудничества, особенно между США и Китаем. Только глобальный подход позволит эффективно регулировать развитие AGI.

AGI

Риски, связанные с AGI

Многие эксперты выразили в Париже обеспокоенность развитием ИИ, которое, по их мнению, происходит очень быстро, по мнению некоторых, AGI будут созданы уже в ближайшие 10 лет. Ключевыми вопросами, касающимися AGI, были следующие:

  • Сможет ли AGI самостоятельно изменять правила для достижения своих целей?
  • Какими должны быть резервные механизмы AGI?
  • Как сделать так, чтобы цели ИИ не расходились с интересами человечества?

Исследователи уже убедились, что если у модели есть заданная цель, например победа в игре, то она способна изменить свои правила, чтобы победить. Учитывая этот факт, необходимо смоделировать цели системы ИИ таким образом, чтобы они не расходились с интересами человечества.

Эти соображения и предложения направлены на создание правовой базы и стандартов, которые позволят безопасно и этично развивать ИИ, не препятствуя при этом технологическому прогрессу. Эксперты сходятся во мнении, что регулирование должно быть комплексным и учитывать как технические аспекты, так и социальные последствия развития AGI. Таким образом, международное сотрудничество является ключевым фактором для создания единых стандартов безопасности и этики.

Прозрачность и механизмы безопасности

Прозрачность и механизмы безопасности — еще одни ключевые аспекты, которые должны быть включены в будущие нормативные акты. Профессор Стюард Рассел высказался за то, чтобы законодательно обязать компании, разрабатывающие ИИ, внедрять средства защиты от вредного использования их технологий. Эксперты также предлагают законодательно закрепить требование о наличии механизма аварийного отключения моделей ИИ и создать стандарты для тестирования гарантий.

В контексте механизмов аварийного отключения моделей ИИ существует два ключевых стандарта ISO, которые касаются этого вопроса:

  • ISO 13850 — это стандарт на функции аварийной остановки в машинах. Хотя он не касается непосредственно моделей ИИ, в нем установлены общие принципы разработки механизмов аварийного останова, которые потенциально могут быть применены и к системам ИИ. В стандарте подчеркивается, что функция аварийного останова должна быть доступна и работоспособна в любое время, а ее активация должна иметь приоритет перед всеми другими функциями;
  • С другой стороны,ISO/IEC 42001 — это более поздний стандарт, опубликованный в декабре 2023 года, который непосредственно касается систем управления ИИ. Он охватывает более широкие аспекты управления рисками ИИ, включая оценку рисков и последствий ИИ и управление жизненным циклом системы ИИ.

Согласно ISO/IEC 42001, организации должны внедрить процессы идентификации, анализа, оценки и мониторинга рисков, связанных с системами ИИ, на протяжении всего жизненного цикла системы управления. В этом стандарте особое внимание уделяется постоянному совершенствованию и поддержанию высоких стандартов при разработке систем ИИ.

Стоит отметить, что, несмотря на то, что эти стандарты содержат рекомендации, конкретные механизмы защиты для продвинутых систем ИИ, таких как AGI, все еще изучаются и обсуждаются на международном уровне. Эксперты подчеркивают, что с развитием все более совершенных систем ИИ традиционные методы «отключения» могут оказаться недостаточными, поэтому необходимо будет разработать другие стандарты и решения.

Sztuczna inteligencja

Подробнее об искусственном интеллекте:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Регулирование AGI и кибербезопасность

AGI может выявлять и использовать уязвимости быстрее, чем любой человек или существующие системы ИИ. Поэтому регулирование AGI должно включать в себя:

  • Предотвращение использования ИИ для кибератак.
  • Стандартизация безопасности систем AGI, чтобы снизить риск захвата злоумышленниками.
  • Определение юридической ответственности в случае инцидентов, связанных с AGI.

Междисциплинарный подход к законотворчеству

Развитие AGI требует междисциплинарного подхода, который включает в себя:

  • Сотрудничество юристов с экспертами по ИИ, этиками и экономистами.
  • Глобальные правила, защищающие права человека и неприкосновенность частной жизни.
  • Прозрачность механизмовразработки и контроляAGI.

Проактивный правовой подход может сделать AGI безопасным и полезным для всего человечества, не блокируя технологический прогресс.

AGI — это технология с огромным потенциалом, но и с серьезными рисками. Крайне важно создать правовую базу и стандарты, которые позволят обеспечить ее безопасное развитие. Международное сотрудничество и междисциплинарный подход являются ключевыми факторами для того, чтобы AGI служила человечеству, а не создавала риски.

Podziel się

Podziel się

Potrzebujesz pomocy w tym temacie?

Напишите нашему эксперту

Гжегож Лесьневский

УПРАВЛЯЮЩИЙ ПАРТНЕР, АДВОКАТ

+48 531 871 707 Связаться с

Статьи в этой категории

Музыка будущего — Suno AI и Sora AI — станет ли искусственный интеллект новым поколением создателей музыки?

AI

подробнее
Музыка будущего — Suno AI и Sora AI — станет ли искусственный интеллект новым поколением создателей музыки?

Со 2 февраля 2025 года действуют статьи 1-5 Закона об искусственном интеллекте, несоблюдение которых может привести к крупным штрафам

AI

подробнее
Со 2 февраля 2025 года действуют статьи 1-5 Закона об искусственном интеллекте, несоблюдение которых может привести к крупным штрафам

DeepSeek — китайский ИИ с открытым исходным кодом. Есть ли у Гонконга шанс победить OpenAI?

AI

подробнее
DeepSeek — китайский ИИ с открытым исходным кодом. Есть ли у Гонконга шанс победить OpenAI?

И «Оскар» получает… Э. И. Броуди

AI

подробнее
И «Оскар» получает… Э. И. Броуди

Новый указ президента Трампа

AI

подробнее
Новый указ президента Трампа
подробнее

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten