AGI – машина, створена людиною. Чи може право йти в ногу з технологіями?
27 Лютого 2025 / AI
Загальний штучний інтелект (AGI) стає все більш реальною перспективою, ставлячи безпрецедентні виклики перед законодавцями та суспільством. Нещодавній саміт AI Action Summit у Парижі та конференція Міжнародної асоціації безпечного та етичного ШІ (IASEAI ’25) пролили світло на нагальну потребу у створенні всеосяжної правової бази для цієї проривної технології.
Витоки ідеї штучного інтелекту
Концепція ШІ бере свій початок у 1950-х роках, коли вчені-комп’ютерники-новатори почали досліджувати можливість створення машин, які могли б зрівнятися з людським інтелектом. Алан Тьюрінг, один з попередників ШІ, запропонував тест Тьюрінга – експеримент, який мав на меті оцінити, чи може машина вести розмову, яку неможливо відрізнити від людської.
Поворотним моментом в історії ШІ стала Дартмутська конференція 1956 року, де було офіційно запроваджено термін «штучний інтелект». Тоді прогнозувалося, що інтелект людського рівня буде досягнутий швидко, але технологічний прогрес не встигав за оптимізмом дослідників
Криза і відродження ШІ
1980-ті та 1990-ті роки принесли зміни в підході до штучного інтелекту. Дослідження зосередилися на вужчих сферах застосування ШІ, таких як експертні системи, а ідея AGI відійшла на задній план. Лише стрімкий розвиток обчислювальних технологій, великих даних та глибокого навчання у 21 столітті перефокусував увагу дослідників на тему штучного загального інтелекту.
Що таке ШІ?
ШІ, на відміну від сучасних систем ШІ, має потенціал для виконання широкого спектру інтелектуальних завдань на рівні, порівнянному з людиною. Ця універсальність несе з собою як великі можливості, так і серйозні ризики, які потребують належного регулювання.
Наразі не існує юридичного визначення, яке б охоплювало роботу AGI, але, зважаючи на швидкий розвиток технологій ШІ в найближчому майбутньому, цілком ймовірно, що таке визначення необхідно буде створити.
Багато компаній та організацій вже намагаються дати визначення AGI. Наприклад, OpenAI створила визначення AGI і п’ять рівнів запитів у 2024 році.
За погодженням з OpenAI:
Сьогоднішні чат-боти, такі як ChatGPT, знаходяться на першому рівні розвитку.
OpenAI заявляє, що наближається до другого рівня, що означає систему, здатну вирішувати базові завдання на рівні людини з науковим ступенем.
Третій рівень – це ШІ в ролі агента, який може приймати рішення і виконувати завдання від імені користувача.
На четвертому рівні штучний інтелект досягає здатності створювати нові інновації.
П’ятий, найвищий рівень, відноситься до ШІ, який може виконувати роботу цілих організацій людей.
OpenAI раніше описував AGI як «високоавтономну систему, яка перевершує людину в більшості завдань, що мають високу економічну цінність».
Проект Stargate
Одним з найамбітніших проектів AGI є Project Stargate, який передбачає інвестиції в розмірі 500 мільярдів доларів у розвиток інфраструктури ШІ в США. Основною метою є зміцнення позицій США як лідера в галузі ШІ, а також створення сотень тисяч робочих місць і отримання глобальних економічних вигод.
ШІ має потенціал, щоб взяти на себе широкий спектр завдань, які раніше вимагали людської творчості та адаптивності
Дізнайтеся більше про Stargate:
https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/
Чому регулювання ШІ має вирішальне значення? Думки експертів
На IASEAI ’25 у Парижі та AI Action Summit експерти наголошували на необхідності всебічного регулювання ШІ.
- Д-р Шимон Лукасік (NASK) зазначив, що законодавство повинно йти в ногу з темпами інновацій, забезпечуючи при цьому їхню безпеку.
- Професор Стюарт Рассел виступив за введення обов’язкових гарантій для запобігання шкідливому використанню AGI.
- Джозеф Стігліц вказав на необхідність врахування інтересів суспільства в законодавчому процесі.
- Макс Тегмарк з Інституту майбутнього життя наголосив на важливості міжнародної співпраці, особливо між США та Китаєм. Тільки глобальний підхід дозволить ефективно регулювати розвиток AGI.
Ризики, пов’язані з AGI
Багато експертів висловили в Парижі занепокоєння з приводу розвитку ШІ, який, на їхню думку, відбувається дуже швидко, на думку деяких, AGI буде створений вже в найближчі 10 років. Ключовими питаннями, що стосуються AGI, були
- Чи може AGI самостійно змінювати правила для досягнення своїх цілей?
- Якими мають бути резервні механізми AGI?
- Як зробити так, щоб цілі ШІ не розходилися з інтересами людства?
Дослідники вже перевіряють, що якщо модель має певну мету, наприклад, перемогти в грі, вона здатна модифікувати свої правила, щоб виграти. З огляду на це, необхідно моделювати цілі ШІ-системи таким чином, щоб вони не розходилися з інтересами людства.
Ці міркування і пропозиції спрямовані на створення правової бази і стандартів, які дозволять безпечно і етично розвивати ШІ, не перешкоджаючи при цьому технологічному прогресу. Експерти сходяться на думці, що регулювання має бути комплексним і враховувати як технічні аспекти, так і соціальні наслідки розвитку ШІ. Таким чином, міжнародне співробітництво є ключовим для створення єдиних стандартів безпеки та етики.
Прозорість і механізми безпеки
Прозорість і механізми безпеки – інші ключові аспекти, які повинні бути включені в майбутні правила. Професор Стюард Рассел виступає за те, щоб компанії, які розробляють ШІ, були юридично зобов’язані впроваджувати гарантії захисту від шкідливого використання їхніх технологій. Експерти також пропонують законодавчо закріпити механізм аварійного вимкнення моделей ШІ та створити стандарти для тестування захисних механізмів.
У контексті механізмів аварійного вимкнення моделей штучного інтелекту є два ключові стандарти ISO, які стосуються цього питання:
- ISO 13850 – це стандарт для функцій аварійного вимкнення в машинах. Хоча він не стосується безпосередньо моделей ШІ, він встановлює загальні принципи проектування механізмів аварійної зупинки, які потенційно можуть бути застосовані і до систем ШІ. Стандарт підкреслює, що функція аварійної зупинки повинна бути доступною і працювати в будь-який час, а її активація повинна мати пріоритет над усіма іншими функціями;
- З іншого боку,ISO/IEC 42001 – це новіший стандарт, опублікований у грудні 2023 року, який безпосередньо стосується систем управління ШІ. Він охоплює ширші аспекти управління ризиками ШІ, включаючи оцінку ризиків і впливу ШІ та управління життєвим циклом системи ШІ.
Відповідно до ISO/IEC 42001, організації зобов’язані впроваджувати процеси виявлення, аналізу, оцінки та моніторингу ризиків, пов’язаних із системами ШІ, протягом усього життєвого циклу системи управління. Цей стандарт наголошує на постійному вдосконаленні та підтримці високих стандартів при розробці систем штучного інтелекту.
Варто зазначити, що, хоча ці стандарти надають рекомендації, конкретні резервні механізми для передових систем ШІ, таких як AGI, все ще досліджуються та обговорюються на міжнародному рівні. Експерти підкреслюють, що з розвитком все більш досконалих систем АІ традиційних методів «вимкнення» може виявитися недостатньо, тому необхідно буде розробляти інші стандарти і рішення.
Дізнайтеся більше про штучний інтелект:
Регулювання ШІ та кібербезпека
AGI може виявляти і використовувати вразливості швидше, ніж будь-яка людина або сучасні системи ШІ. Тому регулювання ШІ має включати в себе:
- Запобігання використанню ШІ для кібератак.
- Стандартизація безпеки систем ШІ, щоб зменшити ризик поглинання зловмисниками.
- Визначення юридичної відповідальності у випадку інцидентів, пов’язаних з AGI.
Міждисциплінарний підхід до законотворчості
Розвиток AGI вимагає міждисциплінарного підходу, який включає в себе:
- Співпраця юристів з експертами зі штучного інтелекту, етиками та економістами.
- Глобальні норми, що захищають права людини та приватність.
- Прозорість механізміврозробки та контролюШІ.
Проактивний правовий підхід може зробити ШІ безпечним і корисним для всього людства, не блокуючи при цьому технологічний прогрес.
AGI – це технологія з величезним потенціалом, але також і з серйозними ризиками. Вкрай важливо створити правову базу і стандарти, які дозволять її безпечний розвиток. Міжнародне співробітництво та міждисциплінарний підхід є ключовими для забезпечення того, щоб AGI служив людству, а не створював ризики.
Potrzebujesz pomocy w tym temacie?
Напишіть нашому експерту
Статті в цій категорії
З 2 лютого 2025 року діють статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів
З 2 лютого 2025 року діють статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафівDeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?
DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?Не працює GPT-чат. Тисячі запитів від користувачів
Не працює GPT-чат. Тисячі запитів від користувачів