AGI – машина, створена людиною. Чи може право йти в ногу з технологіями?

Загальний штучний інтелект (AGI) стає все більш реальною перспективою, ставлячи безпрецедентні виклики перед законодавцями та суспільством. Нещодавній саміт AI Action Summit у Парижі та конференція Міжнародної асоціації безпечного та етичного ШІ (IASEAI ’25) пролили світло на нагальну потребу у створенні всеосяжної правової бази для цієї проривної технології.

ai

Витоки ідеї штучного інтелекту

Концепція ШІ бере свій початок у 1950-х роках, коли вчені-комп’ютерники-новатори почали досліджувати можливість створення машин, які могли б зрівнятися з людським інтелектом. Алан Тьюрінг, один з попередників ШІ, запропонував тест Тьюрінга – експеримент, який мав на меті оцінити, чи може машина вести розмову, яку неможливо відрізнити від людської.

Поворотним моментом в історії ШІ стала Дартмутська конференція 1956 року, де було офіційно запроваджено термін «штучний інтелект». Тоді прогнозувалося, що інтелект людського рівня буде досягнутий швидко, але технологічний прогрес не встигав за оптимізмом дослідників

Криза і відродження ШІ

1980-ті та 1990-ті роки принесли зміни в підході до штучного інтелекту. Дослідження зосередилися на вужчих сферах застосування ШІ, таких як експертні системи, а ідея AGI відійшла на задній план. Лише стрімкий розвиток обчислювальних технологій, великих даних та глибокого навчання у 21 столітті перефокусував увагу дослідників на тему штучного загального інтелекту.

AI

Що таке ШІ?

ШІ, на відміну від сучасних систем ШІ, має потенціал для виконання широкого спектру інтелектуальних завдань на рівні, порівнянному з людиною. Ця універсальність несе з собою як великі можливості, так і серйозні ризики, які потребують належного регулювання.

Наразі не існує юридичного визначення, яке б охоплювало роботу AGI, але, зважаючи на швидкий розвиток технологій ШІ в найближчому майбутньому, цілком ймовірно, що таке визначення необхідно буде створити.

Багато компаній та організацій вже намагаються дати визначення AGI. Наприклад, OpenAI створила визначення AGI і п’ять рівнів запитів у 2024 році.

За погодженням з OpenAI:

Сьогоднішні чат-боти, такі як ChatGPT, знаходяться на першому рівні розвитку.

OpenAI заявляє, що наближається до другого рівня, що означає систему, здатну вирішувати базові завдання на рівні людини з науковим ступенем.

Третій рівень – це ШІ в ролі агента, який може приймати рішення і виконувати завдання від імені користувача.

На четвертому рівні штучний інтелект досягає здатності створювати нові інновації.

П’ятий, найвищий рівень, відноситься до ШІ, який може виконувати роботу цілих організацій людей.

OpenAI раніше описував AGI як «високоавтономну систему, яка перевершує людину в більшості завдань, що мають високу економічну цінність».

Stargate Project

Проект Stargate

Одним з найамбітніших проектів AGI є Project Stargate, який передбачає інвестиції в розмірі 500 мільярдів доларів у розвиток інфраструктури ШІ в США. Основною метою є зміцнення позицій США як лідера в галузі ШІ, а також створення сотень тисяч робочих місць і отримання глобальних економічних вигод.

ШІ має потенціал, щоб взяти на себе широкий спектр завдань, які раніше вимагали людської творчості та адаптивності

Дізнайтеся більше про Stargate:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Чому регулювання ШІ має вирішальне значення? Думки експертів

На IASEAI ’25 у Парижі та AI Action Summit експерти наголошували на необхідності всебічного регулювання ШІ.

  • Д-р Шимон Лукасік (NASK) зазначив, що законодавство повинно йти в ногу з темпами інновацій, забезпечуючи при цьому їхню безпеку.
  • Професор Стюарт Рассел виступив за введення обов’язкових гарантій для запобігання шкідливому використанню AGI.
  • Джозеф Стігліц вказав на необхідність врахування інтересів суспільства в законодавчому процесі.
  • Макс Тегмарк з Інституту майбутнього життя наголосив на важливості міжнародної співпраці, особливо між США та Китаєм. Тільки глобальний підхід дозволить ефективно регулювати розвиток AGI.

AGI

Ризики, пов’язані з AGI

Багато експертів висловили в Парижі занепокоєння з приводу розвитку ШІ, який, на їхню думку, відбувається дуже швидко, на думку деяких, AGI буде створений вже в найближчі 10 років. Ключовими питаннями, що стосуються AGI, були

  • Чи може AGI самостійно змінювати правила для досягнення своїх цілей?
  • Якими мають бути резервні механізми AGI?
  • Як зробити так, щоб цілі ШІ не розходилися з інтересами людства?

Дослідники вже перевіряють, що якщо модель має певну мету, наприклад, перемогти в грі, вона здатна модифікувати свої правила, щоб виграти. З огляду на це, необхідно моделювати цілі ШІ-системи таким чином, щоб вони не розходилися з інтересами людства.

Ці міркування і пропозиції спрямовані на створення правової бази і стандартів, які дозволять безпечно і етично розвивати ШІ, не перешкоджаючи при цьому технологічному прогресу. Експерти сходяться на думці, що регулювання має бути комплексним і враховувати як технічні аспекти, так і соціальні наслідки розвитку ШІ. Таким чином, міжнародне співробітництво є ключовим для створення єдиних стандартів безпеки та етики.

Прозорість і механізми безпеки

Прозорість і механізми безпеки – інші ключові аспекти, які повинні бути включені в майбутні правила. Професор Стюард Рассел виступає за те, щоб компанії, які розробляють ШІ, були юридично зобов’язані впроваджувати гарантії захисту від шкідливого використання їхніх технологій. Експерти також пропонують законодавчо закріпити механізм аварійного вимкнення моделей ШІ та створити стандарти для тестування захисних механізмів.

У контексті механізмів аварійного вимкнення моделей штучного інтелекту є два ключові стандарти ISO, які стосуються цього питання:

  • ISO 13850 – це стандарт для функцій аварійного вимкнення в машинах. Хоча він не стосується безпосередньо моделей ШІ, він встановлює загальні принципи проектування механізмів аварійної зупинки, які потенційно можуть бути застосовані і до систем ШІ. Стандарт підкреслює, що функція аварійної зупинки повинна бути доступною і працювати в будь-який час, а її активація повинна мати пріоритет над усіма іншими функціями;
  • З іншого боку,ISO/IEC 42001 – це новіший стандарт, опублікований у грудні 2023 року, який безпосередньо стосується систем управління ШІ. Він охоплює ширші аспекти управління ризиками ШІ, включаючи оцінку ризиків і впливу ШІ та управління життєвим циклом системи ШІ.

Відповідно до ISO/IEC 42001, організації зобов’язані впроваджувати процеси виявлення, аналізу, оцінки та моніторингу ризиків, пов’язаних із системами ШІ, протягом усього життєвого циклу системи управління. Цей стандарт наголошує на постійному вдосконаленні та підтримці високих стандартів при розробці систем штучного інтелекту.

Варто зазначити, що, хоча ці стандарти надають рекомендації, конкретні резервні механізми для передових систем ШІ, таких як AGI, все ще досліджуються та обговорюються на міжнародному рівні. Експерти підкреслюють, що з розвитком все більш досконалих систем АІ традиційних методів «вимкнення» може виявитися недостатньо, тому необхідно буде розробляти інші стандарти і рішення.

Sztuczna inteligencja

Дізнайтеся більше про штучний інтелект:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Регулювання ШІ та кібербезпека

AGI може виявляти і використовувати вразливості швидше, ніж будь-яка людина або сучасні системи ШІ. Тому регулювання ШІ має включати в себе:

  • Запобігання використанню ШІ для кібератак.
  • Стандартизація безпеки систем ШІ, щоб зменшити ризик поглинання зловмисниками.
  • Визначення юридичної відповідальності у випадку інцидентів, пов’язаних з AGI.

Міждисциплінарний підхід до законотворчості

Розвиток AGI вимагає міждисциплінарного підходу, який включає в себе:

  • Співпраця юристів з експертами зі штучного інтелекту, етиками та економістами.
  • Глобальні норми, що захищають права людини та приватність.
  • Прозорість механізміврозробки та контролюШІ.

Проактивний правовий підхід може зробити ШІ безпечним і корисним для всього людства, не блокуючи при цьому технологічний прогрес.

AGI – це технологія з величезним потенціалом, але також і з серйозними ризиками. Вкрай важливо створити правову базу і стандарти, які дозволять її безпечний розвиток. Міжнародне співробітництво та міждисциплінарний підхід є ключовими для забезпечення того, щоб AGI служив людству, а не створював ризики.

Фонд МСП 2025 – фінансування реєстрації торгових марок для МСП

Захистіть свій бренд та отримайте фінансування у 2025 році!

Хороші новини для малих та середніх підприємств (МСП)! 3 лютого 2025 року розпочався черговий набір до Фонду МСП, який пропонує фінансування для реєстрації торговельних марок на рівні Європейського Союзу. Ця програма – чудова можливість захистити свій бренд та підвищити конкурентоспроможність на європейському ринку.

sme fund 2025

Що таке Фонд МСП 2025?

Фонд МСП – це ініціатива Відомства інтелектуальної власності Європейського Союзу (EUIPO), спрямована на підтримку малих та середніх підприємств у захисті прав інтелектуальної власності. В рамках програми підприємці можуть отримати ваучер на суму до 1 000 євро для покриття витрат на реєстрацію торговельних марок та промислових зразків.

Навіщо захищати торговельну марку?

Реєстрація торговельної марки на рівні ЄС надає компанії ряд переваг, серед яких

✅ Ексклюзивні права на бренд на всій території Європейського Союзу,

✅ Захист від недобросовісної конкуренції та підробок,

✅ Підвищення гудвілу та впізнаваності на ринку,

✅ Безпечні інвестиції в брендинг та маркетинг,

✅ Спрощення залучення інвесторів та фінансування.

sme fund 2025

Хто може отримати вигоду від фінансування?

Програма SME Fund 2025 спрямована на малі та середні підприємства (МСП), що базуються в Європейському Союзі, в тому числі

✔ Фізичні особи-підприємці,

✔ Комерційні компанії,

✔ Громадські партнерства.

Умовою участі є відповідність критеріям МСП, тобто менше 250 працівників та річний оборот, що не перевищує 50 мільйонів євро.

Як отримати фінансування від Фонду МСП 2025?

Щоб отримати фінансування, необхідно пройти чотириступеневий процес:

1. подання заявки на фінансування через платформу EUIPO,

2. отримання рішення про надання ваучера

3. реєстрація торгової марки та сплата зборів,

4. подання запиту на відшкодування понесених витрат.

Весь процес займає приблизно 2 місяці – від подачі заявки до отримання відшкодування.

sme fund 2025

Скільки можна отримати? Обсяг фінансування

В рамках програми «Фонд МСП 2025» підприємці можуть отримати

75% відшкодування зборів за подачу заявки на торговельну марку на рівні ЄС або на національному рівні,

50% відшкодування основних зборів за міжнародну заявку,

Максимальна сума фінансування становить 1 000 євро на одне МСП.

Чому варто діяти швидко?

🕒 Пул коштів у програмі обмежений!

Фінансування надається в порядку живої черги, тому має сенс подати заявку якомога швидше після запуску програми 3 лютого 2025 року.

Як ми можемо допомогти?

Наша юридична фірма вже багато років допомагає підприємцям з реєстрацією торговельних марок. Ми пропонуємо комплексну підтримку на кожному етапі процесу:

🔹 Аналіз можливості реєстрації знаку,

🔹 Підготовка та подача заявки на реєстрацію,

подача заявки на торговельну марку до відповідного відомства,

🔹 вирішення формальностей щодо відшкодування витрат.

Захистіть свій бренд з Фондом МСП 2025 та нашою юридичною компанією! З Фондом МСП 2025 та нашою підтримкою ви можете захистити свій бренд з мінімальними витратами.

Зв’яжіться з нами вже сьогодні та домовтеся про безкоштовну консультацію:

Не зволікайте! Кількість коштів обмежена – подайте заявку якомога швидше та захистіть свій бренд в ЄС!

Більше інформації можна знайти тут:

https://uprp.gov.pl/pl/aktualnosci/informacje/rusza-kolejna-edycja-programu-pn-fundusz-dla-msp

Податкові аспекти ведення бізнесу в Німеччині

Шановні панове!

Запрошуємо Вас взяти участь у безкоштовному вебінарі, присвяченому податковим аспектам ведення бізнесу в Німеччині, організованому юридичною фірмою Leśniewski Borkiewicz Kostka & Partners (LBK&P) у співпраці з німецькою податковою консультаційною компанією Dr. Klein, Dr. Mönstermann International Tax Services GmbH. Захід орієнтований як на компанії, що тільки починають свою діяльність на німецькому ринку, так і на ті, що вже працюють на ньому – особливо в секторі малого та середнього бізнесу та великих підприємств. Будь ласка, також не соромтеся переслати запрошення своїм друзям, які можуть бути зацікавлені в темах вебінару.

📅 Дата: 18 лютого 2025 року.

⏰ Час: 10:00

📍 Місце проведення: онлайн

Під час вебінару експерти LBK&P Павло Суліга (податковий консультант у Польщі та Німеччині, визнаний експерт з німецького податкового та господарського права, щодня обслуговує в Німеччині, зокрема, польські компанії з будівельної галузі, що котируються на ВФБ) та Бартломей Халупінський (податковий консультант у Польщі, керівник податкового відділу LBK&P) обговорять ключові питання, що стосуються податкового законодавства та зобов’язань, пов’язаних із веденням бізнесу в Німеччині.

Порядок денний:

✅ Ключові податкові зміни в Німеччині з 01.01.2025.

Які податкові зобов’язання виникають при відкритті бізнесу в Німеччині?

Документація та інформаційні зобов’язання при веденні транскордонного бізнесу – на що слід звернути увагу.

ПРИМІТКИ:

Після вебінару є можливість отримати безкоштовну 30-хвилинну індивідуальну консультацію з нашими експертами (необхідна окрема реєстрація, кількість місць обмежена). Щоб забронювати їх, будь ласка, напишіть на електронну поштуrezerwacje@lbplegal.com.

🔗 посилання для реєстрації на вебінар – посилання для участі у вебінарі та дані для входу будуть надіслані вам не пізніше, ніж за 3 дні до заходу.

Деталі заходу також описані в додатку разом із посиланням на реєстрацію.

Запрошуємо до участі!

Завантажити додаток:

Webinar - Podatkowe aspekty prowadzenia działalności gospodarczej w Niemczech

З 2 лютого 2025 року діють статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів

ВАЖЛИВА ПОПЕРЕДЖЕННЯ – З 2 лютого набувають чинності статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів. Багато компаній в ЄС ще не вжили необхідних заходів – ось основні моменти.

ai law

З 2 лютого 2025 року набувають чинності перші положення Регламенту про штучний інтелект (AI Act), спрямовані на підвищення безпеки та регулювання ринку штучного інтелекту в Європейському Союзі.

Ключові зміни включають

  • Заборонені практики – заборона на використання та маркетинг або розміщення на ринку систем штучного інтелекту, які відповідають критеріям заборонених практик. Приклади включають системи маніпуляцій, які використовують людські вразливості, системи соціальних оцінок і системи, які аналізують емоції на робочому місці або в навчанні. Порушення цих правил тягне за собою великі фінансові санкції – до 35 мільйонів євро або 7% річного глобального обороту компанії.
  • Зобов’язання щодо ШІ-грамотності. Роботодавці повинні забезпечити належну підготовку та обізнаність працівників у сфері АІ, щоб вони могли безпечно використовувати системи штучного інтелекту на роботі. Недостатня підготовка в галузі АІ може призвести до недотримання вимог законодавства та підвищити ризик неналежного використання систем АІ. Що стосується грамотності в галузі АІ, варто також переконатися, що в компанії впроваджена політика використання АІ. Як це можна зробити?

Читайте в статтях:

Політика використання АІ в компанії може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, способи реагування на інциденти та призначення особи, відповідальної за ефективне впровадження та використання АІ в організації (AI Ambassador).

 

Важливість освіти у сфері штучного інтелекту (стаття 4 Закону про штучний інтелект)

Поінформованість і знання про штучний інтелект – це не лише законодавча вимога, а й стратегічна необхідність для організацій. Стаття 4 Закону про штучний інтелект вимагає від компаній впроваджувати навчальні програми, адаптовані до знань, ролі та досвіду працівників.

«Постачальники та користувачі систем штучного інтелекту повинні вживати заходів для забезпечення, наскільки це можливо, належного рівня компетентності в галузі штучного інтелекту серед свого персоналу та інших осіб, залучених до експлуатації та використання систем штучного інтелекту від їхнього імені, беручи до уваги їхні технічні знання, досвід, освіту та підготовку, а також контекст, у якому системи штучного інтелекту будуть використовуватися, і беручи до уваги осіб або групи осіб, проти яких системи штучного інтелекту будуть застосовуватися».

Бездіяльність у цьому відношенні тягне за собою серйозні наслідки, зокрема

  • Ризик порушення законодавства про захист даних і приватного життя.
  • Підвищення ймовірності юридичних порушень і фінансових санкцій.

Окрім дотримання нормативних вимог, освіта в галузі штучного інтелекту допомагає сформувати культуру відповідального використання технологій і мінімізувати потенційні операційні ризики.

Де шукати рекомендації?

Стандарт ISO/IEC 42001 для системи управління штучним інтелектом може допомогти. При розгляді відповідних компетенцій тих, хто має справу зі штучним інтелектом в організації, стандарт вказує, наприклад, на наступне:

  • наставництво
  • навчання
  • переведення працівників на відповідні завдання в організації на основі аналізу їхніх компетенцій.

При цьому відповідні ролі або сфери компетенції повинні стосуватися, наприклад, таких питань:

  • нагляд за системою штучного інтелекту
  • безпека
  • захист
  • конфіденційності.

LLM security

Заборонені методи застосування штучного інтелекту (стаття 5 Закону про штучний інтелект)

Закон про штучний інтелект забороняє використання певних систем штучного інтелекту, які можуть призвести до серйозних ризиків для громадськості. Постачальники та компанії, які використовують ШІ, повинні гарантувати, що вони не беруть прямої чи опосередкованої участі в його розробці або впровадженні. Серед іншого, AI Act перераховує конкретні заборонені практики, які вважаються особливо небезпечними. До них належать

  • Підсвідомі або маніпулятивні методи – системи штучного інтелекту, які підсвідомо змінюють поведінку користувача так, щоб він прийняв рішення, яке в іншому випадку не прийняв би.
  • Використання вразливостей людини – системи, які використовують інвалідність, соціальне чи економічне становище людини.
  • Соціальний скоринг – системи, які оцінюють громадян і надають їм певні права на основі їхньої поведінки.
  • Оцінка кримінальних ризиків – системи, які створюють профілі осіб та оцінюють їхні індивідуальні характеристики без законних на те підстав.
  • Створення баз даних зображень облич – нецільове отримання зображень з інтернету або міських камер спостереження для створення систем розпізнавання облич.
  • Аналіз емоцій на робочому місці або в навчанні – системи ШІ, які аналізують емоції співробітників або студентів.
  • Біометрична категоризація конфіденційних даних – використання біометрії для вилучення інформації про расу, політичні погляди тощо.
  • Віддалена біометрична ідентифікація в режимі реального часу – використання систем розпізнавання облич у громадських місцях для забезпечення правопорядку.

Де шукати рекомендації?

  • Проєкт керівних принципів щодо заборонених практик штучного інтелекту (ШІ) – 4 лютого 2025 року. Комісія опублікувала керівні принципи щодо заборонених практик штучного інтелекту (ШІ), які мають на меті забезпечити послідовне, ефективне та однакове застосування Закону про ШІ на всій території ЄС.

Важливі дедлайни:

  • З 2 лютого 2025 року. – Глава II (заборонені практики)
  • З 2 серпня 2025 року. – Глава V (моделі загального призначення), Глава XII (Штрафи) без статті 101
  • З 2 серпня 2026 року. – Стаття 6(2) та Додаток III (схеми з високим ступенем ризику), Глава IV (зобов’язання щодо прозорості)
  • З 2 серпня 2027 року – Стаття 6(1) (схеми з високим ступенем ризику) та відповідні зобов’язання

Ключові уроки для компаній:

  • Дотримання статей 1-5 Закону про штучний інтелект є обов’язковим і не може бути проігнороване.
  • Навчання з питаньштучного інтелекту є ключовим для уникнення помилок через необізнаність працівників, а також потенційної відповідальності компанії.
  • Проведення аудиту постачальників технологій необхідне для забезпечення відповідності систем АІ вимогам законодавства.
  • Впровадити політику використання ШІ – створити чітку документацію для упорядкування ризиків. Політика може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, порядок реагування на інциденти, а також призначення особи, відповідальної за нагляд (AI Ambassador).
  • Розробка інструментів ШІ на законних підставах – компанії, що розробляють інструменти ШІ, повинні враховувати правові та етичні аспекти на кожному етапі розробки. Це включає, але не обмежується аналізом законності цілей системи, законності баз даних, кібербезпеки та тестування системи. Важливо, щоб процес розробки систем штучного інтелекту відповідав принципам конфіденційності за задумом і конфіденційності за замовчуванням RODO – Як розробляти інструменти штучного інтелекту легально?

Обов’язково ознайомтеся з цими джерелами:

DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?

DeepSeek – це серія китайськомовних моделей, які вражають своєю продуктивністю та низькою вартістю навчання. Завдяки своєму підходу з відкритим вихідним кодом DeepSeek-R1 і DeepSeek-V3 викликають неабиякий ажіотаж в індустрії ШІ.

DeepSeek

Джерело: www.deepseek.com

DeepSeek: революція в світі ШІ родом з Гонконгу

DeepSeek все частіше згадується в дискусіях про майбутнє штучного інтелекту. Цей гонконгський проект пропонує великі мовні моделі (LLM), що характеризуються відкритим кодом, високою продуктивністю і – що дуже важливо – набагато меншими витратами на навчання, ніж конкуруючі рішення від OpenAI або Meta.

У цій статті ми розглянемо DeepSeek-R1, DeepSeek-V3 та обговоримо останню інформацію про процес розробки та розповсюдження цих моделей – на основі як офіційних матеріалів, доступних наHugging Face, так і публікацій зSpider’s Webтаchina24.com.

Зміст

  1. Як народився DeepSeek?
  2. DeepSeek-R1 і DeepSeek-V3: короткий технічний вступ
  3. Витрати на навчання та продуктивність: у чому секрет?
  4. Відкритий вихідний код та ліцензування
  5. Моделі DeepSeek-R1, R1-Zero та Distill: чим вони відрізняються?
  6. Китайсько-американське суперництво: санкції, напівпровідники та інновації
  7. Чи загрожує DeepSeek домінуванню OpenAI?
  8. Підсумок
  9. Джерела

AI born

Як народився DeepSeek?

Останні повідомлення в пресі вказують на те, що в 2015 році в Гонконзі була заснована компанія High-Flyer Capital Management – компанія, яка донедавна була майже невідома в ІТ-індустрії за межами Азії. Ситуація кардинально змінилася з появою DeepSeek, серії великих мовних моделей, які взяли штурмом експертів Кремнієвої долини.

Однак DeepSeek – це не просто комерційний проект, це також подих відкритості у світі, де зазвичай домінують закриті рішення з величезними бюджетами, такі як моделі від OpenAI (в тому числі GPT-4 і OpenAI o1).

DeepSeek-R1 і DeepSeek-V3: короткий технічний вступ

Згідно зофіційною сторінкою проекту на Hugging Face, DeepSeek наразі публікує кілька варіантів своїх моделей:

  1. DeepSeek-R1-Zero: створена в результаті поглибленого навчання без початкового етапу SFT (Supervised Fine-Tuning), з акцентом на посилення навичок міркування (так званий ланцюжок думок).
  2. DeepSeek-R1: автори додали додаткове точне налаштування під контролем (SFT) перед етапом навчання з підкріпленням, що покращило читабельність і послідовність згенерованого тексту.
  3. DeepSeek-V3: названа на честь базової моделі, з якої походять описані вище варіанти R1-Zero і R1. DeepSeek-V3 може мати до 671 мільярда параметрів і була навчена за два місяці за ціною приблизно $5,58 млн (дані:china24.com).

ai tech

Технічний контекст

  • Велика кількість параметрів (до 671 мільярда) означає здатність генерувати дуже складні твердження та аналізи.
  • Оптимізований процес навчання гарантує, що навіть така велика архітектура не потребує бюджету, порівнянного з OpenAI.
  • Основна мета: самостійно розробляти багатокрокові рішення і мінімізувати «галюцинації», які так часто зустрічаються в інших моделях.

Витрати на навчання та продуктивність: у чому секрет?

ІSpider’s Web, іchina24.comвідзначають, що витрати на навчання DeepSeek-R1 (близько 5 мільйонів доларів США для першої ітерації) в рази нижчі, ніж ті, про які ми чуємо в контексті GPT-4 або інших закритих моделей OpenAI, де, як кажуть, задіяні мільярди доларів.

У чому ж полягає рецепт успіху?

  • Власні методи оптимізації процесу навчання,
  • Гнучка архітектура, яка дозволяє моделі ефективніше навчатися на меншій кількості графічних процесорів,
  • економне управління навчальними даними (уникнення непотрібних повторень і точний вибір набору даних).

open source

Відкритий вихідний код та ліцензування

DeepSeek, на відміну від більшості західних конкурентів, покладається на відкритий код. Як зазначено в офіційній документації до моделіHugging Face:

«Серія DeepSeek-R1 підтримує комерційне використання, дозволяє будь-які модифікації та похідні роботи, включаючи, але не обмежуючись, дистиляцію…».

Це означає, що спільнота може не тільки вільно використовувати ці моделі, але й модифікувати та розвивати їх. Крім того, в рамках лінійки DeepSeek-R1-Distill вже розроблено кілька варіантів, оптимізованих для менших потреб у ресурсах.

Важливо:

  • Моделі DeepSeek-R1-Distill базуються, серед іншого, на загальнодоступних Qwen2.5 і Llama3, з якими поєднуються відповідні ліцензії Apache 2.0 і Llama.
  • Тим не менш, все це надається спільноті на дуже ліберальній основі, що стимулює експерименти та подальші інновації.

AI

Моделі DeepSeek-R1, R1-Zero і Distill: чим вони відрізняються?

З документації, опублікованоїна Hugging Face, випливає трирівневий поділ:

1. DeepSeek-R1-Zero

  • Навчання тільки за допомогою RL (навчання з підкріпленням), без попереднього SFT,
  • Модель може генерувати дуже складні ланцюжки міркувань (ланцюжки думок),
  • однак може страждати від повторень і проблем з читабельністю.

2 DeepSeek-R1

  • Включення фази SFT перед RL вирішило проблеми, зазначені в R1-Zero,
  • Краща консистенція і менша схильність до галюцинацій,
  • За результатами тестів (бенчмарків) порівнянний з OpenAI o1 в математичних, програмних та аналітичних завданнях.

3. DeepSeek-R1-Distill

  • «Схудлі» версії моделі (параметри 1.5B, 7B, 8B, 14B, 32B, 70B),
  • Дозволяють полегшити реалізацію на слабшому обладнанні,
  • Створені шляхом дистиляції (перенесення знань з повної моделі R1 на менші архітектури).

Китайсько-американське суперництво: санкції, напівпровідники і інновації

Як зазначаєSouth China Morning Post (цитується за china24.com), розробка китайських моделей ШІ відбувається на тлі обмеженого доступу до передових напівпровідників, спричиненого санкціями США.

Тим часом китайські компанії, зокрема DeepSeek або ByteDance (Дубао), демонструють, що навіть у такому несприятливому кліматі вони здатні створювати моделі, які

  • Незрівнянні із західними рішеннями,
  • і часто набагато дешевші в обслуговуванні.

Як зазначає Джим Фан (науковець Nvidia), проект DeepSeek може стати доказом того, що інновації та обмежувальні умови (менше фінансування, санкції) не обов’язково мають бути взаємовиключними.

Чи загрожує DeepSeek домінуванню OpenAI?

High-Flyer Capital Management та інші китайські фірми виходять на ринок з моделлю, яка

  • працює краще, ніж західні конкуренти в деяких тестах,
  • дешевша у розробці та підтримці
  • надає відкриті репозиторії, що дозволяє швидко розвивати екосистему на основі спільноти.

Якщо OpenAI (та інші гіганти) не розроблять стратегію конкуренції з дешевшими і не менш якісними моделями, китайські рішення – такі як DeepSeek або Doubao – можуть завоювати значну частку ринку.

LLM przyszłość

Ера дорогих моделей ШІ добігає кінця?

DeepSeek – живий приклад того, що ера гігантських і наддорогих моделей ШІ, можливо, добігає кінця. Завдяки відкритому коду, низьким витратам на навчання і дуже хорошим показникам в тестах, амбітні стартапи з Китаю можуть похитнути існуючий баланс сил в індустрії ШІ.

З огляду на зростаючу технологічну напруженість між Китаєм і США, подальший розвиток DeepSeek і подібних проектів, швидше за все, стане однією з головних ниток у глобальній конкуренції за лідерство в ШІ.

Джерела

  1. “Китайський DeepSeek перевершує всі моделі OpenAI. У Заходу велика проблема” – Павутина
  2. “DeepSeek. Китайський стартап створює ШІ з відкритим вихідним кодом» – china24.com
  3. Офіційний сайт DeepSeek-R1 на Hugging Face

Автор: власна компіляція на основі зазначених публікацій.

Текст призначений для інформаційних та журналістських цілей.

І «Оскар» отримує… Ел Ел Броуді

Оголошено номінантів на премію «Оскар». Серед фаворитів – « Бруталіст » Брейді Корбета з Едріеном Броуді в головній ролі – також номінований на престижну нагороду. Фільм розповідає історію боротьби архітектора єврейського походження, який емігрував з післявоєнної Європи до США, шукаючи безпечного притулку для себе та своєї дружини. Ще до оголошення номінацій точилися палкі суперечки щодо того, чи повинен Едріен Броуді отримати нагороду за феноменальну акторську гру, адже його акцент, який ми чуємо протягом усього фільму, був скоригований за допомогою інструментів штучного інтелекту. Як бачите, це не мало значення в контексті самої номінації Едріена, але, зрештою, чи матиме суперечка навколо використання ШІ у фільмі вирішальний вплив на вердикт Американської академії кінематографічних мистецтв і наук?

cinema

АІ покращив акцент Едріена Броуді у фільмі “Бруталіст » – як технології змінюють кінематограф?

У фільмі«Бруталіст» штучний інтелект тонко виправив угорську вимову акторів Едріена Броуді та Фелісіті Джонс. Монтажер фільму Давід Янчо розповів, що технологія Respeecher була використана для покращення автентичності діалогів угорською мовою. Обидва актори працювали з діалектним тренером, але продюсери хотіли ідеальної вимови, якої важко досягти традиційними методами. Чи є такі практики майбутнім кіно, чи радше загрозою для автентичності гри акторів?

Як працює технологія Respeecher

Respeecher – це сучасний інструмент синтезу мовлення, який дозволяє перетворити голос однієї людини на голос іншої, зберігаючи всі емоції, інтонації та природність звучання. Процес базується на алгоритмах машинного навчання, які працюють у кілька ключових етапів:

  1. Збір голосових даних– творці спочатку записують зразки цільового голосу. У випадку з«Бруталістом» це були записи акторів з угорським акцентом.
  2. Акустичний аналіз– система Respeecher аналізує унікальні характеристики голосу, такі як тембр, темп мовлення і те, як вимовляються певні фонеми.
  3. Машинненавчання – на основі наданих зразків алгоритми вивчають характеристики голосу, а потім генерують цифрову версію, яка точно відображає оригінальні особливості.
  4. Аудіосинтез– у фінальному процесі голос актора модифікується відповідно до вимог творців – у цьому випадку це було автентичне звучання угорського акценту.

Перевага такого підходу полягає в тому, що акторові не потрібно перезаписувати діалог. Як підкреслили кінематографісти, технологію використовували лише як допоміжний інструмент, не замінюючи роботу акторів.

ai cinema

АІ в кіноіндустрії – прорив чи загроза?

Використання АІ в таких фільмах, як«Бруталіст», – це лише верхівка айсберга. Технологія знаходить все більше застосувань у кінематографі:

  • Спецефекти– ШІ дозволяє створювати реалістичні візуальні ефекти, що знижує витрати на виробництво.
  • Постпродакшн– інструменти на основі ШІ автоматизують такі процеси, як монтаж, корекція кольору та покращення звуку.
  • Написання сценаріїв– алгоритми, які аналізують популярні кіносюжети, можуть запропонувати нові історії.
  • Оцифрування акторів– ШІ дає змогу омолоджувати або «оживляти» померлих акторів для використання в нових постановках. (Танець дощу)

usa law ai

Правові та етичні аспекти використання АІ в кінематографі

Використання ШІ в кіно піднімає низку правових та етичних питань, які стають дедалі гострішими в міру поширення цієї технології. У випадку з фільмом«Бруталіст» ми можемо виділити кілька ключових питань:

  1. Авторськеправо – чи належить цифровий голос, згенерований штучним інтелектом, акторові, технологічній компанії чи продюсерам фільму? Використання голосу актора в синтетичній формі може спричинити вимоги про виплату винагороди за додаткове використання образу.
  2. Прозорість– під час перших показів фільму глядачі не були поінформовані про використання Respeecher. Чи повинні режисери бути відкритими щодо таких практик, особливо коли вони впливають на сприйняття перформансів?
  3. Вплив на акторську професію– критики занепокоєні тим, що розвиток штучного інтелекту може призвести до зменшення попиту на акторів дубляжу або навіть на самих акторів, якщо їхні голоси можна буде генерувати синтетично.

oscar ai

Суперечки та вплив на шанси на «Оскар

Розкриття інформації про використання ШІ у фільмі«Бруталіст»викликало суперечки в кіноіндустрії. Висловлювалися побоювання, що така практика може підірвати автентичність гри акторів і призвести до етичних дилем, пов’язаних із використанням технологій у мистецтві. У контексті майбутньої церемонії вручення премії «Оскар» деякі експерти припустили, що використання штучного інтелекту у фільмі«Бруталіст» може вплинути на шанси Едріена Броуді отримати нагороду за найкращу чоловічу роль. Проте і режисер, і монтажер фільму запевняють, що ШІ був лише інструментом, який допоміг, а не замінив талант і роботу акторів.

Підсумок

Фільм«Бруталіст» став символом нової ери в кінематографі, в якій штучний інтелект стає не лише творчим інструментом, але й предметом суперечок. Випадок з Едріеном Броуді та використанням Respeecher відкриває дискусію про межі застосування технологій у мистецтві. Чи буде штучний інтелект лише підтримкою для творців, чи домінуватиме в індустрії, замінюючи людську творчість? Безперечно одне – майбутнє кіно буде тісно пов’язане з розвитком технологій.

Джерела:

Новий указ президента Трампа

23 січня 2025 року президент Дональд Трамп підписав указ, який визначає нові пріоритети США у сфері штучного інтелекту (ШІ). Це рішення слідує за скасуванням указу EO 14110, виданого Джо Байденом у 2023 році, і вводить нові правила, що регулюють розвиток ШІ в США. Цей крок адміністрації Трампа підкреслює важливість ШІ для збереження глобального домінування США, стимулювання інновацій та забезпечення національної безпеки.

AI USA

Нові пріоритети в політиці щодо АІ

В указі президента Трампа викладені основні цілі США у сфері штучного інтелекту. У документі чітко підкреслюється, що розвиток ШІ має ґрунтуватися на принципах вільного ринку, що виключає «ідеологічні упередження». Ключовим елементом нової політики є зміцнення глобальних позицій США у сфері ШІ для сприяння економічній конкурентоспроможності, людському розвитку та національній безпеці.

На відміну від підходу адміністрації Байдена, який передбачав більш суворе тестування безпеки та обмін результатами з урядом, нова політика ставить на перше місце більшу свободу для технологічних компаній. Трамп назвав попередні правила занадто обмежувальними, що, за його словами, могло перешкоджати розвитку ШІ в США.

business ai

Ключові елементи регулювання Трампа

  1. Скасування указу EO 14110
  2. Постанова Байдена, яка мала на меті забезпечити безпечний і надійний розвиток ШІ, була визнана адміністрацією Трампа такою, що надмірно обмежує свободу інновацій. Нове законодавство відкриває шлях до перегляду всіх нормативних актів і дій, що випливають зі скасованої постанови.
  3. Зміцнення позицій США як світового лідера в галузі ШІ
  4. У документі підкреслюється, що політика США спрямована на збереження та розвиток домінування у сфері штучного інтелекту. Це має сприяти технологічним інноваціям, економічній конкурентоспроможності та національній безпеці.
  5. Розробка Плану дій у сфері ШІ
  6. Протягом 180 днів після підписання указу спеціальні радники, зокрема помічник президента з питань науки і технологій та спеціальний радник з питань штучного інтелекту та криптовалют, у співпраці з помічником президента з питань економічної політики, помічником президента з питань внутрішньої політики, директором Адміністративно-бюджетного управління (директор АБУ) та керівниками виконавчих департаментів і відомств, які вищезазначені особи вважатимуть за потрібне, мають представити план дій, який детально описуватиме реалізацію нових пріоритетів.
  7. Оновлення політики нагляду
  8. Офіс з управління та бюджету (OMB) повинен оновити існуючі меморандуми про нагляд за ШІ, щоб привести їх у відповідність до нової політики.

bialy dom

Актуальність для Сполучених Штатів

1 Вплив на технологічний сектор

Новий указ Трампа може посилити інноваційний імпульс у секторі ШІ завдяки усуненню регуляторних бар’єрів. Це дасть технологічним компаніям більше свободи для розробки нових систем і додатків, що може зміцнити глобальні позиції США в цій галузі. Водночас відсутність суворого регулювання викликає занепокоєння щодо етичності використання технологій та ризику зловживань.

2 Національна безпека і глобальна конкуренція

Підкреслення ролі ШІ в контексті національної безпеки вказує на зростаюче значення цієї технології в обороні та розвідці. США, як інноваційний лідер, стикаються з конкуренцією насамперед з боку Китаю, який також інвестує значні кошти в ШІ. Нова політика покликана надати США технологічну перевагу.

3 Критика і суперечки

Рішення Байдена скасувати постанову зазнало критики з боку численних експертів, які побоюються, що відсутність обмежень може призвести до розвитку небезпечних ШІ-технологій. Алондра Нельсон з Центру американського прогресу попереджає, що американська громадськість може бути позбавлена захисту від потенційної шкоди від розвитку ШІ.

AI Act – новаторське регулювання ШІ в ЄС

Європейський Союз, з іншого боку, створив інший підхід. Закон про штучний інтелект (AI Act) – це нормативний акт, який ставить Європейський Союз в авангард глобальних зусиль зі створення відповідальної та прозорої правової бази для штучного інтелекту. Опублікований 12 липня 2024 року в Офіційному віснику Європейської Комісії, регламент є ключовим для формування майбутнього технології штучного інтелекту в Європі, забезпечуючи при цьому високий рівень захисту прав громадян і споживачів.

Регламент визначає системи ШІ з точки зору їхнього ризику, класифікуючи їх на різні рівні (мінімальний, обмежений, високий і неприйнятний). Системи штучного інтелекту з високим рівнем ризику, наприклад, ті, що використовуються в охороні здоров’я, освіті або в процесах найму на роботу, повинні будуть відповідати особливим вимогам щодо безпеки, прозорості та надійності. Крім того, було заборонено застосування ШІ, яке вважається неприйнятним, наприклад, масове біометричне спостереження в громадських місцях або маніпулювання людською поведінкою.

Порівняння з підходом США

На відміну від більш м’якої політики США, Європейський Союз робить більший акцент на профілактиці та захисті прав громадян. Правила ЄС спрямовані на запобігання потенційним загрозам ШІ, таким як алгоритмічна дискримінація, стеження або маніпулювання громадською думкою.


Висновки та перспективи

Новий указ президента Трампа свідчить про те, що адміністрація надає пріоритет розвитку ШІ як ключовому елементу економічної та технологічної стратегії США. Політика вільного ринку спрямована на залучення інвестицій та стимулювання інновацій, але її побічні ефекти можуть призвести до відсутності належних етичних та правових гарантій.

Не працює GPT-чат. Тисячі запитів від користувачів

Chat GPT

Ілюстрація згенерована конкурентом #GoogleGemini.

У четвер, 23 січня, перестав працювати популярний GPT-чат. Про це повідомили тисячі стурбованих інтернет-користувачів.

У четвер, 23 січня, сайт, що надає онлайн-доступ до популярного чату GPT Chat, на деякий час припинив роботу. Збій стався близько 13:00 за польським часом, що добре видно на графіку звітності downdetector.co.uk. Цікаво, що сайти OpenAI, компанії, відповідальної за Chat GPT, працювали в той самий час.

Одночасно повідомлялося про проблеми з іншими сервісами OpenAI. Моделі GPT-4o і GPT-4 не працювали, причому деякі користувачі вказували, що їхні веб-сайти chatgpt.com і chat.openai.com не відкривалися. Інші зазначали, що Chat GPT не відповідає на їхні запити. Додатки, розроблені для підтримки цієї моделі, також не реагували.

Це не перший збій у роботі Chat GPT. За останні кілька тижнів відбувалися короткочасні перебої в роботі сервісу. Найбільший з них стався в грудні, коли в США стався серйозний збій, що також призвів до помилок в роботі інших сервісів OpenAI.

Stargate Project – нова ера інфраструктури штучного інтелекту в США

Проект Stargate Project – одне з найамбітніших технологічних підприємств сучасності. В рамках проекту планується інвестувати $500 млрд протягом наступних чотирьох років у розвиток передової інфраструктури штучного інтелекту в США, з яких $100 млрд буде виділено негайно. Мета ініціативи – зміцнити позиції США як лідера в галузі штучного інтелекту, створити сотні тисяч нових робочих місць і забезпечити значні економічні вигоди в глобальному масштабі.

Stargate Project

Джерело: www.openai.com/index/announcing-the-stargate-project

Реіндустріалізація та зміцнення національної безпеки

Проект Stargate є ключовою частиною процесу реіндустріалізації США, який допомагає повернути виробництво та інвестиції на американську землю. Реалізація цього проекту не лише зміцнить стратегічні можливості США з точки зору національної безпеки та захисту міжнародних інтересів, але й прискорить розвиток технологій, які можуть революціонізувати функціонування суспільств. Це значний крок до побудови майбутнього, заснованого на інноваціях та передових технологічних рішеннях.

Суперечки навколо проекту «Зоряна брама

Проект викликав не лише широкий інтерес, але й багато суперечок. Ілон Маск, відомий мільярдер і колишній співзасновник OpenAI, публічно розкритикував ініціативу. Хоча президент Дональд Трамп назвав проект «найбільшим планом інфраструктури ШІ в історії», Маск висловив скептицизм, стверджуючи, що інвестори, в тому числі SoftBank, не мають достатніх коштів для його реалізації.

У пості, опублікованому на платформі X, Маск написав: “SoftBank має значно менше 10 мільярдів доларів. Я отримав це з хорошого джерела». Його заяви ще більше підкреслили триваючий конфлікт з Семом Альтманом, генеральним директором OpenAI, якого Маск назвав «Шахрайським Семом».

Stargate Project

Штучний загальний інтелект (AGI) – прорив для людства

Однією з головних цілей проекту Stargate є розробка AGI (Artificial General Intelligence) – штучного загального інтелекту, здатного мислити, навчатися і діяти на рівні, порівнянному з людським. AGI має потенціал, щоб взяти на себе широкий спектр завдань, які досі вимагали людської креативності та адаптивності.

Потенційний вплив ШІ на світ

  • Вирішення глобальних проблем

AGI може сприяти більш ефективному вирішенню таких проблем, як зміна клімату, охорона здоров’я або соціальні кризи.

  • Досягнення в науці та освіті

Прискорить наукові відкриття та революціонізує освітні процеси, уможлививши персоналізований підхід до навчання.

  • Покращення якості життя

Автоматизація складних процесів дозволить людям зосередитися на творчості та інноваціях, зменшивши тягар рутинних завдань.

AI

Ключові інновації та технологічна співпраця

Проект Stargate – це плід співпраці між технологічними лідерами, які об’єднують зусилля для створення передової інфраструктури ШІ. Проект зосереджений на створенні найсучасніших центрів обробки даних і потужних обчислювальних систем для підтримки розробки новітніх моделей штучного інтелекту. Будівництво першого з таких дата-центрів вже розпочалося в Техасі.

Джерела:

  1. Інформація про проект взята з офіційного сайту OpenAI: https://openai.com/index/announcing-the-stargate-project/.
  2. Інформація на основі статті CNN: https://edition.cnn.com/2025/01/21/tech/openai-oracle-softbank-trump-ai-investment/index.html.
  3. Додаткова інформація за матеріалами видання Politico: https://www.politico.eu/article/us-elon-musk-troll-donald-trump-500b-ai-plan/.

Трамп змінює регулювання штучного інтелекту – новий підхід до ШІ в США

Дональд Трамп розпочав свій президентський термін зі значних змін у підході до регулювання штучного інтелекту (ШІ). Одним із перших кроків стало скасування указу Джо Байдена 2023, який запровадив детальні вимоги до безпеки систем штучного інтелекту. Це рішення викликало суперечки серед експертів, які зазначають, що відсутність належного регулювання може нести як можливості, так і серйозні загрози для суспільства та позиції США як технологічного лідера.

AI USA

Про що йдеться в указі Байдена щодо АІ?

Указ Джо Байдена мав на меті забезпечити безпечний і відповідальний розвиток штучного інтелекту. Він зосередився на кількох ключових напрямках:

  1. Стандарти безпеки та тестування систем штучного інтелекту
  2. Компанії, що розробляють штучний інтелект, були зобов’язані проводити тестування безпеки своїх систем і ділитися результатами з урядом США. Це було зроблено для виявлення потенційних ризиків, таких як алгоритмічні упередження або ризик використання ШІ в діяльності, що загрожує національній безпеці.
  3. Захист від дезінформації, створеної штучним інтелектом
  4. Міністерство торгівлі мало розробити рекомендації щодо водяних знаків і систем автентифікації контенту, щоб полегшити ідентифікацію матеріалів, створених штучним інтелектом. Це мало зменшити вплив дезінформації та фейкових новин на громадськість.
  5. Конфіденційність і захист даних
  6. У законі наголошується на захисті даних громадян від незаконного використання для навчання моделей ШІ. Хоча президент Байден закликав Конгрес ухвалити відповідні закони, на той час конкретного законодавства, яке б вирішувало цю проблему, не було.
  7. Запобігання алгоритмічній дискримінації
  8. Одним із ключових моментів регулювання було запобігання створенню алгоритмів ШІ на основі нерепрезентативних даних, які можуть призвести до дискримінації, наприклад, у системах найму на роботу, судовій системі або охороні здоров’я.
  9. Безпека в галузі охорони здоров’я та медико-біологічних наук
  10. Адміністрація Байдена запровадила механізми запобігання використанню ШІ для створення небезпечних біологічних матеріалів. Міністерство охорони здоров’я повинно було розробити програми безпеки, пов’язані зі застосуванням ШІ в медицині, зосередившись на поліпшенні охорони здоров’я та розробці інноваційних методів лікування. Виконання цих вимог було умовою для отримання федерального фінансування проектів у галузі медико-біологічних наук.
  11. Ринок праці та вплив ШІ
  12. Нормативно-правові акти передбачали розробку правил для захисту працівників від недобросовісного використання ШІ в системах оцінювання роботи або рекрутингу.

Більше про системи штучного інтелекту в штатах можна прочитати тут:

Варто зазначити, що скасована версія постанови вже навіть не доступна на сайті Білого дому, тож постанова не тільки скасована, але й видалена разом з архівними версіями з офіційного джерела. Наразі його можна знайти лише тут.

bialy dom

Чому Трамп скасував регламент?

Дональд Трамп стверджував, що правила, запроваджені Джо Байденом, були занадто суворими і могли обмежити розвиток інноваційних технологій. З точки зору республіканців, такі правила, як обов’язкове звітування про тести безпеки та обмін інформацією з урядом, могли завадити технологічним компаніям і підірвати їхню конкурентоспроможність на світовому ринку.

Трамп підкреслив, що підхід США до ШІ повинен бути менш бюрократичним і більш орієнтованим на стимулювання інновацій. Рішення про скасування регулювання відповідає його філософії дерегуляції та зменшення втручання держави в приватний сектор.

Крім того, постанова Байдена мала на меті зробити розробку ШІ більш безпечною, запровадивши стандарти прозорості, зменшивши ризик дезінформації та протидії алгоритмічній дискримінації. Технологічні компанії також повинні були ділитися інформацією про потенційні недоліки своїх моделей, включаючи упередженість ШІ, що особливо критикувалося колами, пов’язаними з Трампом, як таке, що загрожує їхній конкурентоспроможності.

Рішення Трампа – лібералізація чи ризик?

Рішення про скасування регулювання викликало неоднозначну реакцію. Такі експерти, як Алондра Нельсон з Центру американського прогресу, попереджають, що відсутність стандартів безпеки послабить захист споживачів від ризиків, пов’язаних зі штучним інтелектом. Олександр Наурасте з Інституту Катона, з іншого боку, зазначив, що скасування деяких положень Байдена, таких як спрощення імміграції для ШІ-професіоналів, може мати негативні наслідки для галузі.

Однак прихильники Трампа стверджують, що його рішення – це можливість прискорити технологічний розвиток. Вони підкреслюють, що надмірно жорсткі правила, на кшталт тих, що були запроваджені в Європі, можуть стримувати інновації.

404 Biały dom

Джерело графіки: веб-сайт Білого дому

Наслідки рішення Трампа

Експерти попереджають, що відсутність чітко визначених правил, які регулюють розвиток ШІ, може призвести до низки ризиків:

  • Дезінформація та фейкові новини: відсутність керівних принципів перевірки автентичності контенту, створеного ШІ, може сприяти поширенню неправдивої інформації.
  • Загрози національній безпеці: Без належного тестування безпеки системи штучного інтелекту можуть бути вразливими для використання в кіберзлочинності або війні.
  • Етика і довіра: відсутність регулювання підвищує ризик алгоритмічної дискримінації та порушення приватності, що може підірвати довіру суспільства до технологій ШІ.

З іншого боку, прихильники рішення Трампа підкреслюють, що лібералізація регулювання дозволить технології розвиватися швидше і залучити інвестиції в сектор ШІ.

business ai

Чи залишаться США лідером у галузі АІ?

Рішення Трампа скасувати указ Байдена відкриває нову главу в підході США до регулювання ШІ. У той час як Європа зосереджується на захисті громадянських прав, США можуть піти більш ліберальним шляхом, надаючи пріоритет свободі інновацій, але ставлячи під загрозу навіть базові права людини.

Однак відсутність чітко визначеної нормативно-правової бази в довгостроковій перспективі може послабити позиції США як лідера в галузі ШІ, особливо в контексті міжнародного співробітництва та створення глобальних стандартів. Досягнення балансу між підтримкою розвитку та мінімізацією ризиків, пов’язаних з цією революційною технологією, матиме ключове значення.

Штучний інтелект (ШІ) залишається однією з найважливіших технологій 21 століття, і рішення, прийняті світовими лідерами в США цього тижня, впливатимуть на її розвиток протягом десятиліть.

Контакти

Маєте запитання?zobacz telefon+48 570 913 713
zobacz e-mail

Офіс у Варшаві

03-737 Варшава

(Прес-центр Koneser - Spaces)

pl. Konesera 12 lok. 119

google maps

Офіс у Вроцлаві

53-659 Вроцлав

(Кворум D)

Генерала Владислава Сікорського 26

google maps

Привіт, користувачу,
ти вже підписаний на розсилку?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten