Податкові аспекти ведення бізнесу в Німеччині

Шановні панове!

Запрошуємо Вас взяти участь у безкоштовному вебінарі, присвяченому податковим аспектам ведення бізнесу в Німеччині, організованому юридичною фірмою Leśniewski Borkiewicz Kostka & Partners (LBK&P) у співпраці з німецькою податковою консультаційною компанією Dr. Klein, Dr. Mönstermann International Tax Services GmbH. Захід орієнтований як на компанії, що тільки починають свою діяльність на німецькому ринку, так і на ті, що вже працюють на ньому – особливо в секторі малого та середнього бізнесу та великих підприємств. Будь ласка, також не соромтеся переслати запрошення своїм друзям, які можуть бути зацікавлені в темах вебінару.

📅 Дата: 18 лютого 2025 року.

⏰ Час: 10:00

📍 Місце проведення: онлайн

Під час вебінару експерти LBK&P Павло Суліга (податковий консультант у Польщі та Німеччині, визнаний експерт з німецького податкового та господарського права, щодня обслуговує в Німеччині, зокрема, польські компанії з будівельної галузі, що котируються на ВФБ) та Бартломей Халупінський (податковий консультант у Польщі, керівник податкового відділу LBK&P) обговорять ключові питання, що стосуються податкового законодавства та зобов’язань, пов’язаних із веденням бізнесу в Німеччині.

Порядок денний:

✅ Ключові податкові зміни в Німеччині з 01.01.2025.

Які податкові зобов’язання виникають при відкритті бізнесу в Німеччині?

Документація та інформаційні зобов’язання при веденні транскордонного бізнесу – на що слід звернути увагу.

ПРИМІТКИ:

Після вебінару є можливість отримати безкоштовну 30-хвилинну індивідуальну консультацію з нашими експертами (необхідна окрема реєстрація, кількість місць обмежена). Щоб забронювати їх, будь ласка, напишіть на електронну поштуrezerwacje@lbplegal.com.

🔗 посилання для реєстрації на вебінар – посилання для участі у вебінарі та дані для входу будуть надіслані вам не пізніше, ніж за 3 дні до заходу.

Деталі заходу також описані в додатку разом із посиланням на реєстрацію.

Запрошуємо до участі!

Завантажити додаток:

Webinar - Podatkowe aspekty prowadzenia działalności gospodarczej w Niemczech

З 2 лютого 2025 року діють статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів

ВАЖЛИВА ПОПЕРЕДЖЕННЯ – З 2 лютого набувають чинності статті 1-5 Закону про штучний інтелект, невиконання яких може призвести до великих штрафів. Багато компаній в ЄС ще не вжили необхідних заходів – ось основні моменти.

ai law

З 2 лютого 2025 року набувають чинності перші положення Регламенту про штучний інтелект (AI Act), спрямовані на підвищення безпеки та регулювання ринку штучного інтелекту в Європейському Союзі.

Ключові зміни включають

  • Заборонені практики – заборона на використання та маркетинг або розміщення на ринку систем штучного інтелекту, які відповідають критеріям заборонених практик. Приклади включають системи маніпуляцій, які використовують людські вразливості, системи соціальних оцінок і системи, які аналізують емоції на робочому місці або в навчанні. Порушення цих правил тягне за собою великі фінансові санкції – до 35 мільйонів євро або 7% річного глобального обороту компанії.
  • Зобов’язання щодо ШІ-грамотності. Роботодавці повинні забезпечити належну підготовку та обізнаність працівників у сфері АІ, щоб вони могли безпечно використовувати системи штучного інтелекту на роботі. Недостатня підготовка в галузі АІ може призвести до недотримання вимог законодавства та підвищити ризик неналежного використання систем АІ. Що стосується грамотності в галузі АІ, варто також переконатися, що в компанії впроваджена політика використання АІ. Як це можна зробити?

Читайте в статтях:

Політика використання АІ в компанії може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, способи реагування на інциденти та призначення особи, відповідальної за ефективне впровадження та використання АІ в організації (AI Ambassador).

 

Важливість освіти у сфері штучного інтелекту (стаття 4 Закону про штучний інтелект)

Поінформованість і знання про штучний інтелект – це не лише законодавча вимога, а й стратегічна необхідність для організацій. Стаття 4 Закону про штучний інтелект вимагає від компаній впроваджувати навчальні програми, адаптовані до знань, ролі та досвіду працівників.

«Постачальники та користувачі систем штучного інтелекту повинні вживати заходів для забезпечення, наскільки це можливо, належного рівня компетентності в галузі штучного інтелекту серед свого персоналу та інших осіб, залучених до експлуатації та використання систем штучного інтелекту від їхнього імені, беручи до уваги їхні технічні знання, досвід, освіту та підготовку, а також контекст, у якому системи штучного інтелекту будуть використовуватися, і беручи до уваги осіб або групи осіб, проти яких системи штучного інтелекту будуть застосовуватися».

Бездіяльність у цьому відношенні тягне за собою серйозні наслідки, зокрема

  • Ризик порушення законодавства про захист даних і приватного життя.
  • Підвищення ймовірності юридичних порушень і фінансових санкцій.

Окрім дотримання нормативних вимог, освіта в галузі штучного інтелекту допомагає сформувати культуру відповідального використання технологій і мінімізувати потенційні операційні ризики.

Де шукати рекомендації?

Стандарт ISO/IEC 42001 для системи управління штучним інтелектом може допомогти. При розгляді відповідних компетенцій тих, хто має справу зі штучним інтелектом в організації, стандарт вказує, наприклад, на наступне:

  • наставництво
  • навчання
  • переведення працівників на відповідні завдання в організації на основі аналізу їхніх компетенцій.

При цьому відповідні ролі або сфери компетенції повинні стосуватися, наприклад, таких питань:

  • нагляд за системою штучного інтелекту
  • безпека
  • захист
  • конфіденційності.

LLM security

Заборонені методи застосування штучного інтелекту (стаття 5 Закону про штучний інтелект)

Закон про штучний інтелект забороняє використання певних систем штучного інтелекту, які можуть призвести до серйозних ризиків для громадськості. Постачальники та компанії, які використовують ШІ, повинні гарантувати, що вони не беруть прямої чи опосередкованої участі в його розробці або впровадженні. Серед іншого, AI Act перераховує конкретні заборонені практики, які вважаються особливо небезпечними. До них належать

  • Підсвідомі або маніпулятивні методи – системи штучного інтелекту, які підсвідомо змінюють поведінку користувача так, щоб він прийняв рішення, яке в іншому випадку не прийняв би.
  • Використання вразливостей людини – системи, які використовують інвалідність, соціальне чи економічне становище людини.
  • Соціальний скоринг – системи, які оцінюють громадян і надають їм певні права на основі їхньої поведінки.
  • Оцінка кримінальних ризиків – системи, які створюють профілі осіб та оцінюють їхні індивідуальні характеристики без законних на те підстав.
  • Створення баз даних зображень облич – нецільове отримання зображень з інтернету або міських камер спостереження для створення систем розпізнавання облич.
  • Аналіз емоцій на робочому місці або в навчанні – системи ШІ, які аналізують емоції співробітників або студентів.
  • Біометрична категоризація конфіденційних даних – використання біометрії для вилучення інформації про расу, політичні погляди тощо.
  • Віддалена біометрична ідентифікація в режимі реального часу – використання систем розпізнавання облич у громадських місцях для забезпечення правопорядку.

Де шукати рекомендації?

  • Проєкт керівних принципів щодо заборонених практик штучного інтелекту (ШІ) – 4 лютого 2025 року. Комісія опублікувала керівні принципи щодо заборонених практик штучного інтелекту (ШІ), які мають на меті забезпечити послідовне, ефективне та однакове застосування Закону про ШІ на всій території ЄС.

Важливі дедлайни:

  • З 2 лютого 2025 року. – Глава II (заборонені практики)
  • З 2 серпня 2025 року. – Глава V (моделі загального призначення), Глава XII (Штрафи) без статті 101
  • З 2 серпня 2026 року. – Стаття 6(2) та Додаток III (схеми з високим ступенем ризику), Глава IV (зобов’язання щодо прозорості)
  • З 2 серпня 2027 року – Стаття 6(1) (схеми з високим ступенем ризику) та відповідні зобов’язання

Ключові уроки для компаній:

  • Дотримання статей 1-5 Закону про штучний інтелект є обов’язковим і не може бути проігнороване.
  • Навчання з питаньштучного інтелекту є ключовим для уникнення помилок через необізнаність працівників, а також потенційної відповідальності компанії.
  • Проведення аудиту постачальників технологій необхідне для забезпечення відповідності систем АІ вимогам законодавства.
  • Впровадити політику використання ШІ – створити чітку документацію для упорядкування ризиків. Політика може включати, наприклад, чіткі процедури, правила використання АІ, умови випуску систем, порядок реагування на інциденти, а також призначення особи, відповідальної за нагляд (AI Ambassador).
  • Розробка інструментів ШІ на законних підставах – компанії, що розробляють інструменти ШІ, повинні враховувати правові та етичні аспекти на кожному етапі розробки. Це включає, але не обмежується аналізом законності цілей системи, законності баз даних, кібербезпеки та тестування системи. Важливо, щоб процес розробки систем штучного інтелекту відповідав принципам конфіденційності за задумом і конфіденційності за замовчуванням RODO – Як розробляти інструменти штучного інтелекту легально?

Обов’язково ознайомтеся з цими джерелами:

DeepSeek – китайський штучний інтелект з відкритим кодом. Чи є у Гонконгу шанс перемогти OpenAI?

DeepSeek – це серія китайськомовних моделей, які вражають своєю продуктивністю та низькою вартістю навчання. Завдяки своєму підходу з відкритим вихідним кодом DeepSeek-R1 і DeepSeek-V3 викликають неабиякий ажіотаж в індустрії ШІ.

DeepSeek

Джерело: www.deepseek.com

DeepSeek: революція в світі ШІ родом з Гонконгу

DeepSeek все частіше згадується в дискусіях про майбутнє штучного інтелекту. Цей гонконгський проект пропонує великі мовні моделі (LLM), що характеризуються відкритим кодом, високою продуктивністю і – що дуже важливо – набагато меншими витратами на навчання, ніж конкуруючі рішення від OpenAI або Meta.

У цій статті ми розглянемо DeepSeek-R1, DeepSeek-V3 та обговоримо останню інформацію про процес розробки та розповсюдження цих моделей – на основі як офіційних матеріалів, доступних наHugging Face, так і публікацій зSpider’s Webтаchina24.com.

Зміст

  1. Як народився DeepSeek?
  2. DeepSeek-R1 і DeepSeek-V3: короткий технічний вступ
  3. Витрати на навчання та продуктивність: у чому секрет?
  4. Відкритий вихідний код та ліцензування
  5. Моделі DeepSeek-R1, R1-Zero та Distill: чим вони відрізняються?
  6. Китайсько-американське суперництво: санкції, напівпровідники та інновації
  7. Чи загрожує DeepSeek домінуванню OpenAI?
  8. Підсумок
  9. Джерела

AI born

Як народився DeepSeek?

Останні повідомлення в пресі вказують на те, що в 2015 році в Гонконзі була заснована компанія High-Flyer Capital Management – компанія, яка донедавна була майже невідома в ІТ-індустрії за межами Азії. Ситуація кардинально змінилася з появою DeepSeek, серії великих мовних моделей, які взяли штурмом експертів Кремнієвої долини.

Однак DeepSeek – це не просто комерційний проект, це також подих відкритості у світі, де зазвичай домінують закриті рішення з величезними бюджетами, такі як моделі від OpenAI (в тому числі GPT-4 і OpenAI o1).

DeepSeek-R1 і DeepSeek-V3: короткий технічний вступ

Згідно зофіційною сторінкою проекту на Hugging Face, DeepSeek наразі публікує кілька варіантів своїх моделей:

  1. DeepSeek-R1-Zero: створена в результаті поглибленого навчання без початкового етапу SFT (Supervised Fine-Tuning), з акцентом на посилення навичок міркування (так званий ланцюжок думок).
  2. DeepSeek-R1: автори додали додаткове точне налаштування під контролем (SFT) перед етапом навчання з підкріпленням, що покращило читабельність і послідовність згенерованого тексту.
  3. DeepSeek-V3: названа на честь базової моделі, з якої походять описані вище варіанти R1-Zero і R1. DeepSeek-V3 може мати до 671 мільярда параметрів і була навчена за два місяці за ціною приблизно $5,58 млн (дані:china24.com).

ai tech

Технічний контекст

  • Велика кількість параметрів (до 671 мільярда) означає здатність генерувати дуже складні твердження та аналізи.
  • Оптимізований процес навчання гарантує, що навіть така велика архітектура не потребує бюджету, порівнянного з OpenAI.
  • Основна мета: самостійно розробляти багатокрокові рішення і мінімізувати «галюцинації», які так часто зустрічаються в інших моделях.

Витрати на навчання та продуктивність: у чому секрет?

ІSpider’s Web, іchina24.comвідзначають, що витрати на навчання DeepSeek-R1 (близько 5 мільйонів доларів США для першої ітерації) в рази нижчі, ніж ті, про які ми чуємо в контексті GPT-4 або інших закритих моделей OpenAI, де, як кажуть, задіяні мільярди доларів.

У чому ж полягає рецепт успіху?

  • Власні методи оптимізації процесу навчання,
  • Гнучка архітектура, яка дозволяє моделі ефективніше навчатися на меншій кількості графічних процесорів,
  • економне управління навчальними даними (уникнення непотрібних повторень і точний вибір набору даних).

open source

Відкритий вихідний код та ліцензування

DeepSeek, на відміну від більшості західних конкурентів, покладається на відкритий код. Як зазначено в офіційній документації до моделіHugging Face:

«Серія DeepSeek-R1 підтримує комерційне використання, дозволяє будь-які модифікації та похідні роботи, включаючи, але не обмежуючись, дистиляцію…».

Це означає, що спільнота може не тільки вільно використовувати ці моделі, але й модифікувати та розвивати їх. Крім того, в рамках лінійки DeepSeek-R1-Distill вже розроблено кілька варіантів, оптимізованих для менших потреб у ресурсах.

Важливо:

  • Моделі DeepSeek-R1-Distill базуються, серед іншого, на загальнодоступних Qwen2.5 і Llama3, з якими поєднуються відповідні ліцензії Apache 2.0 і Llama.
  • Тим не менш, все це надається спільноті на дуже ліберальній основі, що стимулює експерименти та подальші інновації.

AI

Моделі DeepSeek-R1, R1-Zero і Distill: чим вони відрізняються?

З документації, опублікованоїна Hugging Face, випливає трирівневий поділ:

1. DeepSeek-R1-Zero

  • Навчання тільки за допомогою RL (навчання з підкріпленням), без попереднього SFT,
  • Модель може генерувати дуже складні ланцюжки міркувань (ланцюжки думок),
  • однак може страждати від повторень і проблем з читабельністю.

2 DeepSeek-R1

  • Включення фази SFT перед RL вирішило проблеми, зазначені в R1-Zero,
  • Краща консистенція і менша схильність до галюцинацій,
  • За результатами тестів (бенчмарків) порівнянний з OpenAI o1 в математичних, програмних та аналітичних завданнях.

3. DeepSeek-R1-Distill

  • «Схудлі» версії моделі (параметри 1.5B, 7B, 8B, 14B, 32B, 70B),
  • Дозволяють полегшити реалізацію на слабшому обладнанні,
  • Створені шляхом дистиляції (перенесення знань з повної моделі R1 на менші архітектури).

Китайсько-американське суперництво: санкції, напівпровідники і інновації

Як зазначаєSouth China Morning Post (цитується за china24.com), розробка китайських моделей ШІ відбувається на тлі обмеженого доступу до передових напівпровідників, спричиненого санкціями США.

Тим часом китайські компанії, зокрема DeepSeek або ByteDance (Дубао), демонструють, що навіть у такому несприятливому кліматі вони здатні створювати моделі, які

  • Незрівнянні із західними рішеннями,
  • і часто набагато дешевші в обслуговуванні.

Як зазначає Джим Фан (науковець Nvidia), проект DeepSeek може стати доказом того, що інновації та обмежувальні умови (менше фінансування, санкції) не обов’язково мають бути взаємовиключними.

Чи загрожує DeepSeek домінуванню OpenAI?

High-Flyer Capital Management та інші китайські фірми виходять на ринок з моделлю, яка

  • працює краще, ніж західні конкуренти в деяких тестах,
  • дешевша у розробці та підтримці
  • надає відкриті репозиторії, що дозволяє швидко розвивати екосистему на основі спільноти.

Якщо OpenAI (та інші гіганти) не розроблять стратегію конкуренції з дешевшими і не менш якісними моделями, китайські рішення – такі як DeepSeek або Doubao – можуть завоювати значну частку ринку.

LLM przyszłość

Ера дорогих моделей ШІ добігає кінця?

DeepSeek – живий приклад того, що ера гігантських і наддорогих моделей ШІ, можливо, добігає кінця. Завдяки відкритому коду, низьким витратам на навчання і дуже хорошим показникам в тестах, амбітні стартапи з Китаю можуть похитнути існуючий баланс сил в індустрії ШІ.

З огляду на зростаючу технологічну напруженість між Китаєм і США, подальший розвиток DeepSeek і подібних проектів, швидше за все, стане однією з головних ниток у глобальній конкуренції за лідерство в ШІ.

Джерела

  1. “Китайський DeepSeek перевершує всі моделі OpenAI. У Заходу велика проблема” – Павутина
  2. “DeepSeek. Китайський стартап створює ШІ з відкритим вихідним кодом» – china24.com
  3. Офіційний сайт DeepSeek-R1 на Hugging Face

Автор: власна компіляція на основі зазначених публікацій.

Текст призначений для інформаційних та журналістських цілей.

І «Оскар» отримує… Ел Ел Броуді

Оголошено номінантів на премію «Оскар». Серед фаворитів – « Бруталіст » Брейді Корбета з Едріеном Броуді в головній ролі – також номінований на престижну нагороду. Фільм розповідає історію боротьби архітектора єврейського походження, який емігрував з післявоєнної Європи до США, шукаючи безпечного притулку для себе та своєї дружини. Ще до оголошення номінацій точилися палкі суперечки щодо того, чи повинен Едріен Броуді отримати нагороду за феноменальну акторську гру, адже його акцент, який ми чуємо протягом усього фільму, був скоригований за допомогою інструментів штучного інтелекту. Як бачите, це не мало значення в контексті самої номінації Едріена, але, зрештою, чи матиме суперечка навколо використання ШІ у фільмі вирішальний вплив на вердикт Американської академії кінематографічних мистецтв і наук?

cinema

АІ покращив акцент Едріена Броуді у фільмі “Бруталіст » – як технології змінюють кінематограф?

У фільмі«Бруталіст» штучний інтелект тонко виправив угорську вимову акторів Едріена Броуді та Фелісіті Джонс. Монтажер фільму Давід Янчо розповів, що технологія Respeecher була використана для покращення автентичності діалогів угорською мовою. Обидва актори працювали з діалектним тренером, але продюсери хотіли ідеальної вимови, якої важко досягти традиційними методами. Чи є такі практики майбутнім кіно, чи радше загрозою для автентичності гри акторів?

Як працює технологія Respeecher

Respeecher – це сучасний інструмент синтезу мовлення, який дозволяє перетворити голос однієї людини на голос іншої, зберігаючи всі емоції, інтонації та природність звучання. Процес базується на алгоритмах машинного навчання, які працюють у кілька ключових етапів:

  1. Збір голосових даних– творці спочатку записують зразки цільового голосу. У випадку з«Бруталістом» це були записи акторів з угорським акцентом.
  2. Акустичний аналіз– система Respeecher аналізує унікальні характеристики голосу, такі як тембр, темп мовлення і те, як вимовляються певні фонеми.
  3. Машинненавчання – на основі наданих зразків алгоритми вивчають характеристики голосу, а потім генерують цифрову версію, яка точно відображає оригінальні особливості.
  4. Аудіосинтез– у фінальному процесі голос актора модифікується відповідно до вимог творців – у цьому випадку це було автентичне звучання угорського акценту.

Перевага такого підходу полягає в тому, що акторові не потрібно перезаписувати діалог. Як підкреслили кінематографісти, технологію використовували лише як допоміжний інструмент, не замінюючи роботу акторів.

ai cinema

АІ в кіноіндустрії – прорив чи загроза?

Використання АІ в таких фільмах, як«Бруталіст», – це лише верхівка айсберга. Технологія знаходить все більше застосувань у кінематографі:

  • Спецефекти– ШІ дозволяє створювати реалістичні візуальні ефекти, що знижує витрати на виробництво.
  • Постпродакшн– інструменти на основі ШІ автоматизують такі процеси, як монтаж, корекція кольору та покращення звуку.
  • Написання сценаріїв– алгоритми, які аналізують популярні кіносюжети, можуть запропонувати нові історії.
  • Оцифрування акторів– ШІ дає змогу омолоджувати або «оживляти» померлих акторів для використання в нових постановках. (Танець дощу)

usa law ai

Правові та етичні аспекти використання АІ в кінематографі

Використання ШІ в кіно піднімає низку правових та етичних питань, які стають дедалі гострішими в міру поширення цієї технології. У випадку з фільмом«Бруталіст» ми можемо виділити кілька ключових питань:

  1. Авторськеправо – чи належить цифровий голос, згенерований штучним інтелектом, акторові, технологічній компанії чи продюсерам фільму? Використання голосу актора в синтетичній формі може спричинити вимоги про виплату винагороди за додаткове використання образу.
  2. Прозорість– під час перших показів фільму глядачі не були поінформовані про використання Respeecher. Чи повинні режисери бути відкритими щодо таких практик, особливо коли вони впливають на сприйняття перформансів?
  3. Вплив на акторську професію– критики занепокоєні тим, що розвиток штучного інтелекту може призвести до зменшення попиту на акторів дубляжу або навіть на самих акторів, якщо їхні голоси можна буде генерувати синтетично.

oscar ai

Суперечки та вплив на шанси на «Оскар

Розкриття інформації про використання ШІ у фільмі«Бруталіст»викликало суперечки в кіноіндустрії. Висловлювалися побоювання, що така практика може підірвати автентичність гри акторів і призвести до етичних дилем, пов’язаних із використанням технологій у мистецтві. У контексті майбутньої церемонії вручення премії «Оскар» деякі експерти припустили, що використання штучного інтелекту у фільмі«Бруталіст» може вплинути на шанси Едріена Броуді отримати нагороду за найкращу чоловічу роль. Проте і режисер, і монтажер фільму запевняють, що ШІ був лише інструментом, який допоміг, а не замінив талант і роботу акторів.

Підсумок

Фільм«Бруталіст» став символом нової ери в кінематографі, в якій штучний інтелект стає не лише творчим інструментом, але й предметом суперечок. Випадок з Едріеном Броуді та використанням Respeecher відкриває дискусію про межі застосування технологій у мистецтві. Чи буде штучний інтелект лише підтримкою для творців, чи домінуватиме в індустрії, замінюючи людську творчість? Безперечно одне – майбутнє кіно буде тісно пов’язане з розвитком технологій.

Джерела:

Новий указ президента Трампа

23 січня 2025 року президент Дональд Трамп підписав указ, який визначає нові пріоритети США у сфері штучного інтелекту (ШІ). Це рішення слідує за скасуванням указу EO 14110, виданого Джо Байденом у 2023 році, і вводить нові правила, що регулюють розвиток ШІ в США. Цей крок адміністрації Трампа підкреслює важливість ШІ для збереження глобального домінування США, стимулювання інновацій та забезпечення національної безпеки.

AI USA

Нові пріоритети в політиці щодо АІ

В указі президента Трампа викладені основні цілі США у сфері штучного інтелекту. У документі чітко підкреслюється, що розвиток ШІ має ґрунтуватися на принципах вільного ринку, що виключає «ідеологічні упередження». Ключовим елементом нової політики є зміцнення глобальних позицій США у сфері ШІ для сприяння економічній конкурентоспроможності, людському розвитку та національній безпеці.

На відміну від підходу адміністрації Байдена, який передбачав більш суворе тестування безпеки та обмін результатами з урядом, нова політика ставить на перше місце більшу свободу для технологічних компаній. Трамп назвав попередні правила занадто обмежувальними, що, за його словами, могло перешкоджати розвитку ШІ в США.

business ai

Ключові елементи регулювання Трампа

  1. Скасування указу EO 14110
  2. Постанова Байдена, яка мала на меті забезпечити безпечний і надійний розвиток ШІ, була визнана адміністрацією Трампа такою, що надмірно обмежує свободу інновацій. Нове законодавство відкриває шлях до перегляду всіх нормативних актів і дій, що випливають зі скасованої постанови.
  3. Зміцнення позицій США як світового лідера в галузі ШІ
  4. У документі підкреслюється, що політика США спрямована на збереження та розвиток домінування у сфері штучного інтелекту. Це має сприяти технологічним інноваціям, економічній конкурентоспроможності та національній безпеці.
  5. Розробка Плану дій у сфері ШІ
  6. Протягом 180 днів після підписання указу спеціальні радники, зокрема помічник президента з питань науки і технологій та спеціальний радник з питань штучного інтелекту та криптовалют, у співпраці з помічником президента з питань економічної політики, помічником президента з питань внутрішньої політики, директором Адміністративно-бюджетного управління (директор АБУ) та керівниками виконавчих департаментів і відомств, які вищезазначені особи вважатимуть за потрібне, мають представити план дій, який детально описуватиме реалізацію нових пріоритетів.
  7. Оновлення політики нагляду
  8. Офіс з управління та бюджету (OMB) повинен оновити існуючі меморандуми про нагляд за ШІ, щоб привести їх у відповідність до нової політики.

bialy dom

Актуальність для Сполучених Штатів

1 Вплив на технологічний сектор

Новий указ Трампа може посилити інноваційний імпульс у секторі ШІ завдяки усуненню регуляторних бар’єрів. Це дасть технологічним компаніям більше свободи для розробки нових систем і додатків, що може зміцнити глобальні позиції США в цій галузі. Водночас відсутність суворого регулювання викликає занепокоєння щодо етичності використання технологій та ризику зловживань.

2 Національна безпека і глобальна конкуренція

Підкреслення ролі ШІ в контексті національної безпеки вказує на зростаюче значення цієї технології в обороні та розвідці. США, як інноваційний лідер, стикаються з конкуренцією насамперед з боку Китаю, який також інвестує значні кошти в ШІ. Нова політика покликана надати США технологічну перевагу.

3 Критика і суперечки

Рішення Байдена скасувати постанову зазнало критики з боку численних експертів, які побоюються, що відсутність обмежень може призвести до розвитку небезпечних ШІ-технологій. Алондра Нельсон з Центру американського прогресу попереджає, що американська громадськість може бути позбавлена захисту від потенційної шкоди від розвитку ШІ.

AI Act – новаторське регулювання ШІ в ЄС

Європейський Союз, з іншого боку, створив інший підхід. Закон про штучний інтелект (AI Act) – це нормативний акт, який ставить Європейський Союз в авангард глобальних зусиль зі створення відповідальної та прозорої правової бази для штучного інтелекту. Опублікований 12 липня 2024 року в Офіційному віснику Європейської Комісії, регламент є ключовим для формування майбутнього технології штучного інтелекту в Європі, забезпечуючи при цьому високий рівень захисту прав громадян і споживачів.

Регламент визначає системи ШІ з точки зору їхнього ризику, класифікуючи їх на різні рівні (мінімальний, обмежений, високий і неприйнятний). Системи штучного інтелекту з високим рівнем ризику, наприклад, ті, що використовуються в охороні здоров’я, освіті або в процесах найму на роботу, повинні будуть відповідати особливим вимогам щодо безпеки, прозорості та надійності. Крім того, було заборонено застосування ШІ, яке вважається неприйнятним, наприклад, масове біометричне спостереження в громадських місцях або маніпулювання людською поведінкою.

Порівняння з підходом США

На відміну від більш м’якої політики США, Європейський Союз робить більший акцент на профілактиці та захисті прав громадян. Правила ЄС спрямовані на запобігання потенційним загрозам ШІ, таким як алгоритмічна дискримінація, стеження або маніпулювання громадською думкою.


Висновки та перспективи

Новий указ президента Трампа свідчить про те, що адміністрація надає пріоритет розвитку ШІ як ключовому елементу економічної та технологічної стратегії США. Політика вільного ринку спрямована на залучення інвестицій та стимулювання інновацій, але її побічні ефекти можуть призвести до відсутності належних етичних та правових гарантій.

Не працює GPT-чат. Тисячі запитів від користувачів

Chat GPT

Ілюстрація згенерована конкурентом #GoogleGemini.

У четвер, 23 січня, перестав працювати популярний GPT-чат. Про це повідомили тисячі стурбованих інтернет-користувачів.

У четвер, 23 січня, сайт, що надає онлайн-доступ до популярного чату GPT Chat, на деякий час припинив роботу. Збій стався близько 13:00 за польським часом, що добре видно на графіку звітності downdetector.co.uk. Цікаво, що сайти OpenAI, компанії, відповідальної за Chat GPT, працювали в той самий час.

Одночасно повідомлялося про проблеми з іншими сервісами OpenAI. Моделі GPT-4o і GPT-4 не працювали, причому деякі користувачі вказували, що їхні веб-сайти chatgpt.com і chat.openai.com не відкривалися. Інші зазначали, що Chat GPT не відповідає на їхні запити. Додатки, розроблені для підтримки цієї моделі, також не реагували.

Це не перший збій у роботі Chat GPT. За останні кілька тижнів відбувалися короткочасні перебої в роботі сервісу. Найбільший з них стався в грудні, коли в США стався серйозний збій, що також призвів до помилок в роботі інших сервісів OpenAI.

Stargate Project – нова ера інфраструктури штучного інтелекту в США

Проект Stargate Project – одне з найамбітніших технологічних підприємств сучасності. В рамках проекту планується інвестувати $500 млрд протягом наступних чотирьох років у розвиток передової інфраструктури штучного інтелекту в США, з яких $100 млрд буде виділено негайно. Мета ініціативи – зміцнити позиції США як лідера в галузі штучного інтелекту, створити сотні тисяч нових робочих місць і забезпечити значні економічні вигоди в глобальному масштабі.

Stargate Project

Джерело: www.openai.com/index/announcing-the-stargate-project

Реіндустріалізація та зміцнення національної безпеки

Проект Stargate є ключовою частиною процесу реіндустріалізації США, який допомагає повернути виробництво та інвестиції на американську землю. Реалізація цього проекту не лише зміцнить стратегічні можливості США з точки зору національної безпеки та захисту міжнародних інтересів, але й прискорить розвиток технологій, які можуть революціонізувати функціонування суспільств. Це значний крок до побудови майбутнього, заснованого на інноваціях та передових технологічних рішеннях.

Суперечки навколо проекту «Зоряна брама

Проект викликав не лише широкий інтерес, але й багато суперечок. Ілон Маск, відомий мільярдер і колишній співзасновник OpenAI, публічно розкритикував ініціативу. Хоча президент Дональд Трамп назвав проект «найбільшим планом інфраструктури ШІ в історії», Маск висловив скептицизм, стверджуючи, що інвестори, в тому числі SoftBank, не мають достатніх коштів для його реалізації.

У пості, опублікованому на платформі X, Маск написав: “SoftBank має значно менше 10 мільярдів доларів. Я отримав це з хорошого джерела». Його заяви ще більше підкреслили триваючий конфлікт з Семом Альтманом, генеральним директором OpenAI, якого Маск назвав «Шахрайським Семом».

Stargate Project

Штучний загальний інтелект (AGI) – прорив для людства

Однією з головних цілей проекту Stargate є розробка AGI (Artificial General Intelligence) – штучного загального інтелекту, здатного мислити, навчатися і діяти на рівні, порівнянному з людським. AGI має потенціал, щоб взяти на себе широкий спектр завдань, які досі вимагали людської креативності та адаптивності.

Потенційний вплив ШІ на світ

  • Вирішення глобальних проблем

AGI може сприяти більш ефективному вирішенню таких проблем, як зміна клімату, охорона здоров’я або соціальні кризи.

  • Досягнення в науці та освіті

Прискорить наукові відкриття та революціонізує освітні процеси, уможлививши персоналізований підхід до навчання.

  • Покращення якості життя

Автоматизація складних процесів дозволить людям зосередитися на творчості та інноваціях, зменшивши тягар рутинних завдань.

AI

Ключові інновації та технологічна співпраця

Проект Stargate – це плід співпраці між технологічними лідерами, які об’єднують зусилля для створення передової інфраструктури ШІ. Проект зосереджений на створенні найсучасніших центрів обробки даних і потужних обчислювальних систем для підтримки розробки новітніх моделей штучного інтелекту. Будівництво першого з таких дата-центрів вже розпочалося в Техасі.

Джерела:

  1. Інформація про проект взята з офіційного сайту OpenAI: https://openai.com/index/announcing-the-stargate-project/.
  2. Інформація на основі статті CNN: https://edition.cnn.com/2025/01/21/tech/openai-oracle-softbank-trump-ai-investment/index.html.
  3. Додаткова інформація за матеріалами видання Politico: https://www.politico.eu/article/us-elon-musk-troll-donald-trump-500b-ai-plan/.

Трамп змінює регулювання штучного інтелекту – новий підхід до ШІ в США

Дональд Трамп розпочав свій президентський термін зі значних змін у підході до регулювання штучного інтелекту (ШІ). Одним із перших кроків стало скасування указу Джо Байдена 2023, який запровадив детальні вимоги до безпеки систем штучного інтелекту. Це рішення викликало суперечки серед експертів, які зазначають, що відсутність належного регулювання може нести як можливості, так і серйозні загрози для суспільства та позиції США як технологічного лідера.

AI USA

Про що йдеться в указі Байдена щодо АІ?

Указ Джо Байдена мав на меті забезпечити безпечний і відповідальний розвиток штучного інтелекту. Він зосередився на кількох ключових напрямках:

  1. Стандарти безпеки та тестування систем штучного інтелекту
  2. Компанії, що розробляють штучний інтелект, були зобов’язані проводити тестування безпеки своїх систем і ділитися результатами з урядом США. Це було зроблено для виявлення потенційних ризиків, таких як алгоритмічні упередження або ризик використання ШІ в діяльності, що загрожує національній безпеці.
  3. Захист від дезінформації, створеної штучним інтелектом
  4. Міністерство торгівлі мало розробити рекомендації щодо водяних знаків і систем автентифікації контенту, щоб полегшити ідентифікацію матеріалів, створених штучним інтелектом. Це мало зменшити вплив дезінформації та фейкових новин на громадськість.
  5. Конфіденційність і захист даних
  6. У законі наголошується на захисті даних громадян від незаконного використання для навчання моделей ШІ. Хоча президент Байден закликав Конгрес ухвалити відповідні закони, на той час конкретного законодавства, яке б вирішувало цю проблему, не було.
  7. Запобігання алгоритмічній дискримінації
  8. Одним із ключових моментів регулювання було запобігання створенню алгоритмів ШІ на основі нерепрезентативних даних, які можуть призвести до дискримінації, наприклад, у системах найму на роботу, судовій системі або охороні здоров’я.
  9. Безпека в галузі охорони здоров’я та медико-біологічних наук
  10. Адміністрація Байдена запровадила механізми запобігання використанню ШІ для створення небезпечних біологічних матеріалів. Міністерство охорони здоров’я повинно було розробити програми безпеки, пов’язані зі застосуванням ШІ в медицині, зосередившись на поліпшенні охорони здоров’я та розробці інноваційних методів лікування. Виконання цих вимог було умовою для отримання федерального фінансування проектів у галузі медико-біологічних наук.
  11. Ринок праці та вплив ШІ
  12. Нормативно-правові акти передбачали розробку правил для захисту працівників від недобросовісного використання ШІ в системах оцінювання роботи або рекрутингу.

Більше про системи штучного інтелекту в штатах можна прочитати тут:

Варто зазначити, що скасована версія постанови вже навіть не доступна на сайті Білого дому, тож постанова не тільки скасована, але й видалена разом з архівними версіями з офіційного джерела. Наразі його можна знайти лише тут.

bialy dom

Чому Трамп скасував регламент?

Дональд Трамп стверджував, що правила, запроваджені Джо Байденом, були занадто суворими і могли обмежити розвиток інноваційних технологій. З точки зору республіканців, такі правила, як обов’язкове звітування про тести безпеки та обмін інформацією з урядом, могли завадити технологічним компаніям і підірвати їхню конкурентоспроможність на світовому ринку.

Трамп підкреслив, що підхід США до ШІ повинен бути менш бюрократичним і більш орієнтованим на стимулювання інновацій. Рішення про скасування регулювання відповідає його філософії дерегуляції та зменшення втручання держави в приватний сектор.

Крім того, постанова Байдена мала на меті зробити розробку ШІ більш безпечною, запровадивши стандарти прозорості, зменшивши ризик дезінформації та протидії алгоритмічній дискримінації. Технологічні компанії також повинні були ділитися інформацією про потенційні недоліки своїх моделей, включаючи упередженість ШІ, що особливо критикувалося колами, пов’язаними з Трампом, як таке, що загрожує їхній конкурентоспроможності.

Рішення Трампа – лібералізація чи ризик?

Рішення про скасування регулювання викликало неоднозначну реакцію. Такі експерти, як Алондра Нельсон з Центру американського прогресу, попереджають, що відсутність стандартів безпеки послабить захист споживачів від ризиків, пов’язаних зі штучним інтелектом. Олександр Наурасте з Інституту Катона, з іншого боку, зазначив, що скасування деяких положень Байдена, таких як спрощення імміграції для ШІ-професіоналів, може мати негативні наслідки для галузі.

Однак прихильники Трампа стверджують, що його рішення – це можливість прискорити технологічний розвиток. Вони підкреслюють, що надмірно жорсткі правила, на кшталт тих, що були запроваджені в Європі, можуть стримувати інновації.

404 Biały dom

Джерело графіки: веб-сайт Білого дому

Наслідки рішення Трампа

Експерти попереджають, що відсутність чітко визначених правил, які регулюють розвиток ШІ, може призвести до низки ризиків:

  • Дезінформація та фейкові новини: відсутність керівних принципів перевірки автентичності контенту, створеного ШІ, може сприяти поширенню неправдивої інформації.
  • Загрози національній безпеці: Без належного тестування безпеки системи штучного інтелекту можуть бути вразливими для використання в кіберзлочинності або війні.
  • Етика і довіра: відсутність регулювання підвищує ризик алгоритмічної дискримінації та порушення приватності, що може підірвати довіру суспільства до технологій ШІ.

З іншого боку, прихильники рішення Трампа підкреслюють, що лібералізація регулювання дозволить технології розвиватися швидше і залучити інвестиції в сектор ШІ.

business ai

Чи залишаться США лідером у галузі АІ?

Рішення Трампа скасувати указ Байдена відкриває нову главу в підході США до регулювання ШІ. У той час як Європа зосереджується на захисті громадянських прав, США можуть піти більш ліберальним шляхом, надаючи пріоритет свободі інновацій, але ставлячи під загрозу навіть базові права людини.

Однак відсутність чітко визначеної нормативно-правової бази в довгостроковій перспективі може послабити позиції США як лідера в галузі ШІ, особливо в контексті міжнародного співробітництва та створення глобальних стандартів. Досягнення балансу між підтримкою розвитку та мінімізацією ризиків, пов’язаних з цією революційною технологією, матиме ключове значення.

Штучний інтелект (ШІ) залишається однією з найважливіших технологій 21 століття, і рішення, прийняті світовими лідерами в США цього тижня, впливатимуть на її розвиток протягом десятиліть.

Як штучний інтелект може покращити аналіз фінансових даних GOCC та підвищити прозорість благодійної організації?

Ситуація, в якій опинився Єжи Овсяк, обговорювана і коментована останніми днями в ЗМІ, породжує численні дискусії і питання про юридичні можливості дій в таких випадках. Нижче ми наводимо ключові правові положення, що стосуються кримінальних погроз, публічного розпалювання ненависті або порушення особистих прав, які можуть бути застосовані. Ці інциденти слугують нагадуванням про те, наскільки важливим є правовий захист у ситуаціях, коли слова та дії можуть перерости у кримінальні дії.

У другій частині статті ми також розповідаємо про те, як штучний інтелект революціонізує аналіз фінансових даних, підвищуючи прозорість та ефективність благодійних організацій.

Заключна частина статті ґрунтується на ретельному аналізі фінансових звітів GOCC, доступних на офіційному сайті організації, і демонструє практичне застосування технології в неприбутковому секторі.

wosp-2025

Графіка: матеріали Фундації WOŚP

Кримінальні погрози та розпалювання ненависті – правові аспекти на прикладі відомої справи Єжи Овсяка

Минулого тижня Єжи Овсяк, президент Благодійного фонду «Великий оркестр Різдва Христового» (WOŚP), звернувся до правоохоронних органів із заявою про кримінальні погрози та публічне підбурювання до ненависті на його адресу та на адресу Фонду. Телефонні та електронні погрози, включаючи заклики до насильства, викликали у президента Фундації WOŚP небезпідставні побоювання, що вони будуть виконані. Овсяк також вказав на діяльність ЗМІ, яку він вважає маніпулятивною і такою, що посилює негативні емоції проти нього і ВОСД. Як наслідок, Фундація заборонила певним редакціям і телеканалам в’їзд до штаб-квартири Фундації.

WOŚP Marcin Michon

Матеріали Фундації GOCC – фотограф Марцін Міхон

Кримінальні погрози – коли це злочин?

Ст. 190 КК [Злочинна погроза].

  1. Той, хто погрожує іншій особі вчиненням кримінального правопорушення на шкоду їй чи на шкоду близькій їй особі, якщо погроза викликала в особи, якій вона адресована або якої стосується, обґрунтовані побоювання, що вона буде здійснена, підлягає покаранню у вигляді позбавлення волі на строк до 3 років.
  2. Притягнення до кримінальної відповідальності відбувається за заявою потерпілого.

Згідно зі статтею 190 Кримінального кодексу, злочинна погроза полягає в погрозі вчинення злочину на шкоду собі чи близьким їй особам, якщо вона викликає в іншої особи обґрунтоване побоювання, що вона буде виконана. Ключовими міркуваннями тут є наступні:

  1. Об’єктивні міркування – чи вважала б пересічна людина за подібних обставин погрозу реальною.
  2. Суб’єктивні відчуття жертви – як загроза впливає на конкретну особу.

У випадку з Єжи Овсяком і співробітниками WOŚP погрози надходили як по телефону, так і електронною поштою. Хоча записи розмов не збереглися, електронні листи є важливим доказом у справі, який може бути використаний у судовому процесі.

Розпалювання ворожнечі – правові наслідки

Ст. 255 КК [Публічні заклики до вчинення кримінального проступку або податкового правопорушення].

  1. Публічні підбурювання до вчинення кримінального проступку або податкового правопорушення караються штрафом, обмеженням волі або позбавленням волі на строк до 2 років.
  2. Публічні підбурювання до вчинення злочину караються позбавленням волі на строк до 3 років.
  3. Публічні підбурювання до вчинення злочину караються штрафом до 180 денних ставок, обмеженням волі або позбавленням волі на строк до одного року.

Дії, пов’язані з публічним розпалюванням ворожнечі за статтею 255 Кримінального кодексу, можуть призвести до кримінальної відповідальності. У випадку з GOCC президент Фундації вказав на медійну діяльність, яку здійснюють окремі телеканали та редакції. На його думку, вони можуть мати ознаки маніпуляції та ескалації негативних емоцій щодо Фундації та її діяльності, що в результаті сильних суспільних емоцій, які додатково ескалуються і підживлюються, може закінчитися дуже серйозно (тут, зокрема, слід вказати на випадок президента Гданська пана Павла Адамовича).

WOŚP Paweł Krup

Матеріали Фундації GOCC – фотограф Павел Круп

Наклеп і образа – захист іміджу та гідності

Діяльність засобів масової інформації, яка порушує імідж і добре ім’я Фундації, може також потенційно становити форму наклепу (ст. 212 КК) або образи (ст. 216 КК).

Наклеп – це ситуація, коли особу чи установу обмовляють за дії, які можуть зашкодити її репутації в очах громадськості.

Стаття 212 КК [Наклеп].

  1. Наклеп на іншу особу, групу осіб, установу, юридичну особу або організаційну одиницю без статусу юридичної особи про таку поведінку або якості, які можуть принизити її в громадській думці або спричинити втрату довіри, необхідної для даної посади, професії або виду діяльності, карається штрафом або обмеженням волі.
  2. Якщо винний вчиняє діяння, зазначене в § 1, за допомогою засобів масової інформації, він підлягає штрафу, покаранню у вигляді обмеження волі або покаранню у вигляді позбавлення волі на строк до одного року.
  3. У разі засудження за злочин, зазначений у § 1 або 2, суд може винести рішення про доплату на користь потерпілої сторони, Польського Червоного Хреста або на іншу соціальну мету, зазначену потерпілою стороною.
  4. Переслідування за правопорушення, зазначені в § 1 або 2, здійснюється в порядку приватного обвинувачення.

Образа включає в себе слова або жести, які принижують гідність особи, в тому числі в присутності інших осіб.

Стаття 216 КК [Образа].

  1. Хто образить іншу особу в її присутності або навіть у її відсутності, але публічно або з наміром, щоб образа була доведена до відома цієї особи, підлягає покаранню у вигляді штрафу або обмеження волі.
  2. Той, хто ображає іншу особу за допомогою засобів масової комунікації, підлягає штрафу, покаранню у вигляді обмеження або позбавлення волі на строк до одного року.
  3. Якщо образа була спровокована зухвалою поведінкою з боку потерпілого або якщо потерпілий відповів порушенням тілесної недоторканності чи взаємною образою, суд може звільнити від покарання.
  4. У разі засудження за злочин, зазначений у § 2, суд може призначити доплату на користь потерпілої сторони, Польського Червоного Хреста або на іншу соціальну мету, зазначену потерпілою стороною.
  5. Переслідування здійснюється в порядку приватного обвинувачення.

Обидва злочини переслідуються в порядку приватного обвинувачення, що означає, що обвинувальний акт повинен бути пред’явлений потерпілим. У таких ситуаціях допомога адвоката або юрисконсульта є неоціненною.

Порушення особистих прав – цивільний позов

У подібних ситуаціях жертва також може скористатися цивільно-правовим захистом на підставі положень про захист особистих прав. Це включає в себе можливість пред’явлення позову:

  • Фінансової компенсації.
  • Публічного вибачення.
  • Припинення дії, що порушує особисті права, та усунення її наслідків.

groźba fake news

Як діяти у випадку погроз або наклепу?

  1. Повідомте про підозру у вчиненні правопорушення відповідні служби – повідомте поліцію або прокуратуру про погрози або висловлювання, які можуть бути образливими або наклепницькими. У випадку кримінальної загрози необхідно також подати заяву про притягнення до кримінальної відповідальності. Заява може бути зроблена як усно під запис, так і в письмовій формі.
  2. Зберігайте докази – електронні листи, записи розмов або інші форми документації є ключовими для підтвердження звинувачень (щоб уникнути видалення доказів, варто зробити скріншоти або захистити дані на веб-сайті або в соціальних мережах за допомогою нотаріально завіреного запису).
  3. Скористайтеся юридичною консультацією – юрист або адвокат допоможе скласти заяву, а також підтримає вас під час кримінального чи цивільного процесу. Варто пам’ятати, що адвокати або юрисконсульти також надають підтримку в цих випадках безкоштовно (ex officio).

WOŚP Łukasz Widziszowski

Матеріали Фундації GOCC – фотограф Лукаш Відзішовський

WOŚP – соціальна активність у тіні загроз

Фонд WOŚP підтримує польську систему охорони здоров’я з 1993 року, зібравши на ці цілі майже 2,3 мільярда злотих. Незважаючи на неоціненний внесок Фонду в систему охорони здоров’я, його діяльність іноді стає об’єктом нападів, що показує, наскільки важливо мати ефективні механізми правового захисту, а також – орієнтуватися на достовірну інформацію.

У зв’язку з цим завжди варто звертати особливу увагу на так звані «фейкові новини», що з’являються в ЗМІ або на телебаченні, які часто вже на перший погляд можна відрізнити від іншої інформації (вони агресивні, стосуються неіснуючих осіб або подій). Серед фейкових новин є багато різновидів: кричущі заголовки, упереджені маніпуляції, що з’являються у висловлюваннях різних людей, маніпуляції з зображеннями чи відео. Для цього (особливо якщо фейкові новини стосуються НУО/неурядових організацій) варто скористатися сайтом Demagog.

Асоціація Demagog є першою польською фактчекінговою організацією. З 2014 року вона перевіряє заяви політиків, бореться з фейковими новинами та дезінформацією. Крім того, це також команда аналітиків та освітян, для яких факти мають значення. Місія організації – боротися з фейковими новинами та дезінформацією і надавати громадянам надійну, неупереджену та перевірену інформацію.

Штучний інтелект також можна використовувати для аналізу фейкових новин.

sztuczna inteligencja WOŚP

Як штучний інтелект покращує аналіз фінансових даних GOCC та підвищує прозорість діяльності благодійної організації

  1. Автоматизація збору даних: OCR як ключовий інструмент в аналізі фінансових звітів GOCC

dane OCR

  • Точне вилучення даних з офіційних джерел: Першим кроком у процесі аналізу є збір даних. У випадку WOŚP основним джерелом інформації є детальні фінансові звіти, які щорічно публікуються у вигляді зображень на офіційному веб-сайті фонду. Модулі штучного інтелекту, що відповідають за пошук даних, автоматично отримують ці зображення, усуваючи необхідність ручного введення даних. Зображення, які містять рахунки, доступні тут: https://www.wosp.org.pl/fundacja/wazne/rozliczenia
  • Оптичне розпізнавання символів (OCR) на службі добра: технологія оптичного розпізнавання символів (OCR ) відіграє ключову роль. Алгоритми OCR точно аналізують зображення звітів, перетворюючи текстову та числову інформацію, що міститься в них (дати, суми, описи), в цифровий формат для подальшої обробки та аналізу. Це ключовий елемент автоматизації аналізу фінансових звітів.
  • Інтелектуальне структурування фінансових даних: Витягнуті дані потім організовуються і класифікуються. Алгоритми штучного інтелекту автоматично класифікують інформацію, розділяючи її на зручні для читання розділи, такі як: витрати на медичне обладнання, витрати на реалізацію медичних програм, адміністративні витрати, пожертви в натуральній формі та інші. Це робить фінансові звіти ТЧХУ більш читабельними та зрозумілими, без потреби в експертних знаннях для їх аналізу.

2. Об’єктивний аналіз фінансових даних GOCC: уроки, отримані завдяки штучному інтелекту, та їхнє значення для донорів

analiza ai wośp

  • Візуалізація даних для кращого розуміння: На основі оброблених даних штучний інтелект генерує чіткі візуалізації, включаючи графіки та таблиці. Вони полегшують донорам та всім зацікавленим сторонам швидкий огляд ключової інформації, тенденцій у фінансах та структурі видатків GOCC.
  • Детальний аналіз структури витрат: Глибокий аналіз даних за допомогою алгоритмів штучного інтелекту дозволяє точно визначити, на що саме GOCC витрачає зібрані кошти. Наприклад, з аналізу видно, що значна частина бюджету постійно інвестується в закупівлю спеціалізованого медичного обладнання для лікарень по всій Польщі, що безпосередньо покращує якість медичного обслуговування.
  • Виявлення змін і тенденцій протягом багатьох років: алгоритми штучного інтелекту дають змогу відстежувати зміни в структурі видатків ДОЗД за кілька фіналів поспіль. Наприклад, аналіз може показати збільшення витрат у певних сферах, таких як підтримка конкретних медичних програм, або гнучке реагування на поточні потреби, як у випадку зі збільшенням витрат на боротьбу з COVID-19 у 27-му фіналі.
  • Оцінка економічної ефективності та оптимізація діяльності: Штучний інтелект також може допомогти в аналізі адміністративних та операційних витрат Глобального фонду, визначенні потенційних сфер для оптимізації та підвищенні ефективності використання кожної копійки, пожертвуваної донорами.
  • Історії, заховані в даних: Реальний вплив на життя людей: Важливо підкреслити, що за кожним рядком у таблиці та кожним стовпчиком на графіку стоять реальні людські історії. Медичне обладнання, придбане GOCC, рятує життя і здоров’я пацієнтів по всій Польщі, а підтримка медичних програм призводить до покращення якості життя багатьох людей. Кожна цифра у фінансовому звіті WOŚP – це не просто сухий факт, а передусім свідчення реальної допомоги і добра, принесеного тим, хто цього потребує. Це сотні тисяч врятованих життів і посмішок на обличчях дітей та їхніх батьків. Дані набувають справжньої цінності, коли ми усвідомлюємо, що вони відображають реальний вплив на життя людей, яким допомагає WOŚP.
  1. Чому штучний інтелект є таким ефективним інструментом для аналізу даних благодійних організацій? Переваги для GOCC та донорів

ai analitics

  • Ефективність та автоматизація: автоматизація процесу збору та обробки даних, завдяки ШІ та OCR, значно скорочує час і зусилля, необхідні для підготовки вичерпних фінансових звітів. Це дозволяє співробітникам та волонтерам GOCC зосередитися на досягненні своїх статутних цілей.
  • Прозорість і достовірність: використання об’єктивних і точних алгоритмів ШІ для аналізу даних GOCC підвищує прозорість і достовірність представленої інформації. Донори можуть бути впевнені, що дані аналізуються чесно та неупереджено, що зміцнює довіру до організації.
  • Масштабованість: системи на основі штучного інтелекту можуть обробляти величезні обсяги даних, незалежно від масштабу організації та кількості фінансових звітів. Це має вирішальне значення для швидкозростаючих організацій, таких як GOCC.
  • Виявлення тенденцій і закономірностей для кращого планування: Вдосконалені алгоритми машинного навчання здатні виявляти приховані закономірності та тенденції у фінансових даних GOCC. Вони надають цінну інформацію, яка підтримує стратегічне планування та прийняття рішень, дозволяючи нам допомагати ще ефективніше.

4. Перспективи розвитку та висновки: GOCC як приклад для наслідування

Використання штучного інтелекту в аналізі фінансових даних Благодійного фонду « Великий оркестр Різдва Христового » є чудовим прикладом ефективного застосування сучасних технологій у благодійному секторі. Автоматизація, об’єктивний аналіз і можливість створення детальних звітів сприяють прозорості, ефективності та довірі до діяльності організації.

WOŚP AI

Приклад «Великого Оркестру Різдвяної Благодійності» може слугувати натхненням для інших суб’єктів, що працюють у сфері благодійності, вказуючи на переваги адаптації інноваційних технологічних рішень. Подальший розвиток і впровадження штучного інтелекту в секторі може призвести до ще більшого покращення фінансового менеджменту та виконання статутних завдань благодійних організацій. Однак варто пам’ятати, що технології – це лише інструмент, а справжня цінність – у людському серці та бажанні допомогти. Саме емпатія та відданість у поєднанні з аналітичними можливостями штучного інтелекту дають змогу реально змінювати світ на краще.

Джерела:

Резюме

Захист від погроз, наклепу та мови ворожнечі вимагає свідомого використання наявних правових, а також технологічних інструментів. У випадку інцидентів, подібних до тих, про які повідомив Єжи Овсяк, можливі як кримінально-правові дії, так і захист особистих прав цивільно-правовими засобами. Ефективна реакція дозволяє не тільки захиститися від подальших атак, але й підвищити обізнаність громадськості про наслідки таких дій.

Пам’ятаймо – якщо якась інформація викликає у нас сумніви, варто її перевірити і достукатися до джерела. Технології, в тій мірі, в якій вони зазначені вище, можуть допомогти нам не лише перевірити достовірність даних чи інформації, але й її правильну інтерпретацію.

Чому ми боїмося простого акціонерного товариства (PSA)?

Просте акціонерне товариство (PSA) – це відносно нова правова форма, яка була введена в польську правову систему лише в 2021 році. Її основна мета – полегшити ведення бізнесу, що може бути особливо корисним для молодих підприємців та стартапів (включаючи технологічні стартапи, що займаються штучним інтелектом або GameDev, серед інших).

Незважаючи на свої численні переваги, PSA викликає певні занепокоєння та невпевненість серед потенційних засновників. Тому ми пропонуємо вам ознайомитися з резюме, створеним за допомогою Open AI Chat GPT і Google Gemini, а також з коментарем нашого експерта, щоб розвіяти ваші сумніви.

Коментар експерта Open AI Chat GPT та Google Gemini

ai

Нове

Просте товариство з обмеженою відповідальністю (PSA) є відносно новою організаційно-правовою формою з відповідною низькою популярністю. Відсутність тривалої юридичної практики може призвести до невпевненості потенційних підприємців щодо тлумачення правил та їх застосування в реальних бізнес-ситуаціях. Крім того, УРП менш відома серед громадськості, ніж традиційні правові форми, такі як товариство з обмеженою відповідальністю (ТОВ). Це може ускладнити налагодження ділових відносин та завоювання довіри партнерів.

Низький статутний капітал

УРП вимагає мінімальний статутний капітал у розмірі лише 1 фунт стерлінгів. Для багатьох підприємців це може здатися занадто низьким, що викликає занепокоєння щодо фінансової надійності компанії в очах підрядників та інвесторів. Це також підвищує потенційний ризик зловживань – низький бар’єр для входу та висока гнучкість цього виду бізнесу можуть сприяти зловживанням з боку недобросовісних акціонерів.

Гнучкість у формуванні відносин з акціонерами

УРП пропонують високий ступінь гнучкості у формуванні прав та обов’язків акціонерів. Це може призвести до непорозумінь і конфліктів, особливо коли акціонерів стає більше.

Просте публічне акціонерне товариство є вигідним рішенням для стартапів

Низька вартість реєстрації та фінансова безпека

Заснування УРП дешевше, ніж товариства з обмеженою відповідальністю, завдяки низькому статутному капіталу. Крім того, як і у випадку з товариством з обмеженою відповідальністю, учасники УРП несуть відповідальність за зобов’язаннями компанії лише в межах своїх внесків.

Гнучкість в управлінні та можливості, які пропонує УРП

УРП пропонує більшу гнучкість в управлінні компанією, що може бути корисним для бізнесу, який швидко зростає. Крім того, проста УРП дозволяє страхувати відповідальність та залучати капітал у формі емісії.

Простіші процедури та зростаюча популярність

УРП вимагає простіших реєстраційних та операційних процедур, що прискорює процес створення та ведення бізнесу.

Чи знаєте ви, що вже сьогодні можна створити просте товариство з обмеженою відповідальністю через портал S24? Просто скористайтеся сервісом: https://ekrs.ms.gov.pl/s24/strona-glowna

Правова та інституційна підтримка

Державні установи пропонують різні програми підтримки для підприємців, у тому числі тих, хто обирає УРП, а також створюють численні платформи та портали, які підтримують управління УРП, пропонуючи інструменти та послуги, адаптовані до цієї правової форми.

Загальні збори в УРП – сучасні рішення та сприяння акціонерам – коментарі експертів

Загальні збори в простому товаристві з обмеженою відповідальністю (СРП) – це інноваційне рішення, яке значно полегшує процес прийняття рішень акціонерами. PSA, як правова форма, запроваджена в Польщі, фокусується на гнучкості та сучасності, що також знаходить своє відображення в організації загальних зборів.

zgromadzenie meeting

Спрощення ведення протоколів загальних зборів

Однією з ключових переваг УРП є те, що загальні збори не потребують нотаріального засвідчення протоколу, що є стандартною процедурою для традиційних акціонерних товариств. Єдиним винятком є рішення про внесення змін до статуту, які вимагають нотаріального посвідчення протоколу. Це є значною зручністю, яка зменшує витрати та формальності при проведенні загальних зборів.

Різноманітність форм голосування

PSA пропонує широкий спектр рішень для організації загальних зборів, як очних, так і онлайн. Акціонери можуть голосувати на загальних зборах, а також поза ними, у письмовій формі або за допомогою електронних засобів зв’язку. Такий гнучкий підхід дозволяє акціонерам брати участь у голосуванні незалежно від їхнього місцезнаходження, що особливо важливо в епоху діджиталізації та глобалізації бізнесу.

Протоколи та документація

Рішення загальних зборів в УРП фіксуються в протоколі, який включає інформацію про правильність скликання зборів, їхню правомочність приймати рішення та самі рішення. До протоколу додаються докази скликання зборів, список присутніх та список акціонерів, які проголосували в електронній формі. Рішення повинні бути підписані присутніми або, принаймні, головою та особою, яка складає протокол. Крім того, акціонери мають право ознайомитися з протоколом і вимагати завірені копії рішень.

Статутний капітал в ДРП

Однією з найважливіших особливостей СРП, яку вже підкреслювали OPEN AI Chat GPT і Gemini, є дуже низький необхідний статутний капітал, який становить лише 1 фунт стерлінгів. Це значна зручність для молодих підприємців і стартапів, які не мають багато фінансових ресурсів. Статутний капітал може бути покритий як грошовими, так і негрошовими внесками, наприклад, акціями іншої компанії, рухомим майном (наприклад, автомобілем, офісним обладнанням) або навіть наданням робочої сили чи послуг. Крім того, розмір статутного капіталу не встановлюється в статуті, що дає додаткову гнучкість в управлінні фінансами компанії.

Реєстр акціонерів та наглядова рада

Реєстр акціонерів у ДРП може вестися нотаріусом або особою, уповноваженою вести рахунки в цінних паперах. Це є важливою перевагою, оскільки забезпечує безпеку та цілісність даних, що містяться в реєстрі. Реєстр ведеться в електронній формі, що полегшує доступ до інформації та управління акціями.

Наглядова рада, з іншого боку, є факультативним органом, тобто її створення не є обов’язковим. Такий гнучкий підхід дозволяє адаптувати структуру управління компанією до конкретних потреб підприємця. Статут товариства може передбачати створення наглядової ради, але це не є обов’язковим.

Як створити просте акціонерне товариство?

У Польщі існує кілька правових форм компаній, таких як товариство з обмеженою відповідальністю (sp. z o.o.), повне товариство, командитне товариство та просте акціонерне товариство (PSA), про які йшлося вище. Кожна з цих форм може бути зареєстрована двома способами: традиційно або онлайн. Щоб заснувати компанію онлайн, просто скористайтеся веб-сайтом https://ekrs.ms.gov.pl/s24/

Яка інформація вам знадобиться для створення ДРП?

1. дані про акціонерів

  1. Фізична особа:
  • ім’я та прізвище
  • ПІБ
  • адреса проживання / адреса для обслуговування
  • адреса електронної пошти
  1. прізвище, ім’я, по батькові
  • ім’я
  • номер KRS
  • адреса для обслуговування
  • адреса для обслуговування генерального партнера
  • інформація про спосіб реєстрації компанії (через S24 / традиційно)
  • адреси електронної пошти партнерів

2 Реквізити компанії

  1. Назва
  2. Юридична адреса + адреса зареєстрованого офісу
  3. Розмір статутного капіталу
  4. Номінальна вартість однієї акції
  5. Інформація про розподіл часток між фізичною особою та sp.k. та розмір внесків
  6. Інформація про фінансовий рік (чи збігається він з календарним)
  7. КВЕД + об’єкт переважної діяльності
  8. Термін діяльності компанії (визначений/невизначений)
  9. Спосіб представництва
  10. Інформація про правління, тобто
  • зі скількох осіб може складатися правління (наприклад, від 1 до 3),
  • імена, номери PESEL та адреси для обслуговування осіб, що входять до складу правління
  • функції осіб, що входять до складу правління (голова / член правління)
  • термін повноважень члена правління,
  1. інформація про те, чи буде призначена наглядова рада. Якщо так, то
  • інформація про кількість членів РН
  • повні імена, номери PESEL та адреси для обслуговування членів наглядової ради
  • функції окремих членів наглядової ради (голова/член)
  • термін повноважень члена РН
  1. Інформація про те, чи потрібне рішення, щоб зобов’язати компанію надавати послуги на суму, що вдвічі перевищує статутний капітал компанії,
  2. чи матиме товариство філії.

PSA

Просте акціонерне товариство – це сучасна правова форма, яка адаптується до потреб сучасного бізнесу, пропонуючи гнучкість і спрощення проведення загальних зборів. Завдяки можливості голосування в письмовій або електронній формі, а також відсутності необхідності ведення нотаріального протоколу (за винятком рішень про внесення змін до статуту). Крім того, низький необхідний статутний капітал, гнучкість у його покритті, можливість ведення реєстру акціонерів нотаріусом та необов’язковість створення наглядової ради – це лише деякі з переваг СРП. Ці особливості роблять просте акціонерне товариство привабливим варіантом для підприємців, які шукають ефективні та економічно вигідні рішення.

Нормативні акти, згадані в ст:

  • Ст. 300(80) [Рішення акціонерів].
  • Ст. 300(100) [Протоколи].
  • Ст. 300(3) [Статутний капітал].
  • Ст. 300(31) [Завдання реєстратора акціонерів].
  • Ст. 300(52) [Правління, рада директорів].

Джерела:

www.biznes.gov.pl/pl/portal/00168

Контакти

Маєте запитання?zobacz telefon+48 570 913 713
zobacz e-mail

Офіс у Варшаві

03-737 Варшава

(Прес-центр Koneser - Spaces)

pl. Konesera 12 lok. 119

google maps

Офіс у Вроцлаві

53-659 Вроцлав

(Кворум D)

Генерала Владислава Сікорського 26

google maps

Привіт, користувачу,
ти вже підписаний на розсилку?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten