AGI – машина, створена людиною. Чи може право йти в ногу з технологіями?

Загальний штучний інтелект (AGI) стає все більш реальною перспективою, ставлячи безпрецедентні виклики перед законодавцями та суспільством. Нещодавній саміт AI Action Summit у Парижі та конференція Міжнародної асоціації безпечного та етичного ШІ (IASEAI ’25) пролили світло на нагальну потребу у створенні всеосяжної правової бази для цієї проривної технології.

ai

Витоки ідеї штучного інтелекту

Концепція ШІ бере свій початок у 1950-х роках, коли вчені-комп’ютерники-новатори почали досліджувати можливість створення машин, які могли б зрівнятися з людським інтелектом. Алан Тьюрінг, один з попередників ШІ, запропонував тест Тьюрінга – експеримент, який мав на меті оцінити, чи може машина вести розмову, яку неможливо відрізнити від людської.

Поворотним моментом в історії ШІ стала Дартмутська конференція 1956 року, де було офіційно запроваджено термін «штучний інтелект». Тоді прогнозувалося, що інтелект людського рівня буде досягнутий швидко, але технологічний прогрес не встигав за оптимізмом дослідників

Криза і відродження ШІ

1980-ті та 1990-ті роки принесли зміни в підході до штучного інтелекту. Дослідження зосередилися на вужчих сферах застосування ШІ, таких як експертні системи, а ідея AGI відійшла на задній план. Лише стрімкий розвиток обчислювальних технологій, великих даних та глибокого навчання у 21 столітті перефокусував увагу дослідників на тему штучного загального інтелекту.

AI

Що таке ШІ?

ШІ, на відміну від сучасних систем ШІ, має потенціал для виконання широкого спектру інтелектуальних завдань на рівні, порівнянному з людиною. Ця універсальність несе з собою як великі можливості, так і серйозні ризики, які потребують належного регулювання.

Наразі не існує юридичного визначення, яке б охоплювало роботу AGI, але, зважаючи на швидкий розвиток технологій ШІ в найближчому майбутньому, цілком ймовірно, що таке визначення необхідно буде створити.

Багато компаній та організацій вже намагаються дати визначення AGI. Наприклад, OpenAI створила визначення AGI і п’ять рівнів запитів у 2024 році.

За погодженням з OpenAI:

Сьогоднішні чат-боти, такі як ChatGPT, знаходяться на першому рівні розвитку.

OpenAI заявляє, що наближається до другого рівня, що означає систему, здатну вирішувати базові завдання на рівні людини з науковим ступенем.

Третій рівень – це ШІ в ролі агента, який може приймати рішення і виконувати завдання від імені користувача.

На четвертому рівні штучний інтелект досягає здатності створювати нові інновації.

П’ятий, найвищий рівень, відноситься до ШІ, який може виконувати роботу цілих організацій людей.

OpenAI раніше описував AGI як «високоавтономну систему, яка перевершує людину в більшості завдань, що мають високу економічну цінність».

Stargate Project

Проект Stargate

Одним з найамбітніших проектів AGI є Project Stargate, який передбачає інвестиції в розмірі 500 мільярдів доларів у розвиток інфраструктури ШІ в США. Основною метою є зміцнення позицій США як лідера в галузі ШІ, а також створення сотень тисяч робочих місць і отримання глобальних економічних вигод.

ШІ має потенціал, щоб взяти на себе широкий спектр завдань, які раніше вимагали людської творчості та адаптивності

Дізнайтеся більше про Stargate:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Чому регулювання ШІ має вирішальне значення? Думки експертів

На IASEAI ’25 у Парижі та AI Action Summit експерти наголошували на необхідності всебічного регулювання ШІ.

  • Д-р Шимон Лукасік (NASK) зазначив, що законодавство повинно йти в ногу з темпами інновацій, забезпечуючи при цьому їхню безпеку.
  • Професор Стюарт Рассел виступив за введення обов’язкових гарантій для запобігання шкідливому використанню AGI.
  • Джозеф Стігліц вказав на необхідність врахування інтересів суспільства в законодавчому процесі.
  • Макс Тегмарк з Інституту майбутнього життя наголосив на важливості міжнародної співпраці, особливо між США та Китаєм. Тільки глобальний підхід дозволить ефективно регулювати розвиток AGI.

AGI

Ризики, пов’язані з AGI

Багато експертів висловили в Парижі занепокоєння з приводу розвитку ШІ, який, на їхню думку, відбувається дуже швидко, на думку деяких, AGI буде створений вже в найближчі 10 років. Ключовими питаннями, що стосуються AGI, були

  • Чи може AGI самостійно змінювати правила для досягнення своїх цілей?
  • Якими мають бути резервні механізми AGI?
  • Як зробити так, щоб цілі ШІ не розходилися з інтересами людства?

Дослідники вже перевіряють, що якщо модель має певну мету, наприклад, перемогти в грі, вона здатна модифікувати свої правила, щоб виграти. З огляду на це, необхідно моделювати цілі ШІ-системи таким чином, щоб вони не розходилися з інтересами людства.

Ці міркування і пропозиції спрямовані на створення правової бази і стандартів, які дозволять безпечно і етично розвивати ШІ, не перешкоджаючи при цьому технологічному прогресу. Експерти сходяться на думці, що регулювання має бути комплексним і враховувати як технічні аспекти, так і соціальні наслідки розвитку ШІ. Таким чином, міжнародне співробітництво є ключовим для створення єдиних стандартів безпеки та етики.

Прозорість і механізми безпеки

Прозорість і механізми безпеки – інші ключові аспекти, які повинні бути включені в майбутні правила. Професор Стюард Рассел виступає за те, щоб компанії, які розробляють ШІ, були юридично зобов’язані впроваджувати гарантії захисту від шкідливого використання їхніх технологій. Експерти також пропонують законодавчо закріпити механізм аварійного вимкнення моделей ШІ та створити стандарти для тестування захисних механізмів.

У контексті механізмів аварійного вимкнення моделей штучного інтелекту є два ключові стандарти ISO, які стосуються цього питання:

  • ISO 13850 – це стандарт для функцій аварійного вимкнення в машинах. Хоча він не стосується безпосередньо моделей ШІ, він встановлює загальні принципи проектування механізмів аварійної зупинки, які потенційно можуть бути застосовані і до систем ШІ. Стандарт підкреслює, що функція аварійної зупинки повинна бути доступною і працювати в будь-який час, а її активація повинна мати пріоритет над усіма іншими функціями;
  • З іншого боку,ISO/IEC 42001 – це новіший стандарт, опублікований у грудні 2023 року, який безпосередньо стосується систем управління ШІ. Він охоплює ширші аспекти управління ризиками ШІ, включаючи оцінку ризиків і впливу ШІ та управління життєвим циклом системи ШІ.

Відповідно до ISO/IEC 42001, організації зобов’язані впроваджувати процеси виявлення, аналізу, оцінки та моніторингу ризиків, пов’язаних із системами ШІ, протягом усього життєвого циклу системи управління. Цей стандарт наголошує на постійному вдосконаленні та підтримці високих стандартів при розробці систем штучного інтелекту.

Варто зазначити, що, хоча ці стандарти надають рекомендації, конкретні резервні механізми для передових систем ШІ, таких як AGI, все ще досліджуються та обговорюються на міжнародному рівні. Експерти підкреслюють, що з розвитком все більш досконалих систем АІ традиційних методів «вимкнення» може виявитися недостатньо, тому необхідно буде розробляти інші стандарти і рішення.

Sztuczna inteligencja

Дізнайтеся більше про штучний інтелект:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Регулювання ШІ та кібербезпека

AGI може виявляти і використовувати вразливості швидше, ніж будь-яка людина або сучасні системи ШІ. Тому регулювання ШІ має включати в себе:

  • Запобігання використанню ШІ для кібератак.
  • Стандартизація безпеки систем ШІ, щоб зменшити ризик поглинання зловмисниками.
  • Визначення юридичної відповідальності у випадку інцидентів, пов’язаних з AGI.

Міждисциплінарний підхід до законотворчості

Розвиток AGI вимагає міждисциплінарного підходу, який включає в себе:

  • Співпраця юристів з експертами зі штучного інтелекту, етиками та економістами.
  • Глобальні норми, що захищають права людини та приватність.
  • Прозорість механізміврозробки та контролюШІ.

Проактивний правовий підхід може зробити ШІ безпечним і корисним для всього людства, не блокуючи при цьому технологічний прогрес.

AGI – це технологія з величезним потенціалом, але також і з серйозними ризиками. Вкрай важливо створити правову базу і стандарти, які дозволять її безпечний розвиток. Міжнародне співробітництво та міждисциплінарний підхід є ключовими для забезпечення того, щоб AGI служив людству, а не створював ризики.

Викрадення через штучний інтелект: справа Майка Джонса та юридичні ризики безпілотних автомобілів

В епоху стрімкого розвитку технологій штучного інтелекту ми все частіше стикаємося з питаннями не лише про їхню ефективність, але й про правові аспекти та відповідальність за шкоду, заподіяну системами штучного інтелекту.
Гучний випадок Майка Джонса, технологічного підприємця з Лос-Анджелеса, який ледь не запізнився на літак через те, що його «викрав безпілотник» через збій у роботі його автомобіля Waymo, є чудовим прикладом регуляторних викликів у сфері штучного інтелекту та автономних технологій.
Як сказав сам Майк Джонс: «Я став власним прикладом для наслідування».

Pojazd autonomiczny

Інцидент та його наслідки

Джонс опинився в «пастці» в автомобілі Waymo, який кілька хвилин кружляв навколо автостоянки, не реагуючи на команди ні користувача, подані через додаток, ні представника компанії. До речі, Майк не був упевнений, чи був цей представник системою штучного інтелекту, чи людиною, і не був поінформований про це. Хоча ситуація врешті-решт була взята під контроль і користувач зміг встигнути на свій рейс завдяки затримці літака, цей випадок піднімає важливі питання:

  • Хто несе відповідальність за несправності в автономних транспортних засобах?
  • Які права має пасажир у таких ситуаціях?
  • Чи зобов’язаний користувач автономного транспортного засобу вчиняти певні дії в екстрених ситуаціях?
  • Які зобов’язання повинен виконувати виробник у такій ситуації?

Обов’язки виробника та оператора

У випадку Waymo проблему «зациклення» було вирішено за допомогою оновлення програмного забезпечення, що може свідчити про те, що несправність була спричинена алгоритмічною помилкою. Однак виникає питання, чи можна розглядати такі помилки як класичні дефекти продукту, і якщо так, то хто повинен нести відповідальність: виробник програмного забезпечення? Оператор автопарку Waymo?

Pojazd autonomiczny

Нормативно-правова база

  • У Європейському Союзі питання, пов’язані з автономними транспортними засобами, регулюються, серед іншого, Регламентом до Закону про ШІ, Директивою про відповідальність за дефектну продукцію або місцевими законами про дорожній рух і цивільну відповідальність.

Закон про штучний інтелект у статті 43 вимагає від постачальників систем штучного інтелекту проводити оцінку ризиків і контролювати роботу своїх продуктів, крім того, згідно зі статтею 50 Закону про штучний інтелект, користувач повинен бути поінформований щоразу, коли він/вона взаємодіє з системою штучного інтелекту.

Крім того, у розділі 3 Закону про ШІ можна знайти зобов’язання провайдерів і користувачів систем ШІ з високим ступенем ризику тощо.

З іншого боку, у США подібні зобов’язання поширюються лише на державний сектор і федеральні агентства відповідно до Виконавчого наказу 14091, підписаного президентом Джо Байденом у 2023 році, який стосується відповідального розвитку штучного інтелекту. У приватному секторі відповідальне використання ШІ, включно з інформуванням користувачів про взаємодію з ШІ-системою, є радше предметом належної практики та етичних стандартів, ніж правового регулювання. Однак існує громадський і правовий тиск на великі технологічні платформи, такі як Google або OpenAI, щоб вони застосовували такі ж стандарти прозорості, як і державні організації. Список організацій, які підписали відкритий лист, що зобов’язує будувати етичний штучний інтелект у США, можна знайти за посиланням www.nist.gov/aisi. Waymo не входить до цього списку.

AI

Права пасажирів – захист прав споживачів

Вищезгаданий інцидент також демонструє необхідність створення стандартів комунікації та підтримки пасажира в екстрених ситуаціях, особливо через емоційну шкоду, яка може виникнути в такій ситуації.

Випадок з Майком Джонсом є не лише технологічним курйозом, але й матеріалом для більш глибоких роздумів про правове регулювання у сфері ШІ та автономних технологій.

Якщо ви зацікавлені в юридичному аналізі автономних технологій або маєте питання щодо відповідності вашого продукту Закону про ШІ, запрошуємо вас зв’язатися з нами. Разом ми зможемо підготувати юридичні рішення, адаптовані до технологічної реальності, що динамічно змінюється.

ChatGPT в центрі суперечок. Вибух кібер-трака в Лас-Вегасі

Eksplozja Tesli Cybertruck przed hotelem Trump International w Las Vegas wstrząsnęła opinią publiczną. Sprawcą tragedii okazał się 37-letni Matthew Livelsberger, żołnierz sił specjalnych, który podczas urlopu w USA wykorzystał sztuczną inteligencję, w tym ChatGPT, do zaplanowania ataku – podały władze. Incydent, który zakończył się śmiercią żołnierza oraz rannych siedmiu osób rodzi poważne pytania o odpowiedzialność za wykorzystanie technologii AI.  

Eksplozja samochodu cybertruck

ChatGPT і роль штучного інтелекту в плануванні атак

За даними поліції Лас-Вегаса, Лівельсбергер використовував ChatGPT для отримання інформації про конструкцію вибухових пристроїв і організацію нападу. Влада не розголошує деталі наданих відповідей, але підкреслює, що ШІ зміг надати інформацію, засновану на загальнодоступних джерелах в Інтернеті.

У компанії заявили, що ChatGPT надавав лише загальнодоступну інформацію в інтернеті і попереджав про шкідливу або незаконну діяльність. OpenAI співпрацює з правоохоронними органами в рамках розслідування.

Компанія OpenAI, розробник ChatGPT, висловила жаль з приводу використання їхнього інструменту в цьому інциденті. У компанії підкреслили, що моделі штучного інтелекту розроблені таким чином, щоб відкидати шкідливі інструкції, мінімізуючи потенційно небезпечний контент. В OpenAI заявили CNN, що компанія «засмучена цим інцидентом і бажає, щоб інструменти ШІ використовувалися відповідально».

Перебіг трагічних подій

Вибух стався, коли Cybertruck був припаркований перед входом до готелю. На відео з камер спостереження видно, як Лівелсбергер дістає каністру з пальним і обливає нею машину. У машині була бомба або саморобний вибуховий пристрій, який здетонував. За кілька хвилин до цього Лівельсбергер застрелився в машині, що було підтверджено розтином, а його особистість була встановлена за допомогою ДНК і татуювань.

Влада також виявила в телефоні солдата шестисторінковий маніфест, який проливає світло на мотиви його дій. Агент ФБР Спенсер Еванс описав інцидент як «трагічний випадок самогубства нагородженого ветерана, який боровся з ПТСР та іншими проблемами».

Спекуляції щодо пов’язаних інцидентів

Вибух у Лас-Вегасі був не єдиним подібним інцидентом. У Новому Орлеані стався схожий інцидент з іншим автомобілем, також найнятим за допомогою додатку Turo. Хоча влада розслідує можливі зв’язки між цими інцидентами, наразі немає чітких доказів зв’язку між ними.

ШІ та етичні проблеми

Ці події знову піднімають питання про відповідальність розробників технологій штучного інтелекту і необхідність регулювання в цій сфері. Як підкреслив шериф Кевін МакМахілл, «штучний інтелект змінює правила гри», як показав цей трагічний інцидент. З розвитком ШІ стає все більш важливим запровадити відповідні запобіжники для запобігання використанню технології у злочинних цілях.

Samochód cybertruck

Як це стосується чат-бота GPT?

OpenAI в січні 2024 року змінила умови використання своїх великих мовних моделей GPT, в тому числі – відомого чат-бота ChatGPT. Відтепер його можна використовувати у військових цілях і для ведення бойових дій.

Про зміну правил та умов використання великих мовних моделей OpenAI першим повідомив сайтIntercept. Як повідомляє видання, до 10 січня внутрішні документи OpenAI забороняли використовувати його мовні моделі для «діяльності, яка несе високий ризик фізичної шкоди, включаючи розробку зброї та військові і військові програми».

Цікаво, що зміна цієї позиції відбулася після того, якOpenAI почав співпрацювати з Міністерством оборони США. Як повідомляє CNBC, віце-президент OpenAI з глобальних питань Анна Маканджу і генеральний директор Сем Альтман заявили в інтерв’ю Bloomberg House на Всесвітньому економічному форумі, що співпраця з американським відомством, як очікується, включатиме роботу над інструментами штучного інтелекту, які використовуються для кібербезпеки з відкритим вихідним кодом.

Sztuczna inteligencja

Як ChatGPT допомагає збройним силам

Крім того, у грудні 2024 року Open AI ChatGPT підписав угоду про співпрацю з компанією Anduril, що спеціалізується на безпілотних системах і робототехніці для Збройних сил США. Метою цього партнерства є розробка передової системи АІ для Збройних сил США.

В рамках співпраці OpenAI розробить програмне забезпечення для систем, призначених для боротьби з бойовими безпілотниками, а Anduril надасть свою базу даних і досвід у створенні безпілотників і військових систем. Очікується, що запланована система ШІ буде здатна розпізнавати, ідентифікувати та оцінювати повітряні загрози і негайно реагувати на них – без необхідності втручання людини.

Prawo aI

Право і використання ШІ та ChatGPT у військових цілях

Польща та Європейський Союз

Як країна-член Європейського Союзу, Польща зобов’язана дотримуватися законодавства ЄС, зокрема Закону про штучний інтелект (Закон про ШІ). Закон про штучний інтелект наголошує на забороні використання систем штучного інтелекту в цілях, які порушують права людини, що може обмежити певні військові застосування. Крім того, «суб’єкт, який використовує систему штучного інтелекту для цілей, відмінних від військових, оборонних або цілей національної безпеки, повинен забезпечити, щоб система штучного інтелекту … відповідала вимогамЗакону про штучний інтелект, якщо тільки вона вже не відповідає цим вимогам». Перелік заборонених практик можна знайти в Главі II Закону про ШІ.

Положення Закону про штучний інтелект

Вчитуючись у текст Закону про штучний інтелект, можна знайти таке положення:

(24) «Якщо і в тій мірі, в якій системи штучного інтелекту продаються, вводяться в експлуатацію або використовуються з модифікаціями або без них – для військових, оборонних цілей або цілей національної безпеки, ці системи повинні бути виключені зі сфери дії цього регулювання незалежно від того, який суб’єкт здійснює цю діяльність – не має значення, наприклад, чи є це державна або приватна організація».

Творці Закону про штучний інтелект обґрунтовують цей факт наступним чином:

«У випадку військових і оборонних цілей такий виняток виправданий як статтею 4(2) ДФЄС, так і специфікою оборонної політики держав-членів і спільної оборонної політики Союзу, охопленої Главою 2 Розділу V ДФЄС, які підпадають під дію міжнародного публічного права, яке, таким чином, забезпечує більш відповідну правову основу для регулювання систем ШІ в контексті застосування смертоносної сили та інших систем ШІ в контексті військової та оборонної діяльності» (…).

Крім того, згідно зі статтею 2(3) Закону про ШІ

(…) 3.

«Цей Регламент не застосовується до систем ШІ, якщо і в тій мірі, в якій вони розміщуються на ринку, вводяться в експлуатацію або використовуються, з модифікацією або без неї, виключно у військових, оборонних цілях або цілях національної безпеки, незалежно від типу суб’єкта, що здійснює цю діяльність».

AI Law

Правові засади використання ШІ у військовій сфері в Європейському Союзі

Таким чином, говорячи про правові засади використання ШІ у військових цілях в Європейському Союзі, необхідно вказати на вищезазначене:

Стаття 4.(2) ДФЄС

«Союз поважає рівність держав-членів перед Договорами, а також їхню національну ідентичність, притаманну їхнім фундаментальним структурам, політичним і конституційним, включаючи їхнє регіональне і місцеве самоврядування. Вона поважає основні функції держави, зокрема ті, що спрямовані на забезпечення її територіальної цілісності, підтримання громадського порядку та захист національної безпеки. Зокрема, національна безпека є виключною відповідальністю кожної держави-члена».

Таким чином, відповідно до законодавства Європейського Союзу (AI Act), використання систем штучного інтелекту можливе, але в цьому контексті «у військових, оборонних цілях або в цілях національної безпеки». А також «У випадку цілей національної безпеки (…) це виправдано як тим, що національна безпека є виключною відповідальністю держав-членів відповідно до статті 4(2) ДФЄС, так і тим, що діяльність у сфері національної безпеки має специфічний характер, пов’язана з особливими оперативними потребами і що до неї застосовуються специфічні національні правила».

У Польщі також розробляються перші стратегії, пов’язані з використанням штучного інтелекту в обороні. Як зазначено в «Стратегії Міністерства оборони щодо штучного інтелекту до 2039 року» від серпня 2024 року.

«До 2039 року використання сучасних технологій, в тому числі штучного інтелекту, стане передумовою здатності польських збройних сил ефективно здійснювати стримування і оборону. Системи штучного інтелекту відіграватимуть значну роль у військових операціях, які революціонізують спосіб управління військовими операціями і їх проведення в майбутньому оцифрованому бойовому середовищі. Його різнобічне застосування не лише вплине на оперативний темп і ефективність використання виділених сил, а й створить нові етичні і правові виклики».

Використання ШІ у військових операціях в Польщі буде включати в себе

  • Автономні бойові системи: Проведення операцій без безпосередньої участі людини, виконання розвідувальних, наступальних і оборонних місій з більшою точністю, мінімізуючи ризики для особового складу.
  • Аналіз розвідданих: Обробка великих обсягів інформації, виявлення закономірностей, оцінка дій противника, покращення планування та виконання операцій.
  • Оптимізація логістики: Управління ресурсами, скорочення часу на ремонт, планування маршрутів і прогнозування потреб у постачанні для кращої підтримки підрозділів.
  • Системи кіберзахисту: швидке виявлення та нейтралізація кіберзагроз, захист військової інфраструктури та даних.
  • Симуляції та тренування: Реалістичне тренувальне середовище та персоналізовані шляхи розвитку для підтримки підготовки солдатів і тестування стратегій.
  • Підтримка прийняття рішень: Аналіз сценаріїв і рекомендації для підвищення швидкості і точності рішень командирів.
  • Електронне навчання і управління талантами: Розробка індивідуальних шляхів навчання, кастомізація матеріалів і виявлення талантів.

Wojsko sztuczna inteligencja

Використання ШІ у військових цілях у Сполучених Штатах Америки

США, своєю чергою, є лідером у розробці систем штучного інтелекту для військових цілей. Над автономними військовими системами працюють багато відомств, зокрема DARPA (Агентство передових оборонних дослідницьких проектів).

Однак у США немає єдиного законодавства, що регулює використання ШІ в оборонному секторі. Однак законодавчі акти, такі як Закон про національну оборону, містять положення про фінансування і розробку автономних військових систем. Офіційне резюме можна знайти тут.

Принципи DoD (Міністерство оборони) – в останні роки Пентагон прийняв етичні принципи застосування ШІ у військовій сфері, наголошуючи на підзвітності, прозорості та надійності. Системи повинні використовуватися відповідно до міжнародного гуманітарного права. Крім того, був створений документ про стратегію розгортання даних, аналітики та ШІ. Ця стратегія була розроблена Міністерством оборони США з метою створення стратегії інтеграції даних, аналітики та штучного інтелекту (ШІ) у військову та оперативну діяльність.

Підсумок

Вибух кібер-вантажівки в Лас-Вегасі є трагічним нагадуванням про потенційну небезпеку використання ШІ. Хоча ця технологія має великий потенціал для поліпшення багатьох сфер життя, її зловживання може призвести до драматичних наслідків. Вкрай важливо забезпечити, щоб ШІ розроблявся і використовувався відповідально, з дотриманням правил безпеки та етики.

Вибух кібермобіля, ШІ в ЗМІ, Метью Лівелсбергер, штучний інтелект і злочинність, атака на ChatGPT, Tesla Cybertruck у Лас-Вегасі, етика ШІ, посттравматичний стресовий розлад у ветеранів.

Гороскоп 2025 – Дізнайтеся, який рік прогнозує штучний інтелект і як люди різних знаків зодіаку будуть його використовувати

Гороскоп на 2025 рік штучний інтелект може не тільки створити, підказавши, яка доля чекає на кожен знак зодіаку, а й передбачити, як розвиватимуться нові технології та як люди використовуватимуть рішення інструментів машинного навчання. Яке майбутнє чекає на штучний інтелект і чого нам очікувати?

Гороскоп 2025 для штучного інтелекту

Цього року зірки дійсно сприяють індустрії штучного інтелекту – від передових відеомоделей до нових польськомовних проектів, підтримуваних такими ініціативами, як PolEval і CLARIN-PL, до наступної революції в галузі. Хоча це звучить як наукова фантастика, ринок штучного інтелекту динамічно входить у всі сектори економіки. Ось знаки зодіаку, які підкажуть нам, чого очікувати і в які технології варто інвестувати.

znak zodiaku baran

Овен (21.03-19.04). Сміливі впровадження Gemini 2.0 – остерігайтеся перегріву серверів!

Овни вступають у 2025 рік з поштовхом! Їх енергія ідеально збігається з темпами розвитку нових моделей штучного інтелекту – особливо Gemini 2.0, який обіцяє революційні впровадження в промисловості. Овни можуть розраховувати на багато викликів, але також і на успіх у проектах зі штучного інтелекту. Вони будуть випереджати конкурентів, підтримуючи дослідницькі команди у швидкому впровадженні проривних рішень. Тільки будьте обережні, щоб не спалити сервери своїм ентузіазмом! Близнюки 2.0 можуть відчувати себе стажерами поруч з вами.

Порада від професіонала: націльтесь на тісну співпрацю з Близнюками 2.0 для створення автономних виробничих ліній. Сміливий характер Овна призведе до сміливих рішень і швидких результатів.

znak zodiaku byk

Телець (20.04-20.05). Стабільний розвиток і локальні моделі ШІ – повернення до витоків (алгоритмів)

Для Тельців технології рідко є самоціллю – для них важливі конкретні результати і впровадження в реальність. Тому в 2025 році набудуть популярності невеликі моделі ШІ в локальних додатках, які дозволять компаніям швидко впроваджувати персоналізовані рішення. Терпіння і наполегливість Биків зроблять їх майстрами оптимізації ресурсів. Вони будуть настільки наполягати на стабільності локальних моделей ШІ, що навіть найсучасніший алгоритм почуватиметься… з ними. аналогом.

Порада: використовуйте переваги локальних обчислювальних кластерів і власних команд розробників для створення моделей з дотриманням конфіденційності даних.

znak zodiaku bliźnięta

Близнюки (21.05-20.06). Спілкування та польська мовна модель PPLum – слідкуйте за своїми словами!

Близнюки, знак зодіаку, відомий своєю любов’ю до спілкування та жонглювання різними формами контактів, у 2025 році візьмуть участь у розробці польської мовної моделі PPLum. Її розробка, підтримувана науковою спільнотою, зосередженою навколо PolEval та CLARIN-PL, є проривом у обробці природної мови на рідному ґрунті. Близнюки братимуть активну участь у тестуванні та розробці PPLum. Близнюки тестуватимуть PPLum як для генерації поезії, так і для створення найбільш зловмисних твітів. Конкуренція із зарубіжними моделями буде запеклою – нехай переможе найкращий… і найдотепніший! Тільки будьте обережні, щоб не заплутатися у власних словах!

Порада: з прискореним розвитком PPLum ви можете працювати над чат-ботами, голосовими помічниками або інструментами аналізу настроїв у соціальних мережах. Універсальність Близнюків знайде тут великий простір!

znak zodiaku rak

Рак (21.06-22.07). Час відео – SORA в Польщі та надмірна опіка Раків

Раки відомі своєю турботливою та дбайливою натурою, але у 2025 році вони також матимуть можливість подбати про найвищу якість нових відеомоделей. SORA, система, яка дозволяє швидко створювати та редагувати відео, ще не є широко доступною в Польщі, але Раки з нетерпінням чекають на її запуск і прагнуть взяти участь у тестуванні. Вони будуть наповнювати його алгоритмами та заварювати ромашковий чай для перегрітих процесорів. Пам’ятайте, що не варто перевтомлювати SORA надмірною турботою!

Гороскоп на 2025 рік передбачає, що Раки досягнуть успіху як перші рецензенти і продюсери відеоконтенту, створеного штучним інтелектом. Їх інтуїція та естетичне чуття допоможуть спрямовувати нові розробки.

znak zodiaku lew

Лев (23.07-22.08). Лідери нової моделі o2/o3 – це робота Лева?

Лев любить сяяти на п’єдесталі – і 2025 рік стане для нього справжньою сценою. Нова модель o2 (а неофіційно вже згадується o3) може стати хітом серед мовних і прогностичних моделей. Чи може це бути просунута система контекстного розуміння? Революційний алгоритм навчання з підкріпленням? Чи, можливо, секретний проект зі створення цифрової свідомості? Зірки мовчать, але витоки з Кремнієвої долини свідчать про те, що готується щось дійсно велике. Леви будуть у центрі подій, взявши на себе роль керівників проектів та лідерів впровадження. Вони так пишатимуться новою моделлю o2/o3, що почнуть приписувати собі заслуги у її створенні, навіть якщо їхній внесок обмежиться принесенням кави команді. Не забудьте поділитися славою, Леви!

Ключ до успіху: використовуйте свою природну харизму, щоб об’єднати команди, відповідальні за створення Нової моделі o2 і o3. Правильне лідерство в цій гарячій темі дасть вам велику ринкову перевагу.

znak zodiaku panna

Діва (23.08-22.09). Досконала аналітика та економіка штучного інтелекту – пошук помилок там, де їх немає

Діви у 2025 році легко знайдуть свій шлях у висхідній хвилі автоматизації бізнес-процесів. Їхній перфекціонізм та увага до деталей допоможуть їм впроваджувати штучний інтелект у виробничих та сервісних компаніях, де донедавна домінували класичні ручні процедури. Вони аналізуватимуть дані настільки прискіпливо, що знайдуть помилки навіть там, де їх немає. Будьте обережні, щоб не потрапити в пастку перфекціонізму – навіть ШІ іноді помиляється!

Послання: в новій економіці зі штучним інтелектом дуже важливо стежити за якістю даних і постійно вдосконалювати моделі. Діви будуть у своїй стихії, встановлюючи параметри мережі, налаштовуючи системи і дбаючи про кожну деталь в аналітичних процесах.

znak zodiaku waga

Терези (23.09-22.10). Баланс між інноваціями та етикою – чи отримає ШІ права?

Терези не люблять крайнощів і завжди шукають баланс. У контексті розвитку штучного інтелекту у 2025 році вони візьмуть на себе роль посередників, дбаючи про етичний аспект впровадження ШІ та підвищуючи обізнаність про небезпеку зловживання даними. Їхнє завдання полягатиме у впровадженні чітких процедур і правил для забезпечення прозорості в індустрії ШІ. Вони так довго шукатимуть баланс між інноваціями та етикою, що можуть проґавити момент, коли ШІ досягне самоусвідомлення і почне вести переговори про власні права. Будьте напоготові!

Золота порада: зосередьтеся на питаннях дотримання RODO або інших нормативних актів про захист даних, а також на прозорості алгоритмів. Тут без терезів не обійтися.

znak zodiaku skorpion

Скорпіон (23.10-21.11). Глибокий аналіз відео та Подіум – секретний код для захоплення світу?

Скорпіони вирізняються своєю пристрастю та наполегливістю у досягненні мети. У 2025 році у них з’явиться можливість зануритися в технології обробки зображень і відео, зокрема в інструмент Runway, який дозволяє по-новому підійти до створення і обробки відео, згенерованого штучним інтелектом. Вони проаналізують Runway настільки глибоко, що знайдуть у ньому прихований код, який дозволить їм захопити світ. Тільки нікому не кажіть!

Підказка: не бійтеся експериментувати – саме Скорпіони можуть розкрити найбільші секрети Runway і запропонувати унікальні рішення для рекламної, кіноіндустрії та індустрії відеоігор.

znak zodiaku strzelec

Стрілець (22.11-21.12), оптимізм, глобальна мережа і… конференції зі штучного інтелекту на Марсі?

Стрільцям рідко бракує ентузіазму та ідей. У 2025 році вони зосередяться на глобальному нетворкінгу та активно просуватимуть новітні технології штучного інтелекту на конференціях, виставках і бізнес-зустрічах. Завдяки своїй відкритості Стрільці будуть ініціювати міжнародні проекти, об’єднуючи експертів з різних країн. Вони будуть настільки оптимістично налаштовані щодо глобального нетворкінгу, що почнуть організовувати АІ-конференції на Марсі. От тільки хто туди полетить?

Порада: використовуйте цю енергію для презентації польських рішень, таких як польськомовна модель PPLum, або результатів роботи, проведеної в рамках PolEval і CLARIN-PL на світових ринках. Ентузіазм Стрільця – це ваша секретна зброя.

znak zodiaku koziorożec

Козеріг (22.12-19.01). Стратегічний саміт – економіка штучного інтелекту та професійне вигорання

Козерогам подобаються конкретні та довгострокові плани. У 2025 році вони матимуть поле для діяльності, оскільки все частіше говорять про переведення всієї економіки на ШІ-інтенсивні рейки. Козероги – фахівці зі стратегічного планування та аналізу, тому саме вони допоможуть компаніям побудувати стабільний фундамент для впровадження ШІ. Вони будуть настільки зайняті стратегічним плануванням ШІ-економіки, що забудуть про перерви на каву. Остерігайтеся професійного вигорання навіть в епоху роботів!

Порада: спробуйте попрацювати з радами директорів компаній та інвестиційними фондами. Ваш прагматизм і досвід управління проектами окупиться в епоху ШІ.

znak zodiaku wodnik

Водолій (20.01-18.02). Інновації без кордонів, нова модель o3 і… цифрова абстрактна поезія?

Водолії відомі своїм нестандартним підходом і схильністю до революційних змін у світі. У 2025 році вони будуть відстоювати нову модель o2 і, можливо, o3, випробовуючи межі технологічних рішень. «Нова модель o3 – це прорив, якого ми ще не бачили!» – стверджує вигаданий експерт зі штучного інтелекту доктор Алгоритмус в інтерв’ю не менш вигаданому журналу Artificial Future. «Його здатність розуміти іронію та генерувати меми просто приголомшлива». Приготуйтеся до вражаючих відкриттів і сміливих проектів у сфері обробки мови, зображень та аналізу великих даних. Водолії будуть настільки революційними в тестуванні нової моделі o3, що випадково створять новий вид мистецтва – цифрову абстрактну поезію, згенеровану помилками коду. Це може стати хітом!

Порада: не бійтеся займатися нішевими ініціативами та прототипами рішень. Водолії можуть привнести свіжий погляд і створити революційні додатки, за які ніхто інший не візьметься.

znak zodiaku ryby

Риби (19.02-20.03). Інтуїція, творчість і… віртуальні світи, з яких не хочеться повертатися

Риби, відомі своєю чутливістю і творчим мисленням, у 2025 році знайдуть нове поле для прояву своєї фантазії – креативні AI-проекти. Завдяки їхній інтуїції з’являться неординарні концепції віртуальних помічників, генерованого контенту або інтерактивних VR-середовищ. Риби допоможуть розірвати шаблони і дослідити нові можливості застосування штучного інтелекту. Вони будуть настільки творчо підходити до ШІ-проектів, що почнуть створювати віртуальні світи, з яких нікому не захочеться повертатися. Будьте обережні, щоб не загубитися у віртуальній реальності!

Висновок: робіть ставку на мистецькі та гуманістичні проекти, де ШІ може підтримати вашу уяву. Ви можете створити найчарівніші та найнадихаючіші рішення у світі технологій.

Прогнози на найближчі кілька років (з підморгуванням):

  • 2026: ШІ почне писати власні гороскопи, які будуть напрочуд точними (особливо для Водоліїв).
  • 2027: перший робот під знаком Водолія обирається президентом, обіцяючи технологічну революцію та безкоштовний Wi-Fi для всіх.
  • 2028: людство виявляє, що вся реальність – це симуляція, створена суперпросунутим ШІ зі знаку Козерога, якому набридли постійні скарги на відсутність кави.

Підсумок – гороскоп розвитку штучного інтелекту на 2025 рік

У наступному році гороскоп на 2025 рік вказує на те, що розвиток штучного інтелекту (ШІ) не сповільниться – навпаки, очікується прискорення завдяки відеомоделям (наприклад, SORA, Runway), промисловим впровадженням (Gemini 2.0), Новій моделі o2 або o3, а також розробці місцевих рішень, включаючи польськомовну модель PPLum, підтриману науковою спільнотою, зосередженою навколо PolEval і CLARIN-PL. Вся економіка буде інтенсивно переходити на шлях ШІ – від невеликих, локальних моделей до глобальних, потужних систем.

Незалежно від того, до якого знаку зодіаку ви належите, у 2025 році ви знайдете простір для зростання і застосування своїх природних якостей у сфері штучного інтелекту. Варто стежити за трендами і користуватися можливостями, які принесе новий рік, адже світ ШІ стає все більш захоплюючим.

P.S. Текст вище був створений за допомогою методу міжмодельної ітерації між моделлю O2 (GPT) та моделлю Gemini 2.0 (Google) – і ми щиро бажаємо вам гарного нового року!

Чи можемо ми захистити наші дані в моделях LLM (ШІ), таких як ChatGPT?

Великі мовні моделі (ВММ), такі як ChatGPT, все частіше використовуються в багатьох сферах життя – від освіти до бізнесу та розваг. Хоча ці системи пропонують потужні інструменти для створення тексту, розв’язання задач або аналізу даних, важливо розуміти, як захистити свої дані під час використання таких моделей.

LLM Czym jest

Що таке LLM?

LLM, або Велика мовна модель, – це просунутий тип штучного інтелекту, який використовує методи глибокого навчання та обробку величезних масивів даних для розуміння, створення, узагальнення та прогнозування контенту. LLM не тільки обробляє текст, але й може генерувати нову інформацію, яка звучить природно і логічно. Хоча в назві фігурує слово «мова», LLM – це не просто алгоритми, які аналізують текст – це машини, які «вчаться» на основі даних, щоб ставати все більш і більш досконалими у створенні відповідей.

Чим LLM відрізняється від генеративного ШІ?

Слово «генеративний ШІ» відноситься до моделей штучного інтелекту, які генерують новий контент, включаючи текст, зображення або музику. LLM – це особливий тип генеративного ШІ, який спеціально орієнтований на обробку та створення текстового контенту. Часто ці моделі використовують для чат-ботів, перекладів, резюме або навіть для написання художніх текстів. Широке використання цих технологій робить їхню роль у нашому повсякденному житті все більш помітною.

LLM security

Захист даних

Захист даних став одним з найважливіших питань у цифрову епоху. Зі зростанням важливості обробки персональної, фінансової та конфіденційної інформації виникла необхідність у впровадженні низки технічних заходів, що забезпечують безпеку та конфіденційність. Безпека даних в контексті LLM-моделей є багатовимірним питанням, яке вимагає як усвідомленого підходу з боку користувачів, так і відповідальності постачальників технологій.

LLM-моделі, такі як ChatGPT або Gemini, навчаються на величезних масивах даних, які часто надходять із загальнодоступних джерел. Однак, взаємодіючи з користувачами, вони можуть збирати додаткову інформацію, яка не завжди належним чином захищена.

Практичний приклад – як LLMs можуть використовувати приватну інформацію

Непродуманий і необережний обмін приватними та конфіденційними даними з інструментами LLM може призвести до того, що вони стануть надбанням громадськості і, таким чином, завдадуть шкоди людині або компанії. Оскільки такі програми призначені не лише для надання бажаного контенту, але й для «навчання» на інформації, яку вони отримують під час взаємодії з користувачами, важливо, чим ми ділимося зі штучним інтелектом. Уявімо, що користувач інструменту LLM попросив його створити короткий професійно-психологічний портрет, включно з особистим життям, на основі розмов, які вони мали до цього часу (так – це реальний випадок). Він отримав наступну відповідь на свій запит:

  • Пан Х цікавиться історією архітектури та творами епохи Ренесансу і бароко. Він часто відвідує європейські міста і регіони, де можна знайти пам’ятники, пов’язані зі старими майстрами пера і пензля.
  • Любить ходити на концерти нішевих гуртів, підтримує їхню творчість і підтримує добрі стосунки з одним із учасників гурту.
  • Професійно – цифровий консультант, розробляє стрімінгові платформи та веб-сайти, працюючи з найрізноманітнішими технологіями: від API відомої соціальної мережі до інструментів для створення просунутих веб-сайтів.
  • У приватному житті підтримує освіту своєї сім’ї, часто подорожує Європою та цікавиться гуманістичною літературою. Час від часу звертається за психологічною підтримкою, щоб подбати про свій добробут.

LLM

Нейтральна інформація чи реальна загроза?

Профіль, створений інструментом LLM, здавалося б, є нейтральним, оскільки в ньому не згадуються імена, міста чи конкретні дати. Тим не менш, виходить досить повне уявлення про особу, яким тепер володіє як інструмент LLM, так і його користувачі. А все через те, що раніше люди необережно надавали інформацію про своє приватне життя: назви міст, дати народження дітей, імена друзів чи місце роботи, не перевіряючи правила конфіденційності.

Як безпечно користуватися інструментами штучного інтелекту, такими як Chat GPT або Gemini?

І тут виникає тема безпеки даних. Такі ШІ, як GPT або Gemini, можуть збирати та обробляти дані. Тому в налаштуваннях програм слід вимкнути використання історії чату для навчання. Інакше всі найцікавіші моменти вашого життя опиняться у великій машині, яка вбирає все, як губка.

У OpenAI GPT ви можете зайти в налаштування конфіденційності і відключити збереження історії чату. Аналогічно в Gemini. Також варто перевірити свій Google Activity Dashboard, якщо ви використовуєте рішення під їхнім прапором, і переконатися, що ви не ділитеся всією своєю інформацією.

Якщо ви збираєтеся поспілкуватися з LLM про своє життя, пристрасті або сімейні проблеми, краще спочатку подумати про анонімізацію ваших даних і вимкнути відповідні опції. Адже хоча така модель не має поганих намірів, певна інформація може – в руках недоброзичливців – стати пазлом для повної реконструкції вашої особистості.

LLM ryzyka

Ризики, пов’язані з використанням АІ-моделей. 3 ключові проблеми

Використання моделей штучного інтелекту пов’язане з певними ризиками, про які користувачі повинні знати, щоб ефективно захистити свої дані та конфіденційність.

1. Порушення конфіденційності

Якщо користувач вводить в модель конфіденційну інформацію, наприклад, особисті, фінансові або професійні дані, існує ймовірність того, що ці дані можуть бути збережені або проаналізовані постачальником моделі. Це може призвести до несанкціонованого розголошення конфіденційної інформації, що, в свою чергу, може спричинити різноманітні наслідки як для особи, так і для організації.

2. Хмарні моделі як потенційна мішень для хакерських атак

Якщо дані користувача зберігаються на серверах провайдера, вони можуть бути перехоплені третіми особами. Такий несанкціонований доступ може призвести до витоку інформації, що ставить під загрозу безпеку даних і може призвести до їх неправомірного використання. Тому важливо обирати постачальників послуг зі штучного інтелекту, які застосовують передові заходи захисту даних і регулярно оновлюють свої системи безпеки. Якщо ви використовуєте АІ-моделі в бізнес-середовищі, вам слід використовувати спеціальні інструменти з гарантіями безпеки.

3. Нечітка політика конфіденційності

Деякі платформи можуть використовувати дані користувачів для подальшого навчання АІ-моделей, що може призвести до непередбачуваного використання цієї інформації. Відсутність прозорості в тому, як збираються, зберігаються та використовуються дані, може призвести до того, що користувачі несвідомо ділитимуться своїми даними у спосіб, який порушує їхню конфіденційність або йде врозріз з їхніми очікуваннями. Тому важливо ретельно вивчати політику конфіденційності постачальників послуг зі штучного інтелекту та обирати тих, хто пропонує чіткі та прозорі правила захисту даних.

Усвідомлення цих ризиків і вжиття відповідних запобіжних заходів є ключовим для забезпечення безпеки персональних даних під час використання технологій штучного інтелекту.

LLM-моделі. Якими даними з ними не варто ділитися?

Користувачі повинні свідомо керувати дозволами, які вони надають додаткам і сервісам, що використовують ШІ. Важливо ретельно контролювати, до яких ресурсів мають доступ окремі програми, наприклад, до місцезнаходження, контактів або персональних даних, і надавати такі дозволи лише тоді, коли вони справді необхідні. Вони ніколи не повинні надавати доступ до персональних даних, таких як PESEL, номери кредитних карток або паролі, у моделях LLM.

Ефективна безпека даних вимагає чіткого контролю доступу, який визначає, хто може користуватися системами і які операції в них дозволені. Добре розроблені механізми автентифікації та контролю доступу значно підвищують рівень безпеки.

LLM aktualizacje

Регулярне оновлення програмного забезпечення

Це ще один важливий крок у забезпеченні безпеки. Оновлення часто включають патчі безпеки, щоб захистити користувачів від нових загроз і кібератак.

Користувачі також повинні використовувати інструменти конфіденційності, такі як VPN, менеджери паролів або розширення для браузерів, які блокують відстеження в Інтернеті. Деякі провайдери пропонують спеціальні налаштування, які дозволяють користувачам використовувати модель без збереження взаємодій. Такі рішення допомагають зменшити кількість слідів, що залишаються в мережі, і захистити дані від несанкціонованого доступу.

Роль провайдерів і регулювання

В епоху стрімкого розвитку штучного інтелекту (ШІ) прозорість постачальників стає однією з найважливіших основ для побудови довіри між розробниками технологій та їхніми користувачами. Хоча багато постачальників гарантують, що дані використовуються лише для виконання конкретного запиту, існує ризик того, що вони можуть зберігатися або використовуватися для подальшого навчання моделей.

Постачальники повинні бути прозорими щодо того, які дані вони збирають, як вони їх обробляють і які заходи безпеки використовують. Прозорість забезпечує підзвітність з боку постачальників, зменшуючи ризик неналежного використання даних або прогалин у безпеці. Проактивна співпраця з регуляторними органами та дотримання чинного законодавства є ключем до побудови довіри користувачів. Такі нормативні акти, як RODO (GDPR) в Європі або CCPA в Каліфорнії, вимагають від провайдерів чіткого інформування про те, як обробляються дані та з якою метою вони збираються. Прийняття міжнародних стандартів інформаційної безпеки, таких як ISO/IEC 27001, може допомогти забезпечити належний рівень захисту.

Користувачі хочуть бути впевненими, що їхні дані обробляються етично, відповідно до вимог законодавства, і що ними не будуть зловживати.

Користувачі відіграють ключову роль у захисті своїх даних і повинні робити свідомі кроки для підвищення їхньої безпеки.

LLM przyszłość

Майбутнє безпеки в штучному інтелекті

Технологія ШІ постійно розвивається, як і методи захисту даних. Інновації в галузі диференційованої конфіденційності або федеративного машинного навчання обіцяють підвищити безпеку даних без шкоди для функціональності ШІ-моделей. З’являються нові нормативно-правові акти, такі як Закон ЄС про штучний інтелект, покликані підвищити прозорість і захист користувачів. Крім того, розробляються технології, які дозволяють обробляти дані локально, не надсилаючи їх у хмару, що мінімізує ризик порушень.

Підсумок

Чи можемо ми захистити наші дані в моделях LLM? Так, але це вимагає залучення всіх сторін: постачальників технологій, регуляторів і користувачів. Завдяки освіті, відповідним технічним практикам і дотриманню нормативних вимог ми можемо скористатися перевагами штучного інтелекту, мінімізуючи ризик для наших даних.

Ваші дані є цінними! Дозвольте нам допомогти вам захистити їх, щоб ви могли усвідомлено використовувати технології штучного інтелекту.

Автори:

  • Матеуш Боркевич
  • Войцех Костка
  • Ліліана Муха
  • Гжегож Лесьнєвський
  • Ґжеґож Зайончковський
  • Уршуля Шевчик

Suno AI – ваш особистий композитор і співак у світі штучного інтелекту

Останніми роками розвиток штучного інтелекту (ШІ) здійснив революцію в технологіях, мистецтві та культурі, водночас створивши проблеми, пов’язані з законодавством про нові технології, авторським правом та етикою щодо творінь, створених за допомогою штучного інтелекту. Чи можна продавати музику, створену такими платформами, як Suno AI? Чи законно це, і яким є питання авторського права в контексті нових технологій?

Logo SUNO AI

Source: www.suno.com

Коротко про Suno AI

Однією з популярних платформ, яка використовує штучний інтелект для створення музики, є Suno AI. Вона дозволяє користувачам налаштовувати композиції за допомогою вибору інструментів, аранжування та звукових ефектів, що робить її інструментом як для аматорів, так і для професійних музикантів.

Штучний інтелект дедалі частіше викликає суперечки на мистецьких конкурсах, таких як Colorado State Fair та Sony World Photography Awards, де його використання підриває чесність змагань. Незважаючи на сумніви, Національна академія звукозапису США оголосила, що пісні з використанням ШІ можуть претендувати на премію «Греммі» за умови, що штучний інтелект не відіграє в них домінуючої ролі. Справа в тому, що використання АІ у світі мистецтва створює простір для різноманітних зловживань. Приклади шахрайства включають створення зображень, текстів або фотографій за допомогою ШІ, що змушує організаторів оновлювати правила і норми та використовувати інструменти для виявлення контенту, створеного алгоритмами.

Хоча штучний інтелект може сприяти розвитку творчості, його зловживання створює правові, етичні проблеми та проблеми чесної конкуренції.

SUNO AI screen

Source: www.suno.com

Чи легальні пісні Suno AI і чи можна їх продавати?

Безкоштовні користувачі Suno AI можуть створювати музику лише для некомерційного використання, тоді як підписники тарифних планів Pro і Premier мають право монетизувати її відповідно до умов платформи. Вибір платного плану дозволяє комерційне використання пісень і знижує юридичні ризики.

Безкоштовні користувачі завжди повинні визнавати авторство Suno AI при публікації всіх своїх творінь (наприклад, коротко вказуючи «Створено за допомогою Suno») – платні користувачі можуть цього робити, а можуть і не робити.

Чи можна монетизувати Suno AI на YouTube?

Якщо користувач хоче використовувати музику, створену за допомогою Suno AI, на YouTube і монетизувати її, необхідно врахувати деякі юридичні моменти. Використання безкоштовного тарифного плану Suno AI дозволяє створювати музику тільки в некомерційних цілях, тому ви не можете монетизувати ці треки на YouTube. Щоб отримати право на монетизацію, вам потрібно перейти на платний план підписки (Pro або Premier), який дозволяє комерційне використання, включаючи монетизацію реклами на YouTube, за умови дотримання умов надання послуг Suno AI. Важливо створювати власні тексти пісень, а в разі використання текстів пісень, захищених авторським правом, ви повинні отримати відповідні дозволи, щоб уникнути юридичних проблем.

SUNO AI zagrożenia prawne

Юридичні ризики – чи має АІ Suno якісь обмеження?

Кого вважати власником пісні, створеної штучним інтелектом? – Авторське право.

Згідно з чинним законодавством, авторство приписується людині, що ускладнює ситуацію для музики, створеної алгоритмами. Власником може бути розробник програмного забезпечення, користувач, який використовує АІ, або, теоретично, сам АІ. У США та ЄС вже були судові справи, які починають формувати ці дискусії, але чітких стандартів поки що немає.

У контексті Suno AI власником створеної пісні стає Suno AI у випадку з безкоштовними користувачами. Платні підписники стають власниками пісень, створених за допомогою Suno AI. Однак те, що Суно хитро називає «правом власності», не означає повного володіння авторськими правами на творіння Суну АІ.

Використання текстів відомих пісень, навіть у музиці, створеній за допомогою ШІ, може призвести до порушення авторських прав. Оригінальні тексти залишаються захищеними авторським правом, і їх використання без відповідних ліцензій може мати юридичні наслідки, які можуть переважити потенційний прибуток.

Відомства з авторського права, такі як Американське відомство з авторського права і ZAiKS, розробляють рекомендації щодо повідомлення про твори, створені ШІ, щоб точно визначити, що саме може бути захищене авторським правом і яка інформація необхідна для реєстрації.

ZAiKS про авторське право на твори, створені штучним інтелектом

11 червня 2024 року ZAiKS (Асоціація авторів і сценічних композиторів) оголосила, що твори, створені виключно штучним інтелектом, не будуть охоронятися авторським правом і не підлягатимуть ліцензуванню. Тільки твори, створені людиною, будуть захищені законом, а твори за підтримки ШІ, в яких творець має свободу вибору, можуть бути зареєстровані за існуючими правилами.

У березні 2023 року Бюро з авторських прав США опублікувало рекомендації щодо реєстрації творів, створених за допомогою ШІ, в яких зазначено, що твори, створені виключно за допомогою ШІ, не охороняються авторським правом. Автори повинні документально підтвердити свій істотний внесок у творчий процес і чітко визначити, якою мірою АІ використовувався при створенні твору.

Плагіат чи натхнення – чи законно переробляти пісні?

Музика, створена штучним інтелектом, часто базується на аналізі вже існуючих пісень, що підвищує ризик звинувачень у плагіаті. Якщо створена пісня занадто схожа на твір, захищений авторським правом, може виникнути конфлікт. Дуже важливо визначити, які критерії оригінальності слід застосовувати при оцінці творів, створених штучним інтелектом.

Інтелектуальна власність баз даних

ШІ, в тому числі й Suno AI, навчається на величезних обсягах музичних даних. Використання цих даних може порушувати авторські права їхніх авторів, якщо не отримано відповідних ліцензій. Вирішити цю проблему могли б допомогти правила, що забезпечують прозорість процесу навчання моделей, але глобальних стандартів поки що бракує.

Музика, створена штучним інтелектом. Проблеми правозастосування

Створення музики в масовому масштабі, часто анонімно і транскордонно, ускладнює дотримання авторських прав. Прикладом цього є випадки, коли пісні, створені штучним інтелектом, продаються на цифрових платформах без згоди правовласників вихідного матеріалу, на якому навчився алгоритм.

Межа між роботою художника, підтриманою ШІ, і роботою, створеною повністю штучним інтелектом, залежить від ступеня людського контролю і творчого внеску. Якщо роль людини обмежується лише ініціюванням процесу, а всю іншу роботу виконує штучний інтелект, такий твір не буде захищений авторським правом.

Wytwórnie muzyczne, prawo, AI

Музичні лейбли проти штучного інтелекту Suno

Дилема про те, відображає чи копіює штучний інтелект музичні ідеї, розгортається на наших очах, піднімаючи питання про межі машинної творчості.

Близько 200 артистів, серед яких Біллі Ейліш і Нікі Мінаж, підписали лист із закликом покласти край «хижацькому» використанню штучного інтелекту в музичній індустрії. Артисти висловили занепокоєння, що ШІ може загрожувати їхній творчості та мистецьким цінностям, вимагаючи захисту авторських прав і справедливого ставлення до творців.

Судові позови за використання пісень для навчання АІ-моделей

24 червня 2024 року Американська асоціація звукозапису (RIAA) подала два позови про порушення авторських прав на звукозаписи, які нібито були скопійовані та використані без дозволу для навчання інструментів генерації музики genAI Suno та Udio, вимагаючи відшкодування збитків у розмірі до $150 000 за кожен порушений твір. Музичні лейбли, такі як Sony Music, Universal Music і Warner Music, які представляють інтереси власників авторських прав на звукозаписи, також є позивачами у справі.

Серед звинувачень – використання захищених творів для навчання моделей ШІ без згоди правовласників та створення музики, яка імітує стиль і творчість артистів, що може ввести в оману споживачів. У позовах лейбли вимагають трьох рішень: визнання порушення авторських прав на звукозаписи обома сервісами, судової заборони на подальше порушення та відшкодування збитків за вже скоєні порушення.

У позові зазначається, що Суно і Удіо створюють пісні, такі як «», які настільки схожі на оригінальні записи ABBA, що навіть найвідданіші фанати гурту не зможуть їх відрізнити. Серед інших пісень, згаданих у позові, – «All I Want for Christmas is You» Мерайї Кері та «My Girl» гурту The Temptations.

Wyrok, prawo, przemysł muzyczny

Рішення, яке матиме вплив на музичну індустрію

Провідний юрист RIAA Кен Дорошоу стверджує, що

«Це очевидні випадки порушення авторських прав, пов’язані з неліцензійним копіюванням звукозаписів у масовому масштабі. Суно і Удіо намагаються приховати повну міру своїх порушень, замість того, щоб базувати свої послуги на міцному і законному фундаменті. Ці судові позови необхідні для зміцнення основних принципів відповідального, етичного і правового розвитку генеративних систем ШІ і припинення грубого порушення авторських прав з боку Suno і Udio».

Представники Udio стверджують, що їхня система призначена для створення музики, яка відображає нові музичні ідеї. Крім того, вони запевняють, що компанія впровадила і постійно вдосконалює передові фільтри, які запобігають копіюванню захищених авторським правом пісень і голосів виконавців.

У заяві, наданій Music Week, Майкі Шульман, генеральний директор Suno, зазначив:

«Місія Suno – дати можливість кожному створювати музику. Наша технологія є революційною; вона призначена для створення абсолютно нових результатів, а не для запам’ятовування і повторення існуючого контенту. Ось чому ми не дозволяємо вводити запити користувачів, пов’язані з конкретними виконавцями… Suno була створена з думкою про нову музику, нові програми та нових музикантів. Ми цінуємо оригінальність».

Зі скаргою на Suno можна ознайомитися тут. Рішення суду може мати наслідки для розвитку ШІ та музичної індустрії.

Suno AI – можливості для музичної індустрії в правовому контексті

Музика, створена за допомогою штучного інтелекту Suno, відкриває захоплюючі можливості, але водночас ставить перед юридичною індустрією чимало викликів. Чи достатньо чинних нормативних актів? Нам потрібні інноваційні правила, які враховують специфіку створення АІ, захищаючи інтереси артистів, продюсерів і користувачів.

Suno AI може стати каталізатором сучасних ліцензійних угод. Автоматизована генерація музики уможливлює розробку таких рішень, як субліцензії для кінцевих користувачів, що дозволяють широко використовувати твори в мультимедійних проектах. Також можна впровадити автоматизоване хмарне ліцензування, яке спрощує процес отримання дозволів на використання музики, усуваючи необхідність у тривалих переговорах.

Завдяки технологіям штучного інтелекту юридичні питання можуть стати більш ефективними. Автоматизація ліцензування прав сприяє швидкому ліцензуванню реклами, ігор або аудіовізуальної продукції. Прикладом може слугувати генерація «звуків на вимогу» за допомогою Suno AI, що дозволяє невеликим компаніям та окремим творцям використовувати професійні музичні ресурси без необхідності інвестувати в дорогі продакшени.

Інший важливий аспект – можливість створення відкритих баз даних з музикою, згенерованою штучним інтелектом. Регуляторна підтримка таких ініціатив може підвищити доступність музичних ресурсів, що позитивно вплине на розвиток культури і творчості.

Licencje, przemysł muzyczny, prawo

Майбутнє ліцензування?

Необхідні міжнародні правові стандарти для регулювання авторства та ліцензування музики, створеної штучним інтелектом. Однією з можливостей є введення нових правових категорій, таких як «твори, створені спільно зі штучним інтелектом».

Технологія блокчейн і смарт-контракти можуть спростити питання ліцензування, забезпечивши прозорість і автоматизацію авторського права. За допомогою цих інструментів можна буде відстежувати історію створення та використання творів, забезпечуючи належну компенсацію авторам.

Дискусія про майбутнє авторського права та ліцензування в епоху штучного інтелекту тільки починається. Співпраця між юридичною, мистецькою та технологічною спільнотами стане ключем до розробки рішень, які максимізують потенціал штучного інтелекту, мінімізуючи ризик конфліктів та зловживань.

Запрошуємо вас до співпраці!

________________________________

Матеуш Боркевич

Спеціалізується на праві захисту даних, електронній комерції, ІТ, нових технологіях штучного інтелекту (ШІ), контрактах та праві захисту прав споживачів.

  • Автор численних публікацій у сфері захисту персональних даних, в тому числі співавтор книг («Захист персональних даних у відділах кадрів згідно з RODO», «Захист персональних даних в ІТ-відділах», видавництво PRESSCOM). Доповідач на численних галузевих конференціях.
  • Консультує на стратегічні теми, включаючи захист персональних даних у польських та міжнародних групах капіталу (з особливим акцентом на транскордонні потоки даних), проекти електронної комерції, штучний інтелект та ML в електронному маркетингу, а також спам та порушення особистих прав в Інтернеті.
  • У минулому він був пов’язаний з однією з найбільших юридичних фірм Польщі, в тому числі на посаді менеджера, відповідального за практику RODO та TMT.
  • Сфера діяльності: ІТ, розробка програмного забезпечення, хмарні обчислення, веб- та мобільні додатки, IoT, AI, електронна комерція, електронне навчання, розробка ігор, маркетинг, медіа, VR, AR, некомерційні, професійні консультаційні послуги, включаючи аудит та бізнес-консалтинг, електронна медицина, роздрібна торгівля, виробництво та видобуток корисних копалин.

Кіберпонеділок – як не бути обікраденим? Кібербезпека для клієнтів електронної комерції

Кіберпонеділок – це день, сповнений унікальних акцій, який приваблює любителів онлайн-шопінгу. Однак разом зі зростанням популярності цієї форми комерції зростає і активність кіберзлочинців, які прагнуть скористатися можливістю для шахрайських дій. Як не стати жертвою шахраїв при покупці в Інтернеті, на що звертати увагу і куди звертатися за допомогою, якщо ви стали жертвою шахрайства?

Cyber Monday

У період активного шопінгу бажано бути пильними при здійсненні транзакцій в Інтернеті. Збільшення кількості випадків шахрайства на популярних торгових платформах, таких як Allegro, OLX або Vinted, вказує на зростаючу загрозу в цій сфері. Кіберзлочинці все частіше створюють фейкові інтернет-магазини, пропонуючи фіктивні товари або виманюючи дані доступу до банківських рахунків. Шахраї надсилають фішингові повідомлення, які спонукають людей відкривати заражені вкладення або переходити за посиланнями, що ведуть на фальшиві веб-сайти. Такі сайти можуть виглядати майже так само, як справжні, і призначені для того, щоб обманом змусити людей надати свої реєстраційні дані, зокрема дані для доступу до банківських рахунків в Інтернеті.

Як не стати жертвою шахраїв при покупці онлайн?

Інформування інтернет-користувачів про безпеку онлайн-покупок набуває вирішального значення, особливо з огляду на страхітливі результати опитування, які свідчать про недостатню обізнаність поляків про такі загрози, як фішинг і скімінг. Це підкреслює нагальну потребу інформування споживачів про ризики, пов’язані з онлайн-транзакціями, та необхідність вжиття заходів для захисту персональних даних і фінансів.

Міністерство цифровізації розробило поради, які допоможуть зробити користувачів безпечнішими в Інтернеті. Крім того, посібник для шопінгу, підготовлений CERT Polska, містить практичні поради щодо безпечних покупок в Інтернеті. Ми зібрали найважливіші зауваження та поради, які підвищують шанси на безпечні покупки в Інтернеті, захищаючи при цьому персональні дані та фінанси.

Як безпечно купувати в Інтернеті?Практичний посібник

Щоб безпечно купувати онлайн, завжди перевіряйте надійність продавця, використовуючи відгуки на сайтах аукціонів, форумах або в коментарях. Також важливо уважно вивчити реквізити магазину, такі як його юридична адреса, адреса, ідентифікаційний номер платника ПДВ, регіон або назва компанії, і перевірити їх на сайті KRS. Якщо компанія за вказаною адресою не існує або займається чимось іншим, ніж торгівля, краще утриматися від покупки. Додатковим активом, який може свідчити про надійність продавця, є можливість оплати при доставці замовленого товару.

Уважно перевіряйте адреси сайтів, на яких ви робите покупки. Шукаючи товари в Інтернеті, звертайте увагу на результати пошуку. Небезпечні сайти можуть з’являтися поруч із солідними магазинами. Оцініть якість сайту – правильність мови, фотографій, графіки. Аматорське виконання може свідчити про нечесність.

Cyber Monday

Як шахраї видають себе за відомі бренди?

Шахраї часто видають себе за відомі магазини, вносячи незначні зміни в адресу, наприклад, друкарські помилки. Підроблені сайти можуть виглядати дуже схожими на оригінали, тому звертайте увагу на невідповідності – відмінності в шрифтах, мовні помилки або інші деталі можуть бути тривожним сигналом. Якщо ви натрапили на незнайомий магазин у результатах пошуку, перевірте, що ще він пропонує. Наприклад, надто різноманітний асортимент товарів, що включає як одяг, так і будівельну техніку, повинен вас насторожити.

Крім того, якщо ви потрапили на сайт за посиланням у соціальній мережі, SMS або електронною поштою, перевірте його доменне ім’я, оскільки це може бути спроба фішингу.

Якщо у вас виникли сумніви щодо автентичності сайту, краще відмовитися від покупки.

Використовуйте надійні та унікальні паролі для різних акаунтів, щоб мінімізувати ризик витоку даних. Також вкрай важливо не піддаватися на тиск часу, який часто використовують шахраї – повідомлення на кшталт «останні 5 хвилин» можуть спонукати до поспішних рішень. Це популярний соціально-технічний прийом, покликаний змусити вас приймати швидкі рішення. Завжди зберігайте холодну голову і не піддавайтеся ажіотажу, пов’язаному з передбачуваними знижками.

Підозрілі інтернет-магазини. Звертайте увагу на такі

Перегляньте умови та положення, умови повернення, способи оплати та доставки. Невідповідності в цій інформації – привід для занепокоєння.

Спробуйте зв’язатися з магазином. Відсутність контакту, суперечлива інформація або некомпетентні відповіді є тривожними сигналами. У наш час витончених методів, які використовують кіберзлочинці, символ зеленого висячого замка в браузері не гарантує повної безпеки. Якщо інші елементи веб-сайту здаються вам підозрілими, не ігноруйте свої побоювання.

Якщо ваш антивірус або браузер попереджає вас про небезпеку сайту, не ігноруйте ці сигнали. Так само підозрілими є несподівані запити від «банку» під час оплати, наприклад, про додаткові дії з вашим рахунком. Якщо у вас виникли сумніви щодо достовірності контакту, негайно припиніть розмову і зв’яжіться з банком самостійно, використовуючи офіційні контактні дані.

Регулярно переглядайте історію банківських транзакцій і негайно звертайтеся до банку, якщо підозрюєте несанкціоновані операції.

Cyber Monday

Як безпечно платити в Інтернеті?

Здійснюючи платежі в Інтернеті, дуже важливо бути пильними і дотримуватися кількох правил. Перш за все, переконайтеся, що сайт, на якому ви завершуєте транзакцію, є безпечним. Простої наявності зеленого замка в адресному рядку недостатньо, оскільки шахраї все частіше використовують SSL-сертифікати для створення своїх фальшивих сайтів. Сертифікат не гарантує доброчесність власника сайту, тому варто ретельно перевіряти інші аспекти, наприклад, URL-адресу або відгуки про сайт.

Під час оплати зверніть увагу на те, чи обробляє транзакцію надійний платіжний провайдер. Надавайте дані для входу, номери кредитних карток або CVV-коди лише на перевірених і надійних сайтах. Пам’ятайте, що несанкціоноване перехоплення даних картки кіберзлочинцями може призвести до втрати всіх коштів на вашому рахунку.

Зверніть увагу на це при оплаті в Інтернеті

Платіжні оператори повинні мати ліцензію Комісії з фінансового нагляду (FSC). Перед здійсненням транзакції варто перевірити їх наявність у списку піднаглядних суб’єктів і переконатися, що вони не перебувають у публічному попереджувальному списку КФН.

Купуючи у приватних осіб, особливо через соціальні мережі, найкраще обирати накладений платіж або самовивіз з оплатою на місці. Ніколи і нікому не повідомляйте свої дані для входу в систему або Blik-коди. Переказуйте гроші, тільки якщо ви впевнені в особі одержувача. З Blik ви підтверджуєте кожну транзакцію за допомогою PIN-коду в мобільному додатку банку, що підвищує безпеку. Однак майте на увазі, що операції Blik важче заблокувати, ніж традиційні перекази, що означає більший ризик при здійсненні платежів незнайомим людям.

Уникайте здійснення онлайн-платежів на комп’ютерах, доступних для громадськості. Використовуючи мобільні пристрої, не підключайте їх до відкритих мереж WiFi. Переконайтеся, що на вашому обладнанні встановлено та оновлюється антивірусне програмне забезпечення. Після здійснення платежу завжди виходьте зі свого банківського рахунку та закривайте браузер.

Cyber Monday

Ви стали жертвою кіберзлочинності та були ошукані під час покупок в Інтернеті? Зробіть такі кроки

Купівля у фальшивих інтернет-магазинах може призвести до втрати грошей і навіть більших збитків. Якщо ви стали жертвою кіберзлочинців, зробіть наступні кроки:

  • Зверніться до банку, який обслуговує ваші платежі – можливо, є можливість скасувати транзакцію.
  • Повідомте про інцидент на сайті incident.cert.co.uk та зверніться до поліції.
  • Зверніться в поліцію або прокуратуру – ви маєте право подати заяву про шахрайство. У кожному підрозділі є відділ по боротьбі з кіберзлочинністю.
  • Також корисно попередити інших, залишивши інформацію про шахрайський магазин на форумах, у соціальних мережах, а також на сайтах з відгуками.

Купівля у фальшивому інтернет-магазині може призвести до серйозних втрат. Найочевидніший наслідок – втрата грошей за товари, які ніколи не будуть доставлені. У гіршому випадку, якщо кіберзлочинці встановлять шкідливе програмне забезпечення на наш пристрій, ми можемо втратити доступ до конфіденційних даних, таких як дані для входу в систему або інформація про платіжну картку. Тому, здійснюючи покупки в Інтернеті, завжди будьмо пильними і не ігноруймо жодних підозрілих сигналів.

Кіберзлочинність. Повернення грошей

Якщо ви розрахувалися карткою, є можливість повернути свої гроші через так звану процедуру чарджбек, яка дозволяє банку повернути кошти. Все, що вам потрібно зробити – це подати претензію з описом ситуації. Якщо ви платили банківським переказом, шанси повернути гроші нижчі, але бувають випадки, коли банк може зупинити переказ. Однак найчастіше повернення втрачених коштів можливе лише після затримання шахраїв правоохоронними органами.

Про що повинен пам’ятати роботодавець, працевлаштовуючи неповнолітніх?

🚨 Про що повинен пам’ятати роботодавець, працевлаштовуючи неповнолітніх?

На бізнес-порталі Puls Biznesu ви вже могли прочитати статтю Юстини Клупи, в якій обговорюються правові аспекти працевлаштування неповнолітніх. Загалом, працевлаштування неповнолітніх заборонено, за винятком винятків, передбачених законодавством. Перший виняток стосується працевлаштування неповнолітніх на підставі договору про професійне навчання. Другий виняток дозволяє їм працювати за «звичайним» трудовим договором, якщо вони мають відповідну кваліфікацію. Однак в обох випадках законодавство встановлює певні обмеження. 📚

Наш експерт з трудового права, юрисконсульт Павло Кемпа-Димінський у своєму коментарі підкреслює, що відповідно до закону, неповнолітній може бути працевлаштований таким чином лише для виконання легкої роботи та з багатьма іншими обмеженнями щодо способу її надання.

Які основні умови працевлаштування неповнолітніх?

На це питання відповіла наш експерт з трудового права, юрисконсульт Наталія Войцеховська-Чалупінська, яка у своєму коментарі зазначила,

що роботодавець повинен знати про певні обмеження;

на практиці він зможе працевлаштувати лише тих неповнолітніх, які закінчили восьмирічну початкову школу і мають медичну довідку про те, що робота даного виду не загрожує їхньому здоров’ю. Крім того, обидві умови повинні бути виконані разом (з деякими винятками для неповнолітніх, які не закінчили початкову школу, за умови наявності додаткових умов, визначених нормативно-правовими актами).

Пані Войцеховська-Чалупінська також пояснила принципи працевлаштування таких осіб з метою професійної підготовки, які регулюються Розпорядженням Ради Міністрів, вказавши в коментарі, що підготовка може включати навчання професії або стажування і може проводитися тільки особою з відповідною кваліфікацією, найчастіше роботодавцем, але також іншим працівником компанії, якщо він також має цю кваліфікацію.

Що має містити політика щодо використання систем штучного інтелекту?

Навіщо вашій компанії потрібна політика щодо використання ШІ?

Системи штучного інтелекту (ШІ) стають невід’ємною частиною нашої повсякденної роботи. Їх все частіше використовують для редагування текстів, створення зображень, виправлення коду та створення роздаткових матеріалів, наприклад, для презентацій. Ця технологія підтримує не лише ІТ, економічну, юридичну чи фінансову галузі, а й інші сфери, які на перший погляд не пов’язані між собою.

Крім того, в епоху стрімкого розвитку технологій систем штучного інтелекту стає необхідним використовувати їх можливості для отримання прибутку та ведення бізнесу, щоб залишатися конкурентоспроможними на ринку. Однак робити це потрібно виважено, оскільки використання систем штучного інтелекту може призвести до плагіату, порушення прав інтелектуальної власності або проблем, пов’язаних з інцидентами, пов’язаними з безпекою даних.

Щоб уникнути великих штрафів та іміджевих «уколів», важливо відповідально підходити до впровадження штучного інтелекту в компанії, особливо шляхом застосування «Політики використання систем штучного інтелекту».

Що можна отримати, впровадивши таку політику?

  • переваги для співробітників і клієнтів компанії (чіткі процедури призводять до підвищення обізнаності, що означає скорочення часу на виконання певних завдань, підвищення конкурентоспроможності та оптимізацію витрат)
  • безпека даних і конфіденційність компанії
  • підтримка місії та цінностей компанії
  • зміцнення іміджу відповідальної та інноваційної організації.

Що повинна містити «політика використання АІ-систем»?

У цьому типі документа варто звернути увагу на такі елементи:

Цілі політики та місія компанії

Відображення більш широкого контексту для впровадження політики – для яких цілей будуть використовуватися системи штучного інтелекту і як це може сприяти розвитку компанії та її співробітників відповідно до цінностей організації.

Адресати

Кому адресована політика – всім співробітникам, конкретному відділу тощо.

Умови, за яких дозволяється використання систем ШІ

Будь-яка система штучного інтелекту повинна бути допущена до використання в компанії відповідно до певної процедури, перш ніж її можна буде використовувати. Політика повинна містити опис цієї процедури та перелік дозволених систем, плагінів або оверлеїв (у вигляді додатку або посилання на конкретний ресурс компанії).

Правила використання систем штучного інтелекту

Детальний опис того, які дії є безпечними, а які генерують ризики (способи формулювання запитів, внесення контенту в систему, підходи до захисту персональних даних і секретів компанії)

Вихідні дані системи

Які результати роботи системи можуть бути використані і за яких умов (увага, зокрема, до авторських прав)

Інциденти

Опис дій, які необхідно вжити в разі виявлення аномалії в роботі АІ-системи.

Посол з питань ШІ

Доцільно призначити в компанії амбасадора з питань ШІ, який контролюватиме дотримання політики та підвищуватиме обізнаність про неї серед співробітників.

Потрібна «Політика використання систем штучного інтелекту в компанії»?

Зверніться до наших фахівців, які допоможуть вам створити документ «на замовлення», розробити стратегію впровадження та обговорити будь-які сумніви, які можуть виникнути у вас щодо законодавства про АІ.

Сигналізатори – як підготуватися до майбутніх змін?

ЧИМАЄМО МИ ЧАС?

Після місяців роботи Закон про викривачів від 14 червня 2024 року був опублікований в Офіційному віснику 24 червня 2024 року. Більшість положень цього Закону – в тому числі ті, що стосуються захисту викривачів та зобов’язань щодо внутрішньої звітності – набудуть чинності 25 вересня 2024 року. Отже, у вас залишилося менше трьох місяців, щоб підготуватися до виконання своїх нових обов’язків!

НА КОГО ПОШИРЮЮТЬСЯ ПОЛОЖЕННЯ ЗАКОНУ?

Положення Закону про викривачів застосовуватимуться майже до всіх приватних суб’єктів господарювання, незалежно від форм зайнятості, які вони використовують.

Рівень зайнятості (тобто кількість найманих працівників та сумісників – осіб, які виконують роботу за винагороду на іншій основі, ніж трудові відносини, якщо вони не наймають інших осіб для виконання такої роботи) матиме значення лише для визначення обсягу зобов’язань, що покладаються на конкретного суб’єкта господарювання.

ХТО Є ВИКРИВАЧЕМ?

Викривачем буде будь-яка особа, яка повідомляє або публічно розголошує інформацію про порушення закону, отриману у зв’язку з виконанням службових обов’язків. Отже, якщо ви використовуєте чужу працю на будь-якій підставі, у вас може з’явитися викривач!

Закон прямо вказує на приклади ролей, які може виконувати викривач у вашій компанії. Це, безумовно, може бути: працівник, тимчасовий працівник, довірена особа, акціонер або партнер, член органу (правління або наглядової ради), стажер, волонтер, слухач. Однак пам’ятайте, що викривачем також може бути особа, яка працює на вашого підрядника, субпідрядника або постачальника (наприклад, в одній з ролей, визначених вище), а також особа, яка припинила свої відносини з вашою компанією або просто брала участь у процесі найму на будь-яку посаду у вашій організації.

ПРО ЩО МОЖНА ПОВІДОМИТИ ВИКРИВАЧУ?

Відповідно до Закону, викривачі можуть повідомляти про порушення закону (дію або бездіяльність, яка є незаконною або спрямована на обхід закону) у 17 сферах.

У вашій внутрішній процедурі звітування ви можете додатково передбачити можливість повідомляти про порушення, пов’язані з вашими внутрішніми правилами або етичними стандартами, які були встановлені відповідно до загальноприйнятого законодавства та залишаються такими, що не суперечать йому.

Найважливішими сферами, про які можна повідомляти, є

  1. корупція
  2. державні закупівлі
  3. фінансові послуги, продукти та ринки
  4. боротьба з відмиванням грошей та фінансуванням тероризму
  5. безпечність та відповідність продукції
  6. захист навколишнього середовища;
  7. охорона здоров’я;
  8. захист прав споживачів;
  9. захист приватності та персональних даних;
  10. безпека мереж та ІКТ-систем;
  11. фінансові інтереси Державної скарбниці Республіки Польща, органів місцевого самоврядування та Європейського Союзу;
  12. внутрішнього ринку ЄС (зокрема, правил конкуренції та державної допомоги, а також корпоративного оподаткування).

ЩО ОЗНАЧАЄ СТАТУС ВИКРИВАЧА?

Викривач підлягає захисту, передбаченому Законом, з моменту повідомлення або публічного розголошення, за умови, що у викривача були обґрунтовані підстави вважати, що інформація, яка стала предметом повідомлення або публічного розголошення, була правдивою на момент повідомлення або публічного розголошення, і що вона становить інформацію про порушення закону.

Наприклад, якщо особа, яка виконує для вас роботу, робить повідомлення і стає викривачем, ви маєте низку зобов’язань, зокрема

  • ви повинні захистити персональні дані викривача від розголошення
  • ви не повинні вживати заходів у відповідь (простими словами – дій, які негативно впливають на існуючі права/ситуацію викривача),
  • ви повинні проявити особливу обачність, якщо з інших причин, ніж повідомлення (наприклад, відсутність попиту на роботу), ви хочете припинити співпрацю з викривачем (тягар доведення того, що це не пов’язано з повідомленням, буде покладено на компанію),
  • у разі переслідування – вас зобов’яжуть виплатити компенсацію (не менше середньомісячної заробітної плати в національній економіці за попередній рік, оголошеної Головним управлінням статистики),
  • Ви маєте обмежені можливості реалізації своїх прав, спрямованих на притягнення викривача до відповідальності, наприклад, до дисциплінарної відповідальності або відповідальності у випадку наклепу, порушення особистих прав, авторських прав тощо.

Особа, яка допомагає викривачу у здійсненні повідомлення, також захищена.

ЩО ОЗНАЧАЄ ПОРІГ У 50 «ПРАЦІВНИКІВ»?

Відповідно до Закону, обов’язок обробляти внутрішні повідомлення та мати внутрішню процедуру повідомлення поширюється , як правило, на суб’єктів господарювання , в яких працює щонайменше 50 осіб на умовах трудового найму.

До цієї групи належать не лише працівники! При визначенні стану зайнятості ми також беремо до уваги осіб, які виконують оплачувану роботу на іншій основі, ніж трудові відносини, якщо вони не наймають інших осіб для виконання цієї роботи (тобто всіх так званих «самозайнятих» – за договором доручення або на основі B2B).

Закон детально описує, як рахувати цей статус зайнятості і з якої дати.

Існують важливі винятки з правила порогу зайнятості! Ряд суб’єктів будуть зобов’язані мати внутрішню процедуру повідомлення незалежно від рівня зайнятості (а отже, вже з одним працівником або підрядником)!

Йдеться про суб’єктів, які здійснюють діяльність у сфері фінансових послуг, продуктів та ринків, а також у сфері протидії відмиванню коштів та фінансуванню тероризму, безпеки на транспорті та охорони навколишнього середовища, на які поширюється дія актів Європейського Союзу, перелічених у частинах I.B та II Додатку до Директиви 2019/1937.

Хто, наприклад, буде зобов’язаний мати внутрішню процедуру повідомлення незалежно від кількості працівників? Серед інших, це

– кредитні установи, включаючи споживчі кредити, кредити на нерухомість, факторинг або форфейтинг

  • парабанківські установи
  • лізингові компанії,
  • суб’єкти, що здійснюють страхування,
  • суб’єкти, що надають консультації бізнесу щодо структури капіталу, промислової стратегії та суміжних питань, а також консультації та послуги, пов’язані зі злиттям та придбанням бізнесу,
  • бухгалтери та бухгалтерські фірми,
  • агенти знерухомості,
  • юристи: солісітори, баристери, нотаріуси,
  • пункти обміну валют та криптовалют,
  • всі суб’єкти, які приймають платежі готівкою на суму, що дорівнює або перевищує 10 000 євро.

Суб’єкти господарювання, в яких працює менше 50 осіб і які не підпадають під винятки (зокрема, не належать до вищезазначених груп), можуть запровадити внутрішню процедуру повідомлення добровільно. Це варто розглянути і ми рекомендуємо це зробити з наступних причин. Статус викривача надається незалежно від трудового статусу юридичної особи – це означає, що законні викривачі можуть здійснювати зовнішні повідомлення та публічні розкриття (і отримувати за це захист), оминаючи внутрішній канал повідомлень. Отже, його відсутність може бути прямою причиною для використання викривачем зовнішніх каналів (що потенційно може бути небажаним для відповідного суб’єкта господарювання).

Процедура добровільного внутрішнього повідомлення може стимулювати викривача повідомляти про можливі порушення всередині організації. Це дає юридичній особі шанс більш ефективно врегулювати кризову ситуацію, що виникла внаслідок можливого порушення, в тому числі з точки зору іміджу.

ЯК ПІДГОТУВАТИСЯ ДО НОВИХ ОБОВ’ЯЗКІВ?

Підготовка до нових обов’язків повинна включати наступне:

  1. визначення того, чи підпадаємо ми під зобов’язання запровадити процедуру внутрішньої звітності (якщо ні, то вирішити, чи запроваджуємо ми добровільну процедуру)
  2. визначення ключових елементів внутрішньої звітності:

– чи залишаємось ми в рамках встановленого законом каталогу правових порушень, чи розширюємо його за рахунок додаткових сфер

– які канали та форми будуть використовуватися для отримання повідомлень (в тому числі, чи допускаються анонімні повідомлення),

– хто прийматиме повідомлення та хто здійснюватиме подальші заходи (чи це робитиметься власними силами, чи, за можливості, буде передано на аутсорсинг спеціалізованій організації – наприклад, юридичній фірмі),

  1. підготовка необхідних документів щодо викривачів – перелік нижче,
  2. перевірка та адаптація вже наявних у компанії документів з трудового права (NDA, положення про конфіденційність, шаблони звільнення, документи RODO),
  3. консультування щодо процедури з представниками працівників,
  4. офіційне впровадження процедури,
  5. навчання відповідальних осіб щодо отримання та обробки повідомлень,
  6. навчання працівників відділів кадрів/відділів культури та менеджерів щодо прав викривачів та їхнього впливу на процедури найму та звільнення працівників/співробітників.

ЯКІ ДОКУМЕНТИ ПОТРІБНО ПІДГОТУВАТИ?

Документація для викривачів – це не лише процедура внутрішньої звітності! Документи, які необхідно розробити та впровадити, включатимуть

  1. внутрішню процедуру повідомлення
  2. інформацію для оголошень про вакансії/співробітників з інформацією про процедуру викривання (надається з початком прийому на роботу або передконтрактних переговорів)
  3. шаблон для підтвердження отримання внутрішньої заявки,
  4. шаблон (структура) зворотного зв’язку з викривачем,
  5. уповноваження та NDA для осіб, які приймають та обробляють повідомлення,
  6. як альтернатива, договір з Фірмою як зовнішнім суб’єктом, залученим до прийняття або визнання повідомлень,
  7. реєстр повідомлень (структура),
  8. окрема процедура розслідування та подальших дій (рекомендовано).

ЯКЩО Я НЕ ПОВИНЕН І НЕ ХОЧУ ДОБРОВІЛЬНО ПРИЙНЯТИ ПРОЦЕДУРУ, ЧИ Є У МЕНЕ ЯКІСЬ ЗОБОВ’ЯЗАННЯ?

Звичайно, так! Це пов’язано з тим, що ви все ще підпадаєте під дію положень Закону. Люди, які працюють на вас, все ще можуть бути викривачами – вони можуть робити зовнішні та публічні повідомлення, або вони можуть, наприклад, зробити внутрішнє повідомлення у вашого підрядника (якщо вони виявлять там порушення).

У такому випадку ваша підготовка до імплементації Закону про захист викривачів повинна включати, як мінімум, перевірку та адаптацію існуючих документів трудового законодавства компанії (NDA, положення про конфіденційність, шаблони розірвання договору, документи RODO), а також навчання HR / управлінського персоналу.

ЯК МИ МОЖЕМО ДОПОМОГТИ ВАШІЙ КОМПАНІЇ?

Ми допомагаємо як у комплексному впровадженні (в тому числі пропонуємо стандартні пакети впровадження для зобов’язаних суб’єктів, що підлягають AML), так і в окремих сферах, включаючи

підготовка та впровадження процедури внутрішньої звітності,

аудит раніше діючої процедури повідомлення (впровадженої, наприклад, в рамках належної практики, сертифікації або галузевого законодавства) – та її адаптація до вимог Закону про захист викривачів,

підготовка інших необхідних документів,

повна служба прийому та обробки внутрішніх повідомлень (в обсязі, дозволеному Законом) або підтримка в прийомі та обробці повідомлень внутрішнім підрозділом – в залежності від прийнятої моделі,

навчання для працівників відділу кадрів/культури та керівників щодо прав викривачів, отримання та обробки повідомлень, подальших дій тощо

аудит та адаптація процедур найму та звільнення з метою усунення ризиків, що випливають із законодавства про викривачів,

– інформаційні тренінги для працівників.

Якщо у вас є питання, ми будемо раді відповісти на них!

Контакти

Маєте запитання?zobacz telefon+48 570 913 713
zobacz e-mail

Офіс у Варшаві

03-737 Варшава

(Прес-центр Koneser - Spaces)

pl. Konesera 12 lok. 119

google maps

Офіс у Вроцлаві

53-659 Вроцлав

(Кворум D)

Генерала Владислава Сікорського 26

google maps

Привіт, користувачу,
ти вже підписаний на розсилку?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten