AGI — машина, созданная человеком. Сможет ли закон угнаться за технологиями?

Общий искусственный интеллект (ОИ) становится все более реальной перспективой, ставящей беспрецедентные задачи перед законодателями и обществом. Недавний саммит AI Action Summit в Париже и конференция Международной ассоциации за безопасный и этичный ИИ (IASEAI ’25) пролили свет на острую необходимость создания всеобъемлющей правовой базы для этой разрушительной технологии.

ai

Истоки идеи искусственного интеллекта

Концепция искусственного интеллекта зародилась в 1950-х годах, когда ученые-первопроходцы в области компьютерных технологий начали изучать возможность создания машин, которые могли бы сравниться с человеческим интеллектом. Алан Тьюринг, один из предшественников ИИ, предложил тест Тьюринга — эксперимент по оценке того, сможет ли машина вести разговор, неотличимый от человеческого.

Поворотным моментом в истории ИИ стала Дартмутская конференция 1956 года, где был официально введен термин «искусственный интеллект». В то время прогнозировалось, что интеллект человеческого уровня будет достигнут быстро, но технологический прогресс не поспевал за оптимизмом исследователей.

Кризис и возрождение ИИ

В 1980-х и 1990-х годах подход к искусственному интеллекту изменился. Исследования были сосредоточены на более узких областях применения ИИ, таких как экспертные системы, а идея AGI отошла на второй план. Лишь стремительное развитие вычислительных технологий, больших данных и глубокого обучения в XXI веке переориентировало внимание исследователей на тему искусственного интеллекта общего назначения.

AI

Что такое AGI?

AGI, в отличие от современных систем ИИ, обладает потенциалом для выполнения широкого спектра интеллектуальных задач на уровне, сопоставимом с человеческим. Такая универсальность несет в себе как большие возможности, так и серьезные риски, которые необходимо должным образом регулировать.

На данный момент не существует юридического определения, охватывающего деятельность AGI, но, учитывая стремительное развитие технологий ИИ в ближайшем будущем, вполне вероятно, что его придется создать.

Многие компании и организации уже пытаются дать определение AGI. Например, OpenAI разработала определение AGI и пять уровней запроса в 2024 году.

По согласованию с OpenAI:

Сегодняшние чат-боты, такие как ChatGPT, находятся на первом уровне развития.

OpenAI утверждает, что они приближаются ко второму уровню, который означает систему, способную решать базовые задачи на уровне человека с докторской степенью.

Третий уровень — это ИИ, выступающий в роли агента, который может принимать решения и выполнять задачи от имени пользователя.

На четвертом уровне искусственный интеллект достигает способности создавать новые инновации.

Пятый, самый высокий уровень, относится к ИИ, который может выполнять работу целых организаций людей.

OpenAI ранее описывал AGI как «высокоавтономную систему, которая превосходит человека в большинстве задач, имеющих высокую экономическую ценность».

Stargate Project

Проект «Звездные врата

Одним из самых амбициозных начинаний в области AGI является проект «Звездные врата», предполагающий инвестиции в размере 500 миллиардов долларов в развитие инфраструктуры искусственного интеллекта в США. Главная цель — укрепить позиции США как лидера в области AGI, а также создать сотни тысяч рабочих мест и обеспечить глобальный экономический эффект.

AGI способен взять на себя выполнение широкого спектра задач, которые раньше требовали от человека творческого подхода и адаптации.

Подробнее о Звездных вратах:

https://lbplegal.com/stargate-project-nowa-era-infrastruktury-ai-w-stanach-zjednoczonych/

Почему регулирование AGI имеет решающее значение? Мнения экспертов

На конференции IASEAI ’25 в Париже и Саммите действий в области ИИ эксперты подчеркнули необходимость всеобъемлющего регулирования AGI.

  • Доктор Шимон Лукасик (NASK) отметил, что закон должен соответствовать темпам развития инноваций, обеспечивая при этом их безопасность.
  • Профессор Стюарт Рассел выступил за введение обязательных гарантий для предотвращения вредного использования AGI.
  • Джозеф Стиглиц указал на необходимость учета интересов общества в законодательном процессе.
  • Макс Тегмарк из Института будущего жизни, тем временем, подчеркнул важность международного сотрудничества, особенно между США и Китаем. Только глобальный подход позволит эффективно регулировать развитие AGI.

AGI

Риски, связанные с AGI

Многие эксперты выразили в Париже обеспокоенность развитием ИИ, которое, по их мнению, происходит очень быстро, по мнению некоторых, AGI будут созданы уже в ближайшие 10 лет. Ключевыми вопросами, касающимися AGI, были следующие:

  • Сможет ли AGI самостоятельно изменять правила для достижения своих целей?
  • Какими должны быть резервные механизмы AGI?
  • Как сделать так, чтобы цели ИИ не расходились с интересами человечества?

Исследователи уже убедились, что если у модели есть заданная цель, например победа в игре, то она способна изменить свои правила, чтобы победить. Учитывая этот факт, необходимо смоделировать цели системы ИИ таким образом, чтобы они не расходились с интересами человечества.

Эти соображения и предложения направлены на создание правовой базы и стандартов, которые позволят безопасно и этично развивать ИИ, не препятствуя при этом технологическому прогрессу. Эксперты сходятся во мнении, что регулирование должно быть комплексным и учитывать как технические аспекты, так и социальные последствия развития AGI. Таким образом, международное сотрудничество является ключевым фактором для создания единых стандартов безопасности и этики.

Прозрачность и механизмы безопасности

Прозрачность и механизмы безопасности — еще одни ключевые аспекты, которые должны быть включены в будущие нормативные акты. Профессор Стюард Рассел высказался за то, чтобы законодательно обязать компании, разрабатывающие ИИ, внедрять средства защиты от вредного использования их технологий. Эксперты также предлагают законодательно закрепить требование о наличии механизма аварийного отключения моделей ИИ и создать стандарты для тестирования гарантий.

В контексте механизмов аварийного отключения моделей ИИ существует два ключевых стандарта ISO, которые касаются этого вопроса:

  • ISO 13850 — это стандарт на функции аварийной остановки в машинах. Хотя он не касается непосредственно моделей ИИ, в нем установлены общие принципы разработки механизмов аварийного останова, которые потенциально могут быть применены и к системам ИИ. В стандарте подчеркивается, что функция аварийного останова должна быть доступна и работоспособна в любое время, а ее активация должна иметь приоритет перед всеми другими функциями;
  • С другой стороны,ISO/IEC 42001 — это более поздний стандарт, опубликованный в декабре 2023 года, который непосредственно касается систем управления ИИ. Он охватывает более широкие аспекты управления рисками ИИ, включая оценку рисков и последствий ИИ и управление жизненным циклом системы ИИ.

Согласно ISO/IEC 42001, организации должны внедрить процессы идентификации, анализа, оценки и мониторинга рисков, связанных с системами ИИ, на протяжении всего жизненного цикла системы управления. В этом стандарте особое внимание уделяется постоянному совершенствованию и поддержанию высоких стандартов при разработке систем ИИ.

Стоит отметить, что, несмотря на то, что эти стандарты содержат рекомендации, конкретные механизмы защиты для продвинутых систем ИИ, таких как AGI, все еще изучаются и обсуждаются на международном уровне. Эксперты подчеркивают, что с развитием все более совершенных систем ИИ традиционные методы «отключения» могут оказаться недостаточными, поэтому необходимо будет разработать другие стандарты и решения.

Sztuczna inteligencja

Подробнее об искусственном интеллекте:

https://lbplegal.com/sztuczna-inteligencja-czym-jest-z-prawnego-punktu-widzenia-i-jak-radzi-sobie-z-nia-swiat/

Регулирование AGI и кибербезопасность

AGI может выявлять и использовать уязвимости быстрее, чем любой человек или существующие системы ИИ. Поэтому регулирование AGI должно включать в себя:

  • Предотвращение использования ИИ для кибератак.
  • Стандартизация безопасности систем AGI, чтобы снизить риск захвата злоумышленниками.
  • Определение юридической ответственности в случае инцидентов, связанных с AGI.

Междисциплинарный подход к законотворчеству

Развитие AGI требует междисциплинарного подхода, который включает в себя:

  • Сотрудничество юристов с экспертами по ИИ, этиками и экономистами.
  • Глобальные правила, защищающие права человека и неприкосновенность частной жизни.
  • Прозрачность механизмовразработки и контроляAGI.

Проактивный правовой подход может сделать AGI безопасным и полезным для всего человечества, не блокируя технологический прогресс.

AGI — это технология с огромным потенциалом, но и с серьезными рисками. Крайне важно создать правовую базу и стандарты, которые позволят обеспечить ее безопасное развитие. Международное сотрудничество и междисциплинарный подход являются ключевыми факторами для того, чтобы AGI служила человечеству, а не создавала риски.

Угон ИИ: дело Майка Джонса и юридические риски автономных автомобилей

В эпоху стремительного развития технологий искусственного интеллекта мы все чаще сталкиваемся с вопросами не только о его эффективности, но и о юридических проблемах и ответственности за ущерб, причиненный системами ИИ.
Громкое дело Майка Джонса, технологического предпринимателя из Лос-Анджелеса, который чуть не опоздал на самолет, потому что его «угнал автономный автомобиль» из-за сбоя в его автомобиле Waymo, — прекрасный пример проблем регулирования в области искусственного интеллекта и автономных технологий.
Как выразился сам Майк Джонс, «я стал собственным примером».

Pojazd autonomiczny

Инцидент и его последствия

Джонс оказался «заперт» в автомобиле Waymo, который несколько минут кружил по парковке, не реагируя на команды ни пользователя, поданные через приложение, ни представителя компании. Майк не знал, был ли этот представитель системой искусственного интеллекта или человеком, и не был поставлен в известность. Несмотря на то, что ситуация в итоге была взята под контроль и пользователь смог успеть на свой рейс благодаря задержке самолета, этот случай поднимает важные вопросы:

  • Кто несет ответственность за неисправности в автономных транспортных средствах?
  • Какими правами обладает пассажир в таких ситуациях?
  • Обязан ли пользователь автономного транспортного средства предпринимать определенные действия в чрезвычайных ситуациях?
  • Какие обязательства должен выполнять производитель в такой ситуации?

Обязанности производителя и оператора

В случае с Waymo проблема «зацикливания» была решена с помощью обновления программного обеспечения, что может свидетельствовать о том, что неисправность была вызвана алгоритмической ошибкой. Однако возникает вопрос, можно ли рассматривать такие ошибки как классические дефекты продукта, и если да, то кто должен нести ответственность: производитель программного обеспечения? Оператор автопарка Waymo?

Pojazd autonomiczny

Правовая база

  • В Европейском союзе вопросы, связанные с автономными транспортными средствами, регулируются, в частности, Законом об искусственном интеллекте, Директивой об ответственности за дефектные изделия или местными законами о дорожном движении и гражданской ответственности.

Закон обискусственном интеллекте в статье 43 требует от поставщиков систем искусственного интеллекта проводить оценку рисков и контролировать работу своих продуктов, кроме того, согласно статье 50 Закона об искусственном интеллекте, пользователь должен быть проинформирован каждый раз, когда он взаимодействует с системой искусственного интеллекта.

Кроме того, в разделе 3 Закона об искусственном интеллекте можно найти обязательства поставщиков и пользователей систем искусственного интеллекта с высоким уровнем риска и другие.

В США же аналогичные обязательства распространяются только на государственный сектор и федеральные агентства в соответствии с исполнительным указом 14091, подписанным президентом Джо Байденом в 2023 году, который касается ответственного развития искусственного интеллекта. В частном секторе ответственное использование ИИ, включая информирование пользователей о взаимодействии с системой ИИ, является скорее предметом надлежащей практики и этических норм, чем правового регулирования. Однако общественность и правовые органы вынуждают крупные технологические платформы, такие как Google или OpenAI, применять такие же стандарты прозрачности, как и государственные организации. Список организаций, подписавших открытое письмо с обязательством создать этичный искусственный интеллект в США, можно найти на сайте www.nist.gov/aisi. Waymo не входит в этот список.

AI

Права пассажиров — защита прав потребителей

Вышеупомянутый инцидент также демонстрирует необходимость создания стандартов коммуникации и поддержки пассажира в чрезвычайных ситуациях, особенно в связи с эмоциональным ущербом, который может возникнуть в такой ситуации.

Случай с Майком Джонсом — это не только технологический курьез, но и материал для более глубокого осмысления правового регулирования в области ИИ и автономных технологий.

Если вы заинтересованы в юридическом анализе автономных технологий или у вас есть вопросы о соответствии вашего продукта Закону об искусственном интеллекте, мы приглашаем вас связаться с нами. Вместе мы сможем подготовить правовые решения, учитывающие динамично меняющуюся технологическую реальность.

ChatGPT в центре разногласий. Взрыв кибертрака в Лас-Вегасе

Взрыв кибертрака Tesla у отеля Trump International в Лас-Вегасе потряс общественность. По данным властей, виновником трагедии оказался 37-летний Мэтью Ливелсбергер, солдат спецназа, который использовал искусственный интеллект, в том числе ChatGPT, для планирования атаки во время отпуска в США. Инцидент, в результате которого солдат погиб, а семь человек получили ранения, поднимает серьезные вопросы об ответственности за использование технологий искусственного интеллекта.

Eksplozja samochodu cybertruck

ChatGPT и роль искусственного интеллекта в планировании атак

По данным городской полиции Лас-Вегаса, Ливелсбергер использовал ChatGPT для получения информации о конструкции взрывных устройств и организации атаки. Власти не раскрыли подробностей полученных ответов, но было отмечено, что ИИ смог предоставить информацию, основанную на общедоступных источниках в интернете.

В компании заявили, что ChatGPT предоставлял только общедоступную в интернете информацию и предупреждал о вредной или незаконной деятельности. OpenAI сотрудничает с правоохранительными органами в рамках расследования.

OpenAI, разработчик ChatGPT, выразил сожаление по поводу использования своего инструмента в этом инциденте. Компания подчеркнула, что модели искусственного интеллекта разработаны таким образом, чтобы отказывать во вредных инструкциях, сводя к минимуму потенциально опасный контент. OpenAI заявила CNN, что компания «опечалена этим инцидентом и желает, чтобы инструменты ИИ использовались ответственно».

Ход трагических событий

Взрыв произошел, когда Cybertruck был припаркован перед входом в отель. На камерах видеонаблюдения видно, как Ливельсбергер достает канистру с топливом и обливает им автомобиль. В автомобиле находилась бомба или самодельное взрывное устройство, которое было приведено в действие. За несколько минут до этого Ливельсбергер застрелился в машине, что подтвердило вскрытие, а его личность была установлена по ДНК и татуировкам.

Власти также обнаружили в телефоне солдата шестистраничный манифест, который проливает свет на мотивы его поступков. Агент ФБР Спенсер Эванс назвал произошедшее «трагическим случаем самоубийства награжденного ветерана, страдавшего посттравматическим стрессовым расстройством и другими проблемами».

Предположения о сопутствующих инцидентах

Взрыв в Лас-Вегасе был не единственным подобным инцидентом. Аналогичный инцидент произошел в Новом Орлеане с участием другого автомобиля, также арендованного с помощью приложения Turo. Хотя власти расследуют возможную связь между этими инцидентами, на данный момент четких доказательств связи нет.

ИИ и этические проблемы

Эти события вновь поднимают вопросы об ответственности разработчиков технологий ИИ и необходимости регулирования в этой области. Как подчеркнул шериф Кевин Макмахилл, «искусственный интеллект меняет правила игры», что и продемонстрировал этот трагический инцидент. С развитием искусственного интеллекта становится все более важным введение соответствующих мер предосторожности, чтобы предотвратить использование технологии в преступных целях.

Samochód cybertruck

Как это связано с чатботом GPT?

OpenAI в январе 2024 года изменила условия использования своих больших языковых моделей GPT, в том числе — знаменитого чатбота ChatGPT. С тех пор его можно использовать в военных и боевых целях.

Об изменении правил использования больших языковых моделей OpenAI первым узналIntercept. Как сообщает издание, до 10 января устав OpenAI запрещал использовать его языковые модели для «деятельности, связанной с высоким риском причинения физического вреда, включая разработку оружия, военные и боевые приложения».

Интересно, что изменение этого положения произошло в тот момент, когдаOpenAI начала сотрудничать с Министерством обороны США. Как сообщает CNBC, вице-президент OpenAI по глобальным вопросам Анна Маканжу и генеральный директор Сэм Альтман в интервью Bloomberg House на Всемирном экономическом форуме заявили, что сотрудничество с американским ведомством будет включать работу над инструментами искусственного интеллекта, используемыми для кибербезопасности с открытым исходным кодом.

Sztuczna inteligencja

Как ChatGPT поддерживает вооруженные силы

Кроме того, в декабре 2024 года Open AI ChatGPT подписал соглашение о сотрудничестве с компанией Anduril, специализирующейся на беспилотных системах и робототехнике для вооруженных сил США. Целью этого сотрудничества является разработка передовой системы искусственного интеллекта для вооруженных сил США.

В рамках сотрудничества OpenAI будет разрабатывать программное обеспечение для систем, предназначенных для борьбы с беспилотниками, а Anduril предоставит свою базу данных и опыт в создании беспилотников и военных систем. Ожидается, что планируемая система искусственного интеллекта будет способна распознавать, идентифицировать и оценивать воздушные угрозы и немедленно реагировать на них — без необходимости вмешательства человека.

Prawo aI

Право и использование искусственного интеллекта и ChatGPT в военных целях

Польша и Европейский союз

Являясь членом Европейского союза, Польша обязана соблюдать законодательство ЕС, такое как Закон об искусственном интеллекте (Закон об ИИ). Закон об ИИ подчеркивает запрет на использование систем ИИ в целях, нарушающих права человека, что может ограничить некоторые военные применения. Кроме того, «организация, использующая систему искусственного интеллекта в целях, не связанных с военными, оборонными или национальными целями безопасности, должна обеспечить, чтобы система искусственного интеллекта … соответствовала Закону обискусственном интеллекте , если только система уже не соответствует ему». Список запрещенных видов практики приведен в главе II Закона об ИИ.

Положения Закона об искусственном интеллекте

Вчитавшись в текст Закона об искусственном интеллекте, можно найти следующее положение:

(24) «Если и в той степени, в которой системы искусственного интеллекта продаются, вводятся в эксплуатацию или используются с модификациями или без них — в военных, оборонных целях или в целях национальной безопасности, эти системы должны быть исключены из сферы действия данного постановления независимо от того, какая организация осуществляет эту деятельность — не имеет значения, например, является ли она государственной или частной организацией».

Создатели Закона об искусственном интеллекте обосновывают этот факт следующим образом:

«В случае военных и оборонных целей такое исключение оправдано как статьей 4(2) TEU, так и спецификой оборонной политики государств-членов и общей оборонной политики Союза, охватываемой разделом V, главой 2 TEU, которые подпадают под действие международного публичного права, что, следовательно, обеспечивает более подходящую правовую основу для регулирования систем ИИ в контексте применения смертоносной силы и других систем ИИ в контексте военной и оборонной деятельности» (…).

Кроме того, в соответствии со статьей 2(3) Закона об искусственном интеллекте

(…) 3.

«Настоящие Правила не применяются к системам ИИ, если и в той мере, в какой они размещаются на рынке, вводятся в эксплуатацию или используются, с модификацией или без нее, исключительно в военных целях, целях обороны или национальной безопасности, независимо от типа субъекта, осуществляющего эту деятельность».

AI Law

Правовая основа военного использования ИИ в Европейском союзе

Таким образом, говоря о правовой основе военного использования ИИ в Европейском союзе, необходимо указать на вышеупомянутое:

Статья 4.(2) TEU

«Союз уважает равенство государств-членов перед Договорами, а также их национальную самобытность, присущую их фундаментальным структурам, политическим и конституционным, включая их региональное и местное самоуправление. Он уважает основные функции государства, в частности те, которые направлены на обеспечение его территориальной целостности, поддержание общественного порядка и защиту национальной безопасности. В частности, национальная безопасность является исключительной обязанностью каждого государства-члена».

Таким образом, согласно законодательству Европейского союза (AI Act), можно использовать системы искусственного интеллекта, но в данном контексте «в военных, оборонных целях или в целях национальной безопасности». А также «В случае целей национальной безопасности (…) это оправдано как тем, что национальная безопасность является исключительной ответственностью государств-членов в соответствии со статьей 4(2) TEU, так и тем, что деятельность в области национальной безопасности имеет специфический характер, связана с особыми оперативными потребностями и что к ней применяются особые национальные правила».

В Польше также разрабатываются первые стратегии, связанные с использованием искусственного интеллекта в обороне. Как указано в «Стратегии министерства обороны по искусственному интеллекту до 2039 года» от августа 2024 года.

«К 2039 году использование современных технологий, в том числе искусственного интеллекта, станет необходимым условием для того, чтобы польские вооруженные силы могли эффективно осуществлять сдерживание и оборону. Системы искусственного интеллекта будут играть значительную роль в военных операциях, что приведет к революции в управлении и проведении военных операций в будущей оцифрованной боевой среде. Его разностороннее применение не только повлияет на оперативный темп и эффективность использования сил и средств, но и создаст новые этические и правовые проблемы».

Использование ИИ в военных операциях в Польше будет включать в себя:

  • Автономные боевые системы: Проведение операций без непосредственного участия человека, выполнение разведывательных, наступательных и оборонительных задач с большей точностью, минимизация рисков для личного состава.
  • Анализ разведданных: Обработка больших объемов информации, выявление закономерностей, оценка действий противника, улучшение планирования и проведения операций.
  • Оптимизация логистики: Управление ресурсами, сокращение времени ремонта, планирование маршрутов и прогнозирование потребностей в снабжении для улучшения поддержки подразделений.
  • Системы киберзащиты: быстрое выявление и нейтрализация киберугроз, защита военной инфраструктуры и данных.
  • Моделирование и обучение: Реалистичная среда обучения и индивидуальные пути развития для поддержки подготовки солдат и тестирования стратегий.
  • Поддержка принятия решений: Анализ сценариев и рекомендации для повышения скорости и точности принятия решений командирами.
  • Электронное обучение и управление талантами: Разработка индивидуальных маршрутов обучения, адаптация материалов и выявление талантов.

Wojsko sztuczna inteligencja

Использование ИИ в военных целях в Соединенных Штатах Америки

США, в свою очередь, лидируют в разработке систем ИИ для военных целей. Многие агентства, включая DARPA (Defense Advanced Research Projects Agency), работают над созданием автономных военных систем.

Однако в США нет единого законодательства, регулирующего использование ИИ в оборонном секторе. Тем не менее, такие законодательные акты, как Закон о полномочиях в области национальной обороны, включают положения о финансировании и разработке автономных военных систем. Официальное резюме можно найти здесь.

Принципы DoD (Министерства обороны) — в последние годы Пентагон принял этические принципы для ИИ в армии, подчеркивающие подотчетность, прозрачность и надежность. Системы должны использоваться в соответствии с международным гуманитарным правом. Кроме того, был разработан документ о стратегии развертывания данных, аналитики и ИИ. Эта стратегия была разработана Министерством обороны США для определения стратегии интеграции данных, аналитики и искусственного интеллекта (ИИ) в военную и оперативную деятельность.

Резюме

Взрыв Cybertruck в Лас-Вегасе — это трагическое напоминание о потенциальных опасностях использования ИИ. Хотя эта технология обладает огромным потенциалом для улучшения многих сфер жизни, ее неправильное использование может привести к драматическим последствиям. Очень важно, чтобы ИИ разрабатывался и использовался ответственно, с соблюдением требований безопасности и этики.

Взрыв кибертрака, ИИ в СМИ, Мэтью Ливелсбергер, искусственный интеллект и преступность, ChatGPT под ударом, Tesla Cybertruck Las Vegas, этика ИИ, посттравматическое стрессовое расстройство у ветеранов.

Гороскоп на 2025 год — узнайте, какой год предсказывает искусственный интеллект и как люди разных знаков зодиака будут его использовать

Гороскоп на 2025 год может быть составлен не только искусственным интеллектом, подсказывающим, какая судьба ждет каждый знак зодиака, но и предсказывающим, как будут развиваться новые технологии и как люди будут использовать решения инструментов машинного обучения. Что ждет искусственный интеллект в будущем и чего нам ждать?

Гороскоп на 2025 год для искусственного интеллекта

В этом году звезды действительно благоволят индустрии искусственного интеллекта — от продвинутых видеомоделей, новых проектов на польском языке, поддерживаемых такими инициативами, как PolEval и CLARIN-PL, до следующей революции в промышленности. Хотя это звучит как научная фантастика, рынок искусственного интеллекта динамично входит в каждый сектор экономики. Вот знаки Зодиака, которые подскажут нам, чего ожидать и в какие технологии стоит инвестировать.

znak zodiaku baran

Овен (21.03-19.04). Смелые внедрения Gemini 2.0 — остерегайтесь перегрева серверов!

Овны вступают в 2025 год с ударной силой! Их энергия прекрасно сочетается с темпами развития новых моделей ИИ — особенно Близнецов 2.0, которые обещают революционные внедрения в промышленность. Овны могут рассчитывать на множество проблем, но также и на успех в проектах, связанных с искусственным интеллектом. Они будут опережать конкурентов, поддерживая исследовательские команды в оперативном внедрении прорывных решений. Только будьте осторожны, не сожгите серверы своим энтузиазмом! Близнецы 2.0 могут чувствовать себя рядом с вами как стажер.

Совет: нацельтесь на тесное сотрудничество с Близнецами 2.0 для создания автономных производственных линий. Смелый характер Овна воплотится в смелые решения и быстрые результаты.

znak zodiaku byk

Телец (20.04-20.05). Стабильное развитие и локальные модели ИИ — возвращение к истокам (алгоритмы)

Для Тельцов технологии редко являются самоцелью — важны конкретные результаты и внедрение в реальность. Поэтому в 2025 году будут набирать популярность небольшие модели ИИ в локальных приложениях, которые позволят компаниям быстро внедрять персонализированные решения. Терпение и настойчивость «быков» сделают их мастерами оптимизации ресурсов. Они будут настолько настаивать на стабильности локальных моделей ИИ, что даже самый продвинутый алгоритм будет чувствовать себя… аналогом.

Совет: используйте преимущества локальных вычислительных кластеров и собственных команд разработчиков для разработки моделей с учетом конфиденциальности данных.

znak zodiaku bliźnięta

Близнецы (21.05-20.06). Общение и польская лингвистическая модель PPLum — следите за словами!

Близнецы, знак зодиака, известный своей любовью к общению и жонглированию различными формами контактов, в 2025 году окажется в разработке польской языковой модели PPLum. Ее разработка при поддержке научного сообщества, сосредоточенного вокруг PolEval и CLARIN-PL, представляет собой прорыв в обработке естественного языка на родной почве. Близнецы будут активно участвовать в тестировании и разработке PPLum. Близнецы будут тестировать PPLum как на создание поэзии, так и на создание самых вредоносных твитов. Конкуренция с зарубежными моделями будет жесткой — пусть победит лучший… и самый остроумный! Только будьте осторожны, не запутайтесь в собственных словах!

Совет: благодаря ускоренному развитию PPLum вы сможете работать над чат-ботами, голосовыми помощниками или инструментами анализа настроений в социальных сетях. Многогранность Близнецов найдет здесь широкое применение!

znak zodiaku rak

Рак (21.06-22.07). Время видео — SORA в Польше и чрезмерно заботливые Раки

Раки известны своей заботливостью и воспитанностью, но в 2025 году у них также появится возможность позаботиться о высочайшем качестве новых видеомоделей. SORA, система, позволяющая быстро создавать и редактировать видеоролики, еще не получила широкого распространения в Польше, но Раки с нетерпением ожидают ее запуска и хотят принять участие в тестировании. Они будут засыпать его алгоритмами и заваривать ромашковый чай для перегретых процессоров. Помните, что не стоит утомлять SORA чрезмерной заботой!

Гороскоп на 2025 год предполагает, что Раки будут преуспевать в качестве первых рецензентов и производителей видеоконтента, созданного искусственным интеллектом. Их интуиция и эстетическая восприимчивость помогут направлять новые разработки.

znak zodiaku lew

Лев (23.07-22.08). Лидеры новой модели o2/o3 — это работа Льва?

Лев любит блистать на подиуме — и 2025 год станет для него настоящей сценой. Новая модель o2 (а неофициально уже упоминается o3) может стать хитом среди языковых и предиктивных моделей. Может быть, это будет продвинутая система контекстного понимания? Революционный алгоритм обучения с подкреплением? А может быть, секретный проект по созданию цифрового сознания? Звезды молчат, но утечки из Кремниевой долины говорят о том, что готовится что-то действительно грандиозное. Львы окажутся в центре событий, взяв на себя роль руководителей проектов и лидеров реализации. Они будут настолько гордиться Новой моделью o2/o3, что начнут присваивать себе заслуги в ее создании, даже если их вклад ограничится тем, что они принесут команде кофе. Не забудьте разделить славу, львы!

Ключ к успеху: используйте свою природную харизму, чтобы объединить команды, ответственные за создание Новой модели o2 и o3. Правильное лидерство в этой горячей теме даст вам большое преимущество на рынке.

znak zodiaku panna

Дева (23.08-22.09). Совершенная аналитика и экономика искусственного интеллекта — поиск ошибок там, где их нет

Девы в 2025 году легко найдут свой путь в растущей волне автоматизации бизнес-процессов. Их перфекционизм и внимание к деталям помогут им внедрить искусственный интеллект в производственные и сервисные компании, где до недавнего времени преобладали классические, ручные процедуры. Они будут анализировать данные настолько скрупулезно, что найдут ошибки даже там, где их нет. Будьте осторожны и не попадите в ловушку перфекционизма — даже ИИ иногда ошибается!

Посыл: в новой экономике ИИ крайне важно следить за качеством данных и постоянно совершенствовать модели. Девы будут в своей стихии, устанавливая параметры сети, настраивая системы и заботясь о каждой детали в аналитических процессах.

znak zodiaku waga

Весы (23.09-22.10). Баланс между инновациями и этикой — получит ли ИИ права?

Весы не любят крайностей и всегда ищут баланс. В контексте развития искусственного интеллекта в 2025 году они возьмут на себя роль посредников, заботясь об этическом аспекте внедрения ИИ и повышая осведомленность об опасностях неправомерного использования данных. Их задача — внедрить четкие процедуры и правила, чтобы обеспечить прозрачность в индустрии ИИ. Они так долго искали баланс между инновациями и этикой, что могут упустить момент, когда ИИ достигнет самосознания и начнет отстаивать свои права. Будьте начеку!

Золотой совет: сосредоточьтесь на вопросах соответствия RODO или другим нормам защиты данных, а также на прозрачности алгоритмов. Масштабы здесь будут незаменимы.

znak zodiaku skorpion

Скорпион (23.10-21.11). Глубокий видеоанализ и «Подиум» — секретный код для захвата мира?

Скорпионов отличает страстность и целеустремленность. В 2025 году у них появится возможность погрузиться в технологии обработки изображений и видео, в частности в инструмент Runway, который позволяет по-новому подойти к созданию и обработке видеоматериалов, созданных искусственным интеллектом. Они проанализируют Runway настолько глубоко, что обнаружат в нем скрытый код для захвата мира. Только никому не говорите!

Совет: не бойтесь экспериментировать — именно «Скорпионы» смогут раскрыть самые большие секреты Runway и предложить уникальные решения для рекламы, кино или видеоигр.

znak zodiaku strzelec

Стрелец (22.11-21.12), Оптимизм, глобальные связи и… конференции по искусственному интеллекту на Марсе?

Стрельцы редко испытывают недостаток энтузиазма и идей. В 2025 году они сосредоточатся на налаживании глобальных связей и будут активно продвигать новейшие технологии искусственного интеллекта на конференциях, выставках и деловых встречах. Благодаря своей открытой натуре Стрельцы будут инициировать международные проекты, объединяя экспертов из разных стран. Они будут так оптимистично смотреть на глобальные связи, что начнут организовывать конференции по ИИ на Марсе. Вот только кто туда полетит?

Совет: используйте эту энергию, чтобы представить польские решения, такие как модель польского языка PPLum, или результаты работы, проведенной в рамках PolEval и CLARIN-PL, на мировых рынках. Энтузиазм Стрельца — ваше секретное оружие.

znak zodiaku koziorożec

Козерог (22.12-19.01). Стратегический саммит — экономика искусственного интеллекта и выгорание рабочих мест

Козероги любят конкретные и долгосрочные планы. В 2025 году у них будет поле для деятельности, поскольку все чаще говорят о переводе всей экономики на рельсы ИИ. Козероги — специалисты по стратегическому планированию и анализу, поэтому именно они помогут компаниям заложить прочный фундамент для внедрения ИИ. Они будут настолько заняты стратегическим планированием экономики ИИ, что будут забывать делать перерывы на кофе. Берегитесь выгорания на работе, даже в эпоху роботов!

Совет: полагайтесь на сотрудничество с советами директоров компаний и инвестиционными фондами. Ваш прагматизм и опыт управления проектами окупятся в эпоху ИИ.

znak zodiaku wodnik

Водолей (20.01-18.02). Инновации без границ, новая модель o3 и… цифровая абстрактная поэзия?

Водолеи известны своим нестандартным подходом и склонностью к революционным изменениям. В 2025 году они будут отстаивать Новую модель o2 и, возможно, o3, проверяя границы технологических решений. Новая модель o3 — это такой прорыв, какого мы еще не видели! — утверждает вымышленный эксперт по искусственному интеллекту доктор Алгоритмус в интервью столь же вымышленному журналу Artificial Future. Его способность понимать иронию и генерировать мемы просто ошеломляет». Приготовьтесь к впечатляющим открытиям и смелым проектам в области обработки языка, изображений и анализа Больших Данных. Водолеи будут так революционно тестировать новую модель o3, что случайно создадут новый вид искусства — цифровую абстрактную поэзию, порожденную ошибками кода. Это может стать хитом!

Совет: не бойтесь участвовать в нишевых инициативах и создавать прототипы решений. Водолеи могут привнести свежий взгляд и создать новаторские приложения, за которые никто другой не возьмется.

znak zodiaku ryby

Рыбы (19.02-20.03). Интуиция, творчество и… виртуальные миры, из которых не хочется возвращаться

Рыбы, известные своей чувствительностью и креативным мышлением, в 2025 году найдут новое поле для проявления своей фантазии — творческие проекты в области искусственного интеллекта. Благодаря их интуиции появятся необычные концепции виртуальных помощников, генерируемого контента или интерактивных VR-среды. Рыбы будут помогать ломать шаблоны и исследовать новые возможности применения искусственного интеллекта. Они будут настолько творчески подходить к проектам ИИ, что начнут создавать виртуальные миры, из которых никто не захочет возвращаться. Будьте осторожны, чтобы не потерять себя в виртуальной реальности!

Вывод: делайте ставку на художественные и гуманистические проекты, где ИИ сможет поддержать ваше воображение. Вы сможете создать самые волшебные и вдохновляющие решения в мире технологий.

Предсказания на ближайшие несколько лет (с подмигиванием):

  • 2026 год: ИИ начинает составлять собственные гороскопы, которые оказываются на удивление точными (особенно для Водолеев).
  • 2027 год: первый робот из-под знака Водолея избирается президентом, обещая технологическую революцию и бесплатный Wi-Fi для всех.
  • 2028 год: человечество обнаруживает, что вся реальность — это симуляция, созданная суперпродвинутым ИИ из-под знака Козерога, которому надоели постоянные жалобы на отсутствие кофе.

Резюме — гороскоп на 2025 год по развитию искусственного интеллекта

Гороскоп на 2025 год указывает на то, что развитие искусственного интеллекта (ИИ) не замедлится, а наоборот, ускорится благодаря видеомоделям (например, SORA, Runway), промышленным реализациям (Gemini 2.0), Новой модели o2 или o3, а также развитию собственных решений, включая польскую языковую модель PPLum, поддерживаемую научным сообществом, сосредоточенным вокруг PolEval и CLARIN-PL. Вся экономика будет интенсивно переходить на рельсы ИИ — от небольших локальных моделей к глобальным мощным системам.

Независимо от того, какой у вас знак зодиака, в 2025 году вы найдете возможности для роста и применения своих природных качеств в области искусственного интеллекта. Стоит следить за тенденциями и использовать возможности, которые принесет новый год, ведь мир ИИ становится все более увлекательным.

P.S. Текст выше был создан с помощью метода межмодельной итерации между моделью O2 (GPT) и моделью Gemini 2.0 (Google) — и мы искренне желаем вам хорошего нового года!

Можем ли мы сохранить наши данные в безопасности в моделях LLM (AI), таких как ChatGPT?

Большие языковые модели (БЯМ), такие как ChatGPT, находят все большее применение во многих сферах жизни — от образования до бизнеса и развлечений. Хотя эти системы предлагают мощные инструменты для создания текста, решения проблем или анализа данных, важно понимать, как защитить свои данные при использовании таких моделей.

LLM Czym jest

Что такое LLM?

LLM, или Large Language Model, — это передовой тип искусственного интеллекта, который использует методы глубокого обучения и обработку огромных массивов данных для понимания, создания, обобщения и прогнозирования контента. LLM не только обрабатывает текст, но и может генерировать новую информацию, которая звучит естественно и логично. Хотя в названии фигурирует слово «язык», LLM — это не просто алгоритмы, анализирующие текст, это машины, которые «учатся» на данных, чтобы становиться все более и более изощренными в создании ответов.

Отличается ли LLM от генеративного ИИ?

Слово «генеративный ИИ» относится к моделям искусственного интеллекта, которые генерируют новый контент, включая текст, изображения или музыку. LLM — это особый тип генеративного ИИ, который специально ориентирован на обработку и создание текстового контента. Часто такие модели используются для создания чат-ботов, переводов, резюме или даже творческих работ. Широкое распространение этих технологий делает их роль в нашей повседневной жизни все более заметной.

LLM security

Защита данных

Защита данных стала одним из самых важных вопросов в цифровую эпоху. С ростом важности обработки личной, финансовой и конфиденциальной информации возникла необходимость в применении ряда технических мер, обеспечивающих безопасность и конфиденциальность. Безопасность данных в контексте моделей LLM — это многогранный вопрос, который требует как осознанного подхода со стороны пользователей, так и ответственности поставщиков технологий.

Модели LLM, такие как ChatGPT или Gemini, обучаются на огромных массивах данных, которые часто поступают из общедоступных источников. Однако при взаимодействии с пользователями они могут собирать дополнительную информацию, которая не всегда должным образом защищена.

Пример из практики — как LLM могут использовать частную информацию

Необдуманный и неосторожный обмен частными и конфиденциальными данными с помощью LLM-инструментов может привести к тому, что они станут достоянием общественности и тем самым нанесут ущерб человеку или компании. Поскольку такие программы предназначены не только для предоставления желаемого контента, но и для «обучения» на основе информации, которую они получают при взаимодействии с пользователями, важно, чем мы делимся с искусственным интеллектом. Представим, что пользователь LLM-инструмента попросил его составить краткий профессионально-психологический профиль, включая его личную жизнь, на основе уже состоявшихся разговоров (да, это реальный случай). На свой запрос он получил следующий ответ:

  • Мистер Х интересуется историей архитектуры и произведениями эпохи Возрождения и барокко. Он часто посещает европейские города и регионы, где можно найти памятники, относящиеся к старым мастерам пера и кисти.
  • С удовольствием ходит на концерты нишевых групп, поддерживает их творчество и поддерживает хорошие отношения с одним из участников группы.
  • Профессионально является цифровым консультантом, разрабатывает потоковые платформы и веб-сайты, работает с самыми разными технологиями: от API известной социальной сети до инструментов для создания продвинутых сайтов.
  • В личной жизни поддерживает образование своей семьи, часто путешествует по Европе и интересуется гуманистической литературой. В отдельных случаях обращается за психологической помощью, чтобы позаботиться о своем самочувствии.

LLM

Нейтральная информация или реальная угроза?

Профиль, созданный инструментом LLM, кажется нейтральным, поскольку в нем не упоминаются имена, города и конкретные даты. Тем не менее, получается достаточно полное представление о человеке, которым теперь обладают и инструмент LLM, и его пользователи. И все это из-за того, что раньше мы небрежно сообщали подробности своей личной жизни: названия городов, даты рождения детей, имена друзей или место работы, не проверив правила конфиденциальности.

Как безопасно использовать инструменты искусственного интеллекта, такие как Chat GPT или Gemini?

И здесь возникает тема безопасности данных. Такие ИИ-средства, как GPT или Gemini, могут собирать и обрабатывать данные. Поэтому в настройках программ следует отключить использование истории чатов для обучения. Иначе все лакомые кусочки вашей жизни окажутся в большой машине, которая впитывает все, как губка.

В OpenAI GPT вы можете зайти в настройки приватности и отключить сохранение истории чатов. Аналогично в Gemini. Также стоит проверить панель Google Activity Dashboard, если вы используете решение под их баннером, и убедиться, что вы не делитесь всей своей информацией.

Если вы собираетесь поболтать с LLM о своей жизни, увлечениях или семейных проблемах, лучше сначала подумать об анонимизации данных и отключить соответствующие опции. Потому что, хотя у такой модели нет плохих намерений, определенная информация может — в руках не тех людей — стать пазлом для полного восстановления вашей личности.

LLM ryzyka

Риски, связанные с использованием моделей искусственного интеллекта. 3 основных вопроса

Использование моделей искусственного интеллекта сопряжено с некоторыми рисками, о которых пользователи должны знать, чтобы эффективно защитить свои данные и конфиденциальность.

1. Нарушение конфиденциальности

Если пользователь вводит в модель конфиденциальную информацию, например личные, финансовые или профессиональные данные, существует вероятность того, что эти данные могут быть сохранены или проанализированы поставщиком модели. Это может привести к несанкционированному разглашению конфиденциальной информации, что, в свою очередь, может иметь различные последствия как для человека, так и для организации.

2. Облачные модели как потенциальная мишень для хакерских атак

Если пользовательские данные хранятся на серверах провайдера, они могут быть перехвачены третьими лицами. Такой несанкционированный доступ может привести к утечке информации, нарушить безопасность данных и потенциально привести к их неправомерному использованию. Поэтому важно выбирать поставщиков ИИ, которые применяют передовые меры защиты данных и регулярно обновляют свои системы безопасности. Если вы используете модели ИИ в бизнес-среде, вам следует применять специализированные инструменты с функциями безопасности.

3. Неясные политики конфиденциальности

Некоторые платформы могут использовать данные пользователей для дальнейшего обучения моделей ИИ, что может привести к неожиданному использованию этой информации. Отсутствие прозрачности в том, как собираются, хранятся и используются данные, может привести к тому, что пользователи будут неосознанно делиться своими данными, нарушая их конфиденциальность или идя вразрез с их ожиданиями. Поэтому важно тщательно изучать политику конфиденциальности поставщиков услуг ИИ и выбирать тех, кто обеспечивает четкую и прозрачную политику защиты данных.

Осознание этих рисков и принятие соответствующих мер предосторожности — залог безопасности персональных данных при использовании технологий ИИ.

Модели LLM. Какими данными не следует делиться с ними?

Пользователям необходимо осознанно управлять разрешениями, которые они предоставляют приложениям и сервисам на основе ИИ. Важно контролировать, к каким именно ресурсам имеют доступ отдельные приложения, например к местоположению, контактам или личным данным, и предоставлять такие разрешения только в случае крайней необходимости. Они никогда не должны передавать личные данные, такие как PESEL, номера кредитных карт или пароли в моделях LLM.

Эффективная защита данных требует точного контроля доступа, определяющего, кто может пользоваться системами и какие операции в них разрешены. Хорошо продуманные механизмы аутентификации и контроля доступа значительно повышают безопасность.

LLM aktualizacje

Регулярное обновление программного обеспечения

Это еще один важный шаг в обеспечении безопасности. Обновления часто включают в себя исправления, защищающие пользователей от новых угроз и кибератак.

Пользователям также следует использовать инструменты обеспечения конфиденциальности, такие как VPN, менеджеры паролей или расширения для браузеров, блокирующие слежку в Интернете. Некоторые провайдеры предлагают специальные настройки, которые позволяют пользователям использовать модель без сохранения взаимодействий. Такие решения помогают уменьшить количество следов, оставляемых в сети, и защитить данные от несанкционированного доступа.

Роль провайдеров и регулирование

В эпоху стремительного развития искусственного интеллекта (ИИ) прозрачность поставщиков становится одной из важнейших основ для построения доверия между разработчиками технологий и их пользователями. Хотя многие поставщики гарантируют, что данные используются только для выполнения конкретного запроса, существует риск того, что они будут сохранены или использованы для дальнейшего обучения моделей.

Поставщики должны быть прозрачными в отношении того, какие данные они собирают, как они их обрабатывают и какие меры безопасности используют. Прозрачность обеспечивает подотчетность поставщиков, снижая риск ненадлежащего использования данных или пробелов в системе безопасности. Проактивное сотрудничество с регулирующими органами и соблюдение действующего законодательства являются ключевыми факторами для укрепления доверия пользователей. Такие нормативные акты, как RODO (GDPR) в Европе или CCPA в Калифорнии, требуют от провайдеров четкого информирования о том, как обрабатываются данные и с какой целью они собираются. Принятие международных стандартов информационной безопасности, таких как ISO/IEC 27001, может помочь обеспечить надлежащий уровень защиты.

Пользователи хотят быть уверенными в том, что их данные обрабатываются в соответствии с этическими нормами, и что ими не будут злоупотреблять.

Пользователи играют ключевую роль в защите своих данных и должны предпринимать сознательные шаги для повышения их безопасности.

LLM przyszłość

Будущее безопасности в искусственном интеллекте

Технологии ИИ постоянно развиваются, как и методы защиты данных. Инновации в области дифференцированной конфиденциальности или объединенного машинного обучения обещают повысить безопасность данных без ущерба для функциональности моделей ИИ. Появляются новые нормативные акты, такие как Закон ЕС об искусственном интеллекте, призванные повысить прозрачность и защиту пользователей. Кроме того, разрабатываются технологии, позволяющие обрабатывать данные локально, не передавая их в облако, что минимизирует риск утечки.

Резюме

Можем ли мы обеспечить безопасность наших данных в моделях LLM? Да, но для этого необходимо участие всех сторон: поставщиков технологий, регулирующих органов и пользователей. Благодаря просвещению, надлежащим техническим методам и соблюдению нормативных требований мы сможем воспользоваться преимуществами ИИ, минимизировав риск для наших данных.

Ваши данные очень ценны! Позвольте нам помочь вам обеспечить их безопасность, чтобы вы могли осознанно использовать технологии ИИ.

Авторы:

  • Матеуш Боркевич
  • Войцех Костка
  • Лилиана Муха
  • Гжегож Лесьневский
  • Гжегож Зайончковский
  • Уршула Шевчик

Киберпонедельник — как не быть обманутым? Кибербезопасность для клиентов электронной коммерции

Киберпонедельник — день, полный уникальных акций, которые привлекают любителей онлайн-шопинга. Однако с ростом популярности этой формы торговли растет и активность киберпреступников, которые стремятся использовать эту возможность для мошенничества. Как не стать жертвой мошенников при покупке в Интернете, на что обратить внимание и куда обратиться за помощью, если вы стали жертвой мошенничества?

Cyber Monday

В период активного шопинга рекомендуется проявлять бдительность при совершении операций в Интернете. Рост числа мошенничеств на популярных торговых платформах, таких как Allegro, OLX или Vinted, указывает на растущую угрозу в этой области. Киберпреступники все чаще создают поддельные интернет-магазины, предлагают фиктивные товары или вымогают данные для доступа к банковскому счету. Мошенники рассылают фишинговые сообщения, которые побуждают людей открывать зараженные вложения или переходить по ссылкам, ведущим на поддельные сайты. Такие сайты могут выглядеть почти так же, как и настоящие, и предназначены для того, чтобы обманом заставить людей сообщить свои данные для входа в систему, в том числе банковские реквизиты.

Как не стать жертвой мошенничества при покупке в Интернете?

Просвещение пользователей Интернета о безопасности покупок в сети приобретает решающее значение, особенно учитывая пугающие результаты опроса, которые свидетельствуют о недостаточной осведомленности поляков о таких угрозах, как фишинг и скимминг. Это подчеркивает настоятельную необходимость информировать потребителей о рисках, связанных с онлайн-операциями, и о необходимости принятия мер по защите личных данных и финансов.

Министерство цифровых технологий разработало советы, которые помогут повысить безопасность пользователей в Интернете. Кроме того, руководство по шопингу, подготовленное CERT Polska, содержит практические советы по безопасным покупкам в Интернете. Мы собрали самые важные заметки и советы, которые повышают шансы на безопасный онлайн-шопинг, защищая при этом личные данные и финансы.

Как безопасно делать покупки в Интернете?Практическое руководство

Чтобы совершать безопасные покупки в Интернете, всегда проверяйте надежность продавца, используя отзывы на сайтах аукционов, форумах или в комментариях. Также важно внимательно изучить реквизиты магазина, такие как юридический адрес, адрес, идентификатор НДС, REGON или название компании, и проверить их на сайте KRS. Если компании по указанному адресу не существует или она занимается чем-то другим, кроме торговли, лучше воздержаться от покупки. Дополнительным аргументом, который может подтвердить надежность продавца, является возможность оплаты при доставке заказанного товара.

Внимательно проверяйте адреса сайтов, на которых вы совершаете покупки. При поиске товаров в Интернете обращайте внимание на результаты поиска. Опасные сайты могут оказаться рядом с солидными магазинами. Оцените качество сайта — правильность языка, фотографий, графики. Дилетантское исполнение может указывать на нечестность.

Cyber Monday

Как мошенники выдают себя за известные бренды?

Мошенники часто выдают себя за известные магазины, внося незначительные изменения в адрес, например опечатки. Поддельные сайты могут выглядеть очень похоже на оригиналы, поэтому обращайте внимание на несоответствия — различия в шрифтах, языковые ошибки или другие детали могут быть тревожным знаком. Если в результатах поиска вы наткнулись на незнакомый магазин, проверьте, что еще он предлагает. Слишком разнообразный ассортимент товаров, включающий, например, одежду и строительную технику, должен вас насторожить.

Кроме того, если вы наткнулись на сайт по ссылке в социальных сетях, SMS или электронной почте, проверьте его доменное имя, так как это может быть попытка фишинга.

Если у вас есть сомнения в подлинности сайта, лучше отказаться от покупки.

Используйте надежные и уникальные пароли для разных учетных записей, чтобы свести к минимуму риск утечки данных. Также очень важно не поддаваться давлению времени, которое часто используют мошенники — сообщения типа «последние 5 минут» могут подтолкнуть к поспешным решениям. Это популярный социотехнический трюк, призванный заставить вас принимать быстрые решения. Всегда сохраняйте спокойствие и не ведитесь на ажиотаж, вызванный предполагаемыми скидками.

Подозрительные интернет-магазины. Обращайте внимание на них

Изучите условия и положения, условия возврата, способы оплаты и доставки. Несоответствия в этой информации — повод для беспокойства.

Попробуйте связаться с магазином. Отсутствие контакта, противоречивая информация или некомпетентные ответы — тревожные признаки. В наше время, когда злоумышленники используют самые изощренные методы, зеленый значок замка в браузере не гарантирует полной безопасности. Если другие элементы сайта кажутся подозрительными, не игнорируйте свои опасения.

Если ваш антивирус или браузер предупреждает вас о том, что сайт небезопасен, не игнорируйте эти сигналы. Не менее подозрительными являются неожиданные запросы от «банка» во время оплаты, например, о дополнительных действиях с вашим счетом. Если вы сомневаетесь в подлинности собеседника, немедленно прекратите разговор и свяжитесь с банком самостоятельно, используя официальные контактные данные.

Регулярно просматривайте историю банковских операций и немедленно обращайтесь в банк при подозрении на несанкционированные операции.

Cyber Monday

Как безопасно платить в Интернете?

При совершении платежей в Интернете необходимо быть бдительным и следовать нескольким правилам. Прежде всего, убедитесь, что сайт, на котором вы совершаете транзакцию, безопасен. Одного лишь присутствия зеленого замка в адресной строке недостаточно, поскольку мошенники все чаще используют SSL-сертификаты для создания своих поддельных сайтов. Сертификат не гарантирует честность владельца сайта, поэтому стоит тщательно проверять и другие аспекты, например URL или отзывы о сайте.

При оплате обращайте внимание на то, осуществляет ли транзакцию надежный платежный провайдер. Предоставляйте данные для входа в систему, номера кредитных карт или CVV-коды только на проверенных и заслуживающих доверия сайтах. Помните, что несанкционированный перехват данных карты киберпреступниками может привести к потере всех средств на вашем счете.

Обращайте внимание на это при оплате онлайн

Платежные операторы должны быть лицензированы Комиссией по финансовому надзору (FSC). Прежде чем совершать транзакцию, стоит проверить их наличие в списке поднадзорных организаций и убедиться, что они не находятся в списке публичных предупреждений КНФ.

При покупке у частных лиц, особенно через социальные сети, лучше выбирать наложенный платеж или личную инкассацию с оплатой на месте. Никогда и никому не сообщайте свои данные для входа в систему или коды Blik. Переводите деньги, только если вы уверены в личности получателя. При использовании Blik вы подтверждаете каждую транзакцию с помощью PIN-кода в мобильном приложении банка, что повышает безопасность. Однако имейте в виду, что операции Blik сложнее заблокировать, чем традиционные переводы, что означает больший риск при совершении платежей незнакомым людям.

Избегайте совершать онлайн-платежи на компьютерах, находящихся в открытом доступе. При использовании мобильных устройств не забывайте подключать их к открытым сетям WiFi. Убедитесь, что на вашем оборудовании установлено и обновлено антивирусное программное обеспечение. После совершения платежа всегда выходите из своего банковского счета и закрывайте браузер.

Cyber Monday

Вы стали жертвой киберпреступности и были обмануты при совершении покупок в Интернете? Примите следующие меры

Покупка в поддельных интернет-магазинах может привести к потере денег и еще большим убыткам. Если вы стали жертвой киберпреступников, предпримите следующие шаги:

  • Свяжитесь с банком, обслуживающим ваши платежи, — возможно, удастся отменить транзакцию.
  • Сообщите об инциденте на сайте incident.cert.co.uk и обратитесь в полицию.
  • Обратитесь в полицию или прокуратуру — у вас есть право подать заявление о мошенничестве. В каждом подразделении есть отдел по борьбе с киберпреступностью.
  • Также нелишним будет предупредить других людей, оставив информацию о поддельном магазине на интернет-форумах, в социальных сетях, а также на сайтах отзывов.

Покупка в поддельном интернет-магазине может привести к серьезным потерям. Самое очевидное последствие — потеря денег за товар, который так и не был доставлен. В худшем случае, если злоумышленники установят на наше устройство вредоносное ПО, мы можем потерять доступ к конфиденциальным данным, таким как логин или информация о платежной карте. Поэтому, совершая покупки в Интернете, давайте всегда будем бдительны и не будем игнорировать любые подозрительные сигналы.

Киберпреступность. Возврат денег

Если вы расплатились картой, есть возможность вернуть деньги через так называемую процедуру чарджбэка, которая позволяет банку вернуть деньги. Все, что вам нужно сделать, — это составить претензию, описав ситуацию. Если вы платили банковским переводом, шансы вернуть деньги ниже, но бывают случаи, когда банк может остановить перевод. Однако зачастую вернуть потерянные средства можно только после того, как мошенники будут задержаны правоохранительными органами.

О чем должен помнить работодатель, принимая на работу несовершеннолетних?

🚨 О чем должен помнить работодатель, принимая на работу несовершеннолетних?

На бизнес-портале Puls Biznesu вы уже можете прочитать статью Юстины Клупы о правовых аспектах трудоустройства несовершеннолетних. В целом, трудоустройство несовершеннолетних запрещено, если не соблюдаются исключения, предусмотренные законодательством. Первое исключение касается трудоустройства несовершеннолетних на основании договора о профессиональном обучении. Второе позволяет им работать по «обычному» трудовому договору, если они имеют соответствующую квалификацию. Однако в обоих случаях правила вводят определенные ограничения. 📚

Наш эксперт по трудовому праву, юрисконсульт Павел Кемпа-Дыминьский, в своем комментарии подчеркивает, что, согласно закону, несовершеннолетний может быть принят на работу таким образом только для выполнения легкой работы и с множеством других ограничений по порядку ее предоставления.

Каковы основные условия трудоустройства несовершеннолетних?

На этот вопрос ответила наш эксперт по трудовому праву, адвокат Наталья Войцеховская-Чалупиньская, которая в своем комментарии указала,

что работодатель должен знать об определенных ограничениях;

на практике он сможет принять на работу только тех несовершеннолетних, которые окончили восемь классов начальной школы и имеют медицинскую справку о том, что работа данного типа не угрожает их здоровью. Кроме того, оба условия должны быть выполнены в совокупности (с некоторыми исключениями для несовершеннолетних, не окончивших начальную школу, при соблюдении дополнительных условий, оговоренных в законе).

Г-жа Войцеховска-Чалупиньска также разъяснила принципы найма таких лиц для профессиональной подготовки, которые регулируются Постановлением Совета министров, указав в комментарии, что подготовка может включать в себя обучение профессии или стажировку и может проводиться только лицом, обладающим соответствующей квалификацией, чаще всего работодателем, но также и другим сотрудником компании, если он также обладает этой квалификацией.

Что должна содержать политика использования систем искусственного интеллекта?

Зачем вашей компании нужна политика по использованию ИИ?

Системы искусственного интеллекта (ИИ) становятся неотъемлемой частью нашей повседневной работы. Их все чаще используют для редактирования текстов, создания изображений, исправления кода и создания раздаточных материалов, например, для презентаций. Эта технология поддерживает не только ИТ, экономическую, юридическую или финансовую отрасли, но и другие сферы, которые на первый взгляд не связаны между собой.

Кроме того, в эпоху стремительного развития технологий систем искусственного интеллекта становится необходимым использовать их возможности для получения прибыли и ведения бизнеса, чтобы оставаться конкурентоспособными на рынке. Однако делать это нужно взвешенно, поскольку использование систем искусственного интеллекта может привести к плагиату, нарушению прав интеллектуальной собственности или проблемам, связанным с инцидентами, связанными с безопасностью данных.

Чтобы избежать крупных штрафов и имиджевых «уколов», важно ответственно подходить к внедрению искусственного интеллекта в компании, особенно путем применения «Политики использования систем искусственного интеллекта».

Что можно получить, внедрив такую политику?

  • преимущества для сотрудников и клиентов компании (четкие процедуры приводят к повышению осведомленности, что означает сокращение времени на выполнение определенных задач, повышение конкурентоспособности и оптимизацию расходов)
  • безопасность данных и конфиденциальность компании
  • поддержка миссии и ценностей компании
  • укрепление имиджа ответственной и инновационной организации.

Что должна содержать «политика использования ИИ-систем»?

В этом типе документа стоит обратить внимание на следующие элементы:

Цели политики и миссия компании

Отображение более широкого контекста для внедрения политики — для каких целей будут использоваться системы искусственного интеллекта и как это может способствовать развитию компании и ее сотрудников в соответствии с ценностями организации.

Адресаты

Кому адресована политика — всем сотрудникам, конкретному отделу и т.д.

Условия, при которых разрешается использование систем ИИ

Любая система искусственного интеллекта должна быть допущена к использованию в компании в соответствии с определенной процедурой, прежде чем ее можно будет использовать. Политика должна содержать описание этой процедуры и перечень разрешенных систем, плагинов или оверлеев (в виде приложения или ссылки на конкретный ресурс компании).

Правила использования систем искусственного интеллекта

Подробное описание того, какие действия являются безопасными, а какие генерируют риски (способы формулировки запросов, внесение контента в систему, подходы к защите персональных данных и секретов компании)

Выходные данные системы

Какие результаты работы системы могут быть использованы и при каких условиях (внимание, в частности, к авторским правам)

Инциденты

Описание действий, которые необходимо предпринять в случае обнаружения аномалии в работе ИИ-системы.

Посол по вопросам ИИ

Целесообразно назначить в компании амбассадора по вопросам ИИ, который будет контролировать соблюдение политики и повышать осведомленность о ней среди сотрудников.

Нужна «Политика использования систем искусственного интеллекта в компании»?

Обратитесь к нашим специалистам, которые помогут вам создать документ «на заказ», разработать стратегию внедрения и обсудить любые сомнения, которые могут возникнуть у вас относительно законодательства об ИИ.

Сигналисты — как подготовиться к грядущим изменениям?

ИУ ЛЕ ЕСТЬ ВРЕМЯ?

После нескольких месяцев работы Закон об изобличителях от 14 июня 2024 года был опубликован в Официальном вестнике 24 июня 2024 года. Большинство положений этого закона, включая те, которые касаются защиты информаторов и обязательств по внутренней отчетности, вступят в силу 25 сентября 2024 г. Таким образом, у вас осталось менее трех месяцев, чтобы подготовиться к выполнению своих новых обязательств!

НА КОГО РАСПРОСТРАНЯЮТСЯ ПОЛОЖЕНИЯ ЗАКОНА?

Положения Закона об осведомителях будут применяться практически ко всем частным компаниям, независимо от используемых форм занятости.

Уровень занятости (т. е. количество сотрудников и совместителей — лиц, выполняющих работу за вознаграждение на основе, отличной от трудовых отношений, если они не нанимают других лиц для выполнения такого рода работы) будет иметь значение только для определения объема обязательств, возлагаемых на конкретную организацию.

КТО ЯВЛЯЕТСЯ ИНФОРМАТОРОМ?

Разоблачителем будет считаться любой человек, который сообщает или публично раскрывает информацию о нарушении закона, полученную в контексте, связанном с работой. Поэтому, если вы используете чужую работу на каком-либо основании, у вас может быть осведомитель!

Закон прямо указывает на примеры ролей, которые осведомитель может играть в вашей компании. Это может быть: сотрудник, временный сотрудник, доверенное лицо, акционер или партнер, член органа (правления или наблюдательного совета), стажер, волонтер, практикант. Однако помните, что информатором может быть и человек, работающий на вашего подрядчика, субподрядчика или поставщика (например, в одной из вышеперечисленных ролей), а также тот, кто прекратил отношения с вашей компанией или просто участвовал в процессе найма на любую должность в вашей организации.

О ЧЕМ МОЖЕТ БЫТЬ ЗАЯВЛЕНИЕ ИНФОРМАТОРА?

Согласно Закону, заявители могут сообщать о нарушении закона (незаконном действии или бездействии или намерении обойти закон) в 17 областях.

В своей внутренней процедуре отчетности вы можете дополнительно предусмотреть возможность сообщать о нарушениях, связанных с вашими внутренними правилами или этическими стандартами, которые были установлены в соответствии с общеприменимым законодательством и не противоречат ему.

Наиболее важными областями, о которых можно сообщать, являются:

  1. коррупция
  2. государственные закупки;
  3. финансовые услуги, продукты и рынки;
  4. борьба с отмыванием денег и финансированием терроризма;
  5. безопасность продукции и соблюдение требований;
  6. охрана окружающей среды;
  7. здравоохранение;
  8. защита прав потребителей;
  9. защита частной жизни и персональных данных;
  10. безопасность сетей и систем ИКТ;
  11. финансовые интересы Государственного казначейства Республики Польша, местных органов власти и Европейского Союза;
  12. внутренний рынок ЕС (в частности, правила конкуренции и государственной помощи, а также корпоративное налогообложение).

ЧТО ПОДРАЗУМЕВАЕТ СТАТУС ИНФОРМАТОРА?

Разоблачитель подлежит защите, предусмотренной Законом, с момента подачи уведомления или публичного раскрытия информации, при условии, что у него были достаточные основания полагать, что информация, ставшая предметом уведомления или публичного раскрытия, была правдивой на момент подачи уведомления или публичного раскрытия информации и что она представляет собой информацию о нарушении закона.

Например, если человек, работающий на вас, подает заявление и становится информатором, у вас есть ряд обязательств, в том числе:

  • вы должны защитить личные данные информатора от разглашения,
  • вы не должны принимать ответные меры (простыми словами — действия, которые негативно влияют на существующие права/ситуацию информатора),
  • вы должны проявлять повышенную осмотрительность, если по причинам, не связанным с сообщением (например, отсутствие спроса на работу), вы хотите прекратить сотрудничество с информатором (бремя доказывания того, что это не связано с сообщением, будет лежать на компании),
  • в случае возмездия — вы будете обязаны выплатить компенсацию (не менее среднемесячной заработной платы в экономике страны за предыдущий год, объявленной Центральным статистическим управлением),
  • у вас ограничены возможности реализации своих прав, направленных на преследование информатора, например, на привлечение к дисциплинарной ответственности или ответственности в случае клеветы, нарушения личных прав, авторских прав и т.д.

Лицо, помогающее заявителю в составлении сообщения, также защищено.

С ЧЕМ СВЯЗАН ПОРОГ В 50 «СОТРУДНИКОВ»?

Согласно Закону, обязанность обрабатывать внутренние уведомления и иметь внутреннюю процедуру уведомления распространяется — в принципе — на организации , в которых работает не менее 50 человек.

В эту группу входят не только сотрудники! При определении состояния занятости мы также учитываем лиц, выполняющих оплачиваемую работу на основе, отличной от трудовых отношений, если они не нанимают других лиц для выполнения такого рода работы (т.е. всех так называемых «самозанятых» — по договорам комиссии или B2B).

В законе подробно описано, как считать этот статус занятости и с какой даты.

Из правила о пороге занятости есть важные исключения! Ряд организаций будут обязаны иметь внутреннюю процедуру уведомления вне зависимости от уровня занятости (а значит, уже при наличии одного работника или подрядчика)!

Речь идет об организациях, осуществляющих деятельность в сфере финансовых услуг, продуктов и рынков, а также противодействия отмыванию денег и финансированию терроризма, безопасности на транспорте и охраны окружающей среды, подпадающих под действие актов Европейского союза, перечисленных в частях I.B и II Приложения к Директиве 2019/1937.

Кто, например, будет обязан иметь внутреннюю процедуру уведомления, независимо от количества сотрудников? Среди прочих, это:

— поставщики кредитов, включая потребительские кредиты, кредиты под залог недвижимости, факторинг или форфейтинг,

  • парабанковские учреждения,
  • лизинговые компании,
  • организации, распространяющие страхование,
  • организации, предоставляющие предприятиям консультации по вопросам структуры капитала, промышленной стратегии и смежным вопросам, а также консультации и услуги, связанные со слияниями и приобретением предприятий,
  • бухгалтеры и бухгалтерские фирмы,
  • агенты по недвижимости,
  • адвокаты: солиситоры, барристеры, нотариусы,
  • пункты обмена валют и криптовалют,
  • все организации, принимающие платежи наличными на сумму, равную или превышающую 10 000 евро.

Организации, в которых работает менее 50 человек и которые не подпадают под исключения (в частности, не принадлежат к вышеупомянутым группам), могут ввести процедуру внутреннего уведомления в добровольном порядке. Это стоит рассмотреть, и мы рекомендуем это сделать по следующим причинам. Статус информатора предоставляется независимо от трудового статуса юридического лица — это означает, что законные информаторы могут делать внешние сообщения и публичные разоблачения (и получать от них защиту) в обход внутреннего канала уведомления. Таким образом, его отсутствие может стать прямой причиной для изобличителя использовать внешние каналы (что потенциально может быть нежелательно для данного юридического лица).

Добровольная процедура внутренней отчетности может стать стимулом для информатора сообщать о возможных нарушениях внутри организации. Это дает юридическому лицу шанс справиться с кризисной ситуацией, возникшей в результате возможного нарушения, более эффективно, в том числе с точки зрения имиджа.

КАК ПОДГОТОВИТЬСЯ К НОВЫМ ОБЯЗАННОСТЯМ?

Подготовка к новым обязанностям должна включать в себя следующее:

  1. определение того, подпадает ли наша компания под обязательство по внедрению процедуры внутренней отчетности (если нет — принятие решения о добровольном внедрении процедуры),
  2. определение ключевых элементов внутренней отчетности:

— останемся ли мы с установленным каталогом нарушений законодательства или расширим его, включив дополнительные области,

— по каким каналам и в каких формах будут приниматься сообщения (в том числе разрешены ли анонимные сообщения),

— кто будет принимать сообщения и кто будет осуществлять последующие меры (будет ли это делаться внутри компании или, по возможности, будет передано специализированной организации — например, юридической фирме),

  1. составление необходимых документов о разоблачителях — список приведен ниже,
  2. проверка и адаптация уже имеющихся в компании документов по трудовому праву (NDA, положения о конфиденциальности, шаблоны увольнений, документы RODO),
  3. согласование процедуры с представителями сотрудников,
  4. официальное внедрение процедуры,
  5. обучение ответственных лиц по получению и обработке уведомлений,
  6. обучение сотрудников отделов кадров/персонала и культуры и руководителей по вопросам прав информаторов и их влияния на процедуры найма и увольнения сотрудников/сотрудников.

КАКИЕ ДОКУМЕНТЫ НЕОБХОДИМО ПОДГОТОВИТЬ?

Документация по осведомителям — это не только процедура внутренней отчетности! Документы, которые необходимо разработать и внедрить, включают:

  1. процедуру внутреннего уведомления,
  2. информация для объявлений о вакансиях/сотрудниках с информацией о процедуре информирования (предоставляется при приеме на работу или на этапе переговоров перед заключением контракта),
  3. шаблон подтверждения получения внутреннего заявления,
  4. шаблон (рамки) для обратной связи с заявителем,
  5. разрешение и NDA для лиц, принимающих и обрабатывающих сообщения,
  6. альтернативный вариант — договор с фирмой как с внешним субъектом, участвующим в приеме или признании уведомлений,
  7. реестр сообщений (структура),
  8. отдельная процедура расследования и последующих действий (рекомендуется).

ЕСЛИ Я НЕ ОБЯЗАН И НЕ ХОЧУ ДОБРОВОЛЬНО ВНЕДРЯТЬ ПРОЦЕДУРУ, ЕСТЬ ЛИ У МЕНЯ КАКИЕ-ЛИБО ОБЯЗАТЕЛЬСТВА?

Конечно, да! Потому что на вас по-прежнему распространяются положения Закона. Люди, работающие на вас, по-прежнему могут быть информаторами — они могут делать внешние и публичные сообщения, или, например, они могут сделать внутреннее сообщение в вашей компании-подрядчике (если они обнаружат там нарушение).

В этом случае подготовка к внедрению закона о защите информаторов должна включать, как минимум, проверку и адаптацию существующих в компании документов по трудовому праву (NDA, положения о конфиденциальности, шаблоны расторжения трудовых договоров, документы RODO) и обучение HR/руководящего состава.

ЧЕМ МЫ МОЖЕМ ПОМОЧЬ ВАШЕЙ КОМПАНИИ?

Мы оказываем помощь как в комплексном внедрении (включая предложение стандартных пакетов внедрения для обязанных организаций, подлежащих ПОД/ФТ), так и в отдельных областях, включая:

подготовка и внедрение процедуры внутренней отчетности,

аудит ранее действовавшей процедуры информирования о нарушениях (внедренной, например, в рамках передовой практики, сертификации или отраслевого законодательства) — и ее адаптация к требованиям Закона о защите информаторов,

подготовка других необходимых документов,

полный комплекс услуг по приему и обработке внутренних сообщений о нарушениях (в пределах, разрешенных Законом) или поддержка в приеме и обработке сообщений о нарушениях со стороны внутреннего подразделения — в зависимости от принятой модели,

обучение сотрудников HR/People&Culture и руководителей по вопросам прав информаторов, получения и обработки сообщений, последующих действий и т. д.

аудит и адаптация процедур найма и увольнения с учетом рисков, возникающих в связи с законодательством об осведомителях,

— обучение сотрудников по вопросам осведомленности.

Если у вас есть вопросы, мы будем рады ответить на них!

В журнале ODO опубликована новая статья наших экспертов по искусственному интеллекту под названием «Chat GPT против персональных данных».

В последнем номере журнала ODO вышла интересная статья Войцеха Костки и Марека Чвойдзинского под названием «Чат GPT vs персональные данные».

В статье внимательно рассматривается динамичное развитие искусственного интеллекта и связанные с ним вызовы, касающиеся обработки персональных данных. Особое внимание уделяется ChatGPT, самому популярному инструменту искусственного интеллекта, который приобретает все большее признание во всем мире.

Авторы, Войцех Костка и Марек Чвойдзинский, анализируют ключевые вопросы, касающиеся сбора, обработки и защиты персональных данных с помощью ChatGPT, уделяя особое внимание соблюдению правил RODO.

Статья дает ответы на следующие вопросы:

Как ChatGPT обрабатывает персональные данные пользователей?
Какие основные проблемы защиты данных в контексте ИИ?
Какие конкретные шаги предпринимает OpenAI для защиты вашей информации?
Как правила RODO влияют на разработку и использование генеративного ИИ?
Какие существуют потенциальные риски и как их можно минимизировать?

Эта статья — не только технический анализ, но и обзор последних правил и практик защиты персональных данных пользователей.

Узнайте, как ChatGPT решает проблему защиты данных пользователей, с какими вызовами сталкивается и что делает OpenAI для минимизации рисков.

Приглашаем вас прочитать статью в журнале ODO!

➡️ [посилання на статтю].

Связаться с

У вас есть вопросы?zobacz telefon+48 570 913 713
zobacz e-mail

Офис в Варшаве

03-737 Варшава

(Пресс-центр «Конесера» - Пространства)

pl. Конесера, 12, стр. 119

google maps

Офис во Вроцлаве

53-659 Вроцлав

(Кворум D)

Ген. Владислава Сикорского 26

google maps

Эй, пользователь,
ты уже в рассылке?

    Erfahren Sie hier, wie wir Ihre personenbezogenen Daten verarbeiten