Back

EU AI Act: як нове регулювання ЄС впливає на використання штучного інтелекту

EU AI Act (Акт ЄС про ШІ) — це перша масштабна рамка, яка визначає правила розробки, продажу та використання AI в Європейському Союзі. Для українського бізнесу це не «десь там у Брюсселі», а практичний фактор: якщо ви працюєте з клієнтами в ЄС, інтегруєте AI у продукти або використовуєте його в процесах (HR, скоринг, відеоспостереження, KYC тощо), регулювання штучного інтелекту ЄС може прямо зачепити ваші договори, ризики та витрати на комплаєнс.

Кому і коли це важливо в Україні

EU AI Act застосовується не лише до компаній, зареєстрованих у ЄС. Якщо ваш AI-продукт або його результати використовуються на ринку ЄС, регуляторна логіка стає дуже «вашою». Найчастіші сценарії для України:

  • SaaS/продукт з AI-функціями продається клієнтам у ЄС (B2B або B2C).
  • Аутсорс/аутстаф розробляє AI-модуль для європейського замовника.
  • Компанія використовує AI для рішень, що впливають на людей (найм, оцінка, доступ до послуг, безпека).
  • Бізнес працює у ланцюгу постачання європейської групи і отримує вимогу: «підтвердьте відповідність AI регулюванню ЄС».

Логіка EU AI Act: підхід за рівнем ризику

Ключова ідея проста: чим більше AI може нашкодити правам, безпеці або свободам людини — тим жорсткіші вимоги. Саме тому в регулюванні з’являється поняття високоризикові AI системи.

Зазвичай виділяють такі групи:

  • Заборонені практики (наприклад, певні маніпулятивні або неприйнятні сценарії використання).
  • Високоризикові системи (AI у критичних контекстах: працевлаштування, освіта, доступ до послуг, частина безпекових рішень тощо).
  • Обмежений ризик (переважно вимоги прозорості: щоб людина розуміла, що взаємодіє з AI).
  • Мінімальний ризик (для більшості буденних кейсів без спецвимог, але з очікуванням «здорової» відповідальності).

Після впровадження цих правил закон про штучний інтелект в Європі для бізнесу означає не політичний лозунг, а чек-лист вимог у тендерах, контрактах і аудитах.

Що таке високоризикові AI системи на практиці

Під високий ризик часто потрапляють рішення, де AI:

  • впливає на кар’єру людини (відбір кандидатів, оцінка продуктивності, автоматизовані рекомендації щодо звільнення);
  • впливає на доступ до сервісів (скоринг, антифрод, KYC, страхові рішення, кредитні ліміти);
  • використовується для ідентифікації/біометрії або масового спостереження (залежно від сценарію та законних підстав);
  • працює у критичних сферах (безпека, інфраструктура, певні медичні/промислові системи).

Щоб не вгадувати на око, бізнесу варто робити коротку юридично-технічну класифікацію: що саме робить AI, на кого впливає, які дані використовує, чи є автоматизоване рішення, чи є людський контроль.

Основні обов’язки: що вимагатимуть від компанії

Якщо ваш продукт або процес підпадає під EU AI Act, вам можуть знадобитися політики, технічні документи та процедури. Важливий нюанс: це не лише папери. Регулятор хоче, щоб AI був керованим і перевірюваним, а ризики — зменшувалися до прийнятного рівня.

Типові вимоги (особливо для high-risk):

  • управління ризиками протягом життєвого циклу AI (від дизайну до експлуатації);
  • якість даних (походження, релевантність, упередженість, репрезентативність);
  • технічна документація і опис моделі/системи так, щоб її можна було оцінити;
  • логування та трасованість (щоб відтворити, як система дійшла висновку);
  • прозорість для користувачів і належні інструкції;
  • людський нагляд (human oversight), особливо в чутливих рішеннях;
  • кібербезпека та стійкість до збоїв/атак;
  • моніторинг після запуску та порядок реагування на інциденти.

Саме тут відповідність AI регулюванню ЄС перетворюється на комбінацію юрпрактики + процесного менеджменту + технічної дисципліни.

Як підготуватися українському бізнесу

Почніть із прагматичного аудиту — без паніки й без зайвого героїзму. AI-комплаєнс найкраще робиться поетапно, як техогляд авто: спочатку базові речі, потім — глибший сервіс.

Рекомендований план дій:

  • Зробіть інвентаризацію AI: де використовується, які дані, хто власник процесу, які постачальники/моделі.
  • Проведіть класифікацію ризику (чи може бути high-risk, чи потрібна прозорість).
  • Оновіть договори з клієнтами/постачальниками: ролі, відповідальність, вимоги до документації, інциденти, субпідряд.
  • Впровадьте політики і процедури: data governance, model governance, human oversight, incident response.
  • Підготуйте пакет доказів для аудитів/тендерів (документація, записи тестів, оцінки ризику).
  • Зв’яжіть AI-комплаєнс із захистом даних (бо AI майже завжди торкається персональних даних або схожих ризиків).

Після цього варто юридично прошити процеси: щоб відповідальність не була розмитою між IT, продуктом і HR.

Ризики та штрафи: чому це не варто ігнорувати

EU AI Act передбачає значні фінансові санкції (у публічних обговореннях фігурували рівні до десятків мільйонів євро або відсотків від світового обороту — залежно від типу порушення). Але для більшості українських компаній болючішими можуть бути не штрафи, а:

  • блокування угоди через комплаєнс-вимоги замовника;
  • провал тендера;
  • зупинка інтеграції з європейським партнером;
  • репутаційний ризик після інциденту з AI.

Якщо ви продаєте або розробляєте AI-рішення для ЄС, BALTUM BUREAU може допомогти структурувати вимоги, оновити договори та підготувати пакет документів під регулювання штучного інтелекту ЄС — так, щоб комплаєнс не гальмував продукт, а підсилював довіру клієнтів.

Section icon Наші контакти
Готові підвищити надійність і конкурентоспроможність бізнесу? Залиште заявку — і ми допоможемо пройти сертифікацію крок за кроком.

Україна, Київ,
вул. Світлицького, 35

telephone icon Phone number: +38 096 906 78 59

Estonia, Tallinn,
Pärnu mnt 105, 11312

telephone icon Phone number: +372 5368 6541

United Kingdom, London,
7 Bell Yard, WC2A 2JR

telephone icon Phone number: +44 7488 811 373

    Запит на комерційну пропозицію

    Залиште заявку — підготуємо пропозицію

    Ім’я

    Email

    Телефон

    Надіслати запит