Skip to main content
Wrocdo bloga

Artykuł 50 EU AI Act — 90 dni od wdrożenia bannera

Rob, CEO & Founder7 min czytania

Po co ten wpis

Na początku 2026 roku wdrożyliśmy krótki banner transparentności na każdej stronie naszego produktu, gdzie funkcja oparta o AI jest widoczna dla użytkowników — sugestie triage botów, podsumowania audytu, rekomendacje AI Magnet. Banner odzwierciedla nasze odczytanie artykułu 50 Rozporządzenia (UE) 2024/1689 (Akt o Sztucznej Inteligencji): jeśli rozmawiasz z AI, powinieneś o tym wiedzieć; jeśli widzisz output wygenerowany przez AI, powinien być oznaczony.

Po dziewięćdziesięciu dniach banner nadal działa, wording zmienialiśmy dwa razy, a mamy parę uwag operacyjnych wartych podzielenia się z innymi małymi operatorami planującymi wdrożenie artykułu 50.

To nie jest porada prawna. Działamy jako jednoosobowa działalność gospodarcza (JDG) bez ubezpieczenia OC zawodowego, więc czytamy artykuł 50 z konserwatywną postawą, której taka pozycja wymaga. Wykładnia Państwa kancelarii prawnej może się różnić.

Co właściwie mówi artykuł 50

Artykuł 50 znajduje się w rozdziale IV Aktu („Obowiązki w zakresie przejrzystości dla dostawców i podmiotów stosujących niektóre systemy AI") i wszedł w życie 1 sierpnia 2024. Operatywne obowiązki obowiązują od 2 sierpnia 2026.

Postanowienia, które mają znaczenie dla większości powierzchni produktowych:

  • Artykuł 50 ust. 1 — dostawcy muszą projektować systemy AI przeznaczone do bezpośredniej interakcji z osobami fizycznymi w taki sposób, aby osoba fizyczna była poinformowana, że ​​wchodzi w interakcję z systemem AI, chyba że jest to „oczywiste z perspektywy osoby fizycznej, która jest należycie poinformowana, spostrzegawcza i ostrożna".
  • Artykuł 50 ust. 4 — podmioty stosujące system rozpoznawania emocji lub kategoryzacji biometrycznej muszą informować osoby narażone na działanie tego systemu.
  • Artykuł 50 ust. 5 — output, który jest generowany lub manipulowany przez system AI stanowiący deep fake, musi być ujawniony; w przypadku tekstu publikowanego w celu informowania społeczeństwa o sprawach interesu publicznego ujawniony musi być fakt wygenerowania przez AI (z wyłączeniem przypadków przejrzanych redakcyjnie).

Akt rozróżnia ujawnienie „oczywiste" od „wyraźnego". Rozsądni ludzie mogą się różnić w ocenie, gdzie przebiega linia, gdy AI sugeruje etykietę triage wewnątrz dashboardu. Wybraliśmy ujawnienie wyraźne.

Co wdrożyliśmy

Banner to jedno krótkie zdanie renderowane jako element typu tooltip obok każdego elementu UI sterowanego przez AI. Mówi:

Ten output jest wygenerowany przez asystenta AI. Traktuj go jako sugestię, nie decyzję.

To brzmienie powstało w dwóch iteracjach. Pierwsza wersja nazywała rodzinę modeli. Usunęliśmy nazwę modelu z dwóch powodów:

  1. Model może się zmienić; ujawnienie przeżywa każdy konkretny kontrakt z modelem.
  2. Wymienienie dostawcy tworzyło wrażenie marketingowe, którego nie zamierzaliśmy.

Obecna wersja nie roszczy sobie dokładności ani niczego nie gwarantuje — informuje użytkownika, że ​​output nie jest autorytatywny i że oczekuje się przeglądu przez człowieka. Takie sformułowanie jest spójne z postawą „advisory-only", którą trzymamy w innych miejscach produktu (i w naszej Umowie Powierzenia Przetwarzania oraz DPIA).

Co mierzyliśmy — i czego świadomie nie mierzyliśmy

Mierzyliśmy trzy rzeczy, ponieważ są tanie i pozwalają rozumieć, czy banner spełnia swoje zadanie:

  1. Wskaźnik renderowania bannera — czy banner faktycznie pojawia się na każdej powierzchni z AI? Lint pre-commit i runtime registry odpowiadają na to pytanie. Dziś: każda zarejestrowana powierzchnia albo renderuje banner, albo jest jawnie wyłączona (z uzasadnieniem).
  2. Pokrycie rejestru powierzchni — każde miejsce, w którym wywołujemy dostawcę AI, żyje w ai-surfaces.ts. Nowe ścieżki kodu zawodzą lint dopóki się nie zarejestrują. To jest nudna część compliance i część, której nikt nie zauważa, gdy działa.
  3. Przegląd false-positives po stronie operatora — gdy administrator oznaczy etykietę zasugerowaną przez AI jako błędną, ta flaga jest rejestrowana. Obserwujemy wskaźnik jako miękki sygnał, że system jest kalibrowany, nie jako cel regulacyjny.

Nie mierzyliśmy percepcji użytkownika, zrozumienia ani zaangażowania z bannerem. To wymagałoby albo panelu ankietowego (kosztowne), albo śledzenia per-user za zgodą (handel prywatnością, na który nie byliśmy gotowi dla wewnętrznej kwestii proceduralnej). Standard artykułu 50 to czy użytkownik może wiedzieć — nie czy zawsze czyta.

Co nas zaskoczyło

Wording okazał się trudniejszy niż inżynieria. Dodanie komponentu bannera zajęło popołudnie. Ustalenie wordingu zajęło miesiąc, dwa przepisania i jeden niechętny ponowny przegląd Aktu przez prawnika. Większość pracy polegała na decydowaniu, czego NIE roszczyć — każdy przymiotnik („dokładny", „wytrenowany", „zaawansowany") otwierał małą powierzchnię ataku, gdzie ktoś mógłby argumentować, że samo ujawnienie jest wprowadzające w błąd.

Banner musi być w miejscu, gdzie użytkownicy go widzą. Tooltipy on-hover nie są solidnym wzorcem ujawnienia dla użytkowników korzystających tylko z klawiatury ani dla przypadku, gdy output AI jest konsumowany przez automatyzację downstream. Po pierwszych 30 dniach zastąpiliśmy dwa bannery typu hover-only zawsze widocznymi etykietami.

Lokalizacja ma większe znaczenie, niż się wydaje. Nasze stringi w języku polskim są o około 30% dłuższe od angielskich odpowiedników. Pierwsza wersja bannera przepełniała kontener po polsku i była ucinana na drugiej najważniejszej powierzchni. Bug, ale bug istotny dla compliance — ucięte ujawnienie nie jest ujawnieniem. Teraz uruchamiamy lint paired-locale, który zawodzi CI, gdy string EN trafia do produkcji bez polskiego odpowiednika.

„Wygenerowane przez AI" to ruchomy cel. Nasi asystenci audytu podsumowują findings; podsumowanie jest wygenerowane przez AI nawet wtedy, gdy bazowe findings są deterministycznym wynikiem reguł. Musieliśmy zdecydować, czy to liczy się jako „tekst wygenerowany przez AI w sprawach interesu publicznego" zgodnie z artykułem 50 ust. 5. Wybraliśmy konserwatywne odczytanie: cokolwiek emituje LLM, nawet jeśli jest to podsumowanie wyniku reguł, otrzymuje ujawnienie.

Co byśmy zmienili

Gdybyśmy zaczynali dziś od nowa:

  • Najpierw napisalibyśmy wording w obu językach, a dopiero potem zbudowali komponent. Wording dyktuje wymiary; komponent jest pochodną.
  • Umieścilibyśmy ujawnienie w tym samym regionie DOM, co output AI, nigdy jako oddzielny tooltip. Sąsiedztwo czyni relację jednoznaczną.
  • Trzymalibyśmy single source of truth dla listy powierzchni AI od pierwszego dnia. Rozpraszanie rejestracji po plikach kosztowało nas tydzień grep-archeologii podczas audytu pokrycia.

Minimalny zestaw dla innych małych operatorów

Nie jesteśmy modelem dla wszystkich — nasz profil operacyjny (jednoosobowa działalność, brak ubezpieczenia) czyni nas konserwatywnymi z konieczności strukturalnej. Z tym zastrzeżeniem, elementy ujawnienia, które uznawalibyśmy za niezbędne:

  1. Wyraźne stwierdzenie obecności AI („Ten output jest wygenerowany przez asystenta AI" lub odpowiednik w języku użytkownika)
  2. Wyłączenie autorytetu („Traktuj jako sugestię, nie decyzję" — lub Twoja wersja)
  3. Rejestr każdej powierzchni, gdzie AI emituje output skierowany do użytkownika, egzekwowany przez coś trwalszego niż komentarz
  4. Parytet locale dla każdego języka, który obsługujesz
  5. Changelog wordingu samego ujawnienia, aby gdy prawnik czyta wording w 2027, mógł zobaczyć, kiedy i dlaczego się zmienił

Należy zauważyć, że żadne z tych nie wymaga konkretnie bannera. Artykuł 50 to obowiązek ujawnienia, nie specyfikacja UI. Przypis, etykieta inline lub widoczne potwierdzenie pre-action mogą wszystkie nieść ujawnienie — ważne jest, że użytkownik ma informację bez wysiłku.

Co obserwujemy dalej

Dwa otwarte pytania na resztę 2026:

  1. Kodeks Praktyk dotyczący Transparentności Treści Generowanych przez AI, oczekiwany w wersji finalnej do czerwca 2026. Spodziewamy się, że wyjaśni próg dla „spraw interesu publicznego" w artykule 50 ust. 5 i nada strukturę temu, jak tekst wygenerowany przez AI w publikowanych outputach powinien być oznaczony. Ponownie odczytamy nasz wording w odniesieniu do tego, co napisze.
  2. Krajowa postawa egzekucyjna. Akt jest jednolity; jak organy państw członkowskich priorytetyzują egzekucję — nie. Polski PUODO jest aktywny po stronie RODO, a Akt o AI sąsiaduje — obserwujemy ich wczesny wzorzec egzekucji jako wskaźnik wyprzedzający.

Banner zostaje. Wording będzie się dalej zmieniał. To jest praca.


Ten wpis odzwierciedla doświadczenie operacyjne HumanKey we wdrażaniu obowiązków transparentności z artykułu 50 dla powierzchni AI w naszym produkcie. Nie stanowi porady prawnej. W celu wiążącej wykładni unijnego Aktu o Sztucznej Inteligencji należy skonsultować się z prawnikiem wykwalifikowanym w danej jurysdykcji. Źródła pierwotne: Rozporządzenie (UE) 2024/1689 (EUR-Lex), w szczególności artykuły 50 i 53 oraz motyw 132.

Poznaj Swoj Ruch AI

Zacznij sledzic crawlery AI odwiedzajace Twoja strone. Bezplatnie do 1000 weryfikacji miesiecznie.

Rozpocznij za darmo
Artykuł 50 EU AI Act — 90 dni od wdrożenia bannera | Blog HumanKey