<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>transparency obligations under the EU AI Act &#8211; Lexalert.pl</title>
	<atom:link href="https://lexalert.pl/category/transparency-obligations-under-the-eu-ai-act/feed/" rel="self" type="application/rss+xml" />
	<link>https://lexalert.pl</link>
	<description>masz prawo wiedzieć</description>
	<lastBuildDate>Wed, 15 Apr 2026 17:39:09 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>

<image>
	<url>https://lexalert.pl/wp-content/uploads/2022/09/cropped-miniatura_strona_internetowa-32x32.png</url>
	<title>transparency obligations under the EU AI Act &#8211; Lexalert.pl</title>
	<link>https://lexalert.pl</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>Generowanie obrazów przez sztuczną inteligencję a prawo autorskie. Praktyka, ryzyka i compliance</title>
		<link>https://lexalert.pl/generowanie-obrazow-przez-sztuczna-inteligencje-a-prawo-autorskie/</link>
					<comments>https://lexalert.pl/generowanie-obrazow-przez-sztuczna-inteligencje-a-prawo-autorskie/#respond</comments>
		
		<dc:creator><![CDATA[Wiktor]]></dc:creator>
		<pubDate>Wed, 15 Apr 2026 17:36:42 +0000</pubDate>
				<category><![CDATA[AI a prawa autorskie]]></category>
		<category><![CDATA[AI compliance for creatives]]></category>
		<category><![CDATA[AI image generation]]></category>
		<category><![CDATA[compliance przy wykorzystaniu generatywnej AI]]></category>
		<category><![CDATA[generative AI and copyright]]></category>
		<category><![CDATA[generowanie obrazów przez AI]]></category>
		<category><![CDATA[ochrona twórców w erze AI]]></category>
		<category><![CDATA[training data and text data mining]]></category>
		<category><![CDATA[transparency obligations under the EU AI Act]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[generowanie obrazów]]></category>
		<category><![CDATA[OCHRONA TWÓRCÓW]]></category>
		<category><![CDATA[prawa autorskie]]></category>
		<category><![CDATA[SI]]></category>
		<guid isPermaLink="false">https://lexalert.pl/?p=1905</guid>

					<description><![CDATA[Wprowadzenie Generowanie obrazów przez modele sztucznej inteligencji (dalej „SI”) stało się jednym z najważniejszych zastosowań generatywnej SI w sektorze kreatywnym, marketingowym, mediowym i projektowym. Systemy tego rodzaju potrafią tworzyć ilustracje, ...]]></description>
										<content:encoded><![CDATA[
<p></p>



<p><strong>Wprowadzenie</strong></p>



<p>Generowanie obrazów przez modele sztucznej inteligencji (dalej „<strong>SI</strong>”) stało się jednym z najważniejszych zastosowań generatywnej SI w sektorze kreatywnym, marketingowym, mediowym i projektowym. Systemy tego rodzaju potrafią tworzyć ilustracje, wizualizacje produktowe, grafiki koncepcyjne, materiały reklamowe i stylizowane kompozycje na podstawie poleceń tekstowych, obrazów referencyjnych albo kombinacji obu tych elementów<a href="#_ftn1" id="_ftnref1">[1]</a>.</p>



<p>Rozwój tych technologii wywołuje jednak równoległe pytania o status prawny wygenerowanych obrazów, legalność wykorzystywania danych treningowych oraz zakres odpowiedzialności podmiotów wdrażających takie rozwiązania. W UE problem ten nie jest już wyłącznie zagadnieniem doktrynalnym, ponieważ łączy przepisy prawa autorskiego, wyjątki dotyczące text and data mining, obowiązki przejrzystości wynikające z Aktu w sprawie sztucznej inteligencji oraz rosnące oczekiwania dotyczące dokumentowania źródeł treści używanych do trenowania modeli<a href="#_ftn2" id="_ftnref2">[2]</a>.</p>



<p><strong>Jak działa generowanie obrazów</strong></p>



<p>W praktyce generowanie obrazów przez SI polega na przetwarzaniu poleceń użytkownika i syntezie nowej treści wizualnej na podstawie wzorców wyuczonych na bardzo dużych zbiorach danych. Parlament Europejski (dalej „<strong>PE</strong>”) opisuje generatywną SI jako systemy tworzące nowe treści, takie jak tekst, obrazy, muzyka, wideo i kod, w oparciu o trening na bardzo dużych zbiorach danych, z których modele uczą się struktur i zależności.</p>



<p>Z perspektywy użytkownika proces ten często wygląda prosto: wystarczy prompt, wybór stylu, formatu i parametrów technicznych. Z perspektywy prawnej znaczenie ma jednak nie tylko sam wynik, lecz także to, czy obraz powstał przy istotnym twórczym wkładzie człowieka, z jakich danych korzystał model oraz czy materiał końcowy został odpowiednio oznaczony jako wygenerowany lub zmanipulowany przez SI<a href="#_ftn3" id="_ftnref3">[3]</a>.</p>



<p><strong>Czy obraz wygenerowany przez SI jest utworem</strong></p>



<p>W polskim i unijnym prawie autorskim punktem wyjścia pozostaje ludzki charakter twórczości. Zgodnie z przywoływanym w polskiej praktyce art. 1 Ustawy z dnia 4 lutego 1994 r. o prawie autorskim i prawach pokrewnych utworem jest przejaw działalności twórczej o indywidualnym charakterze, a autorem może być wyłącznie osoba fizyczna, nie zaś system, algorytm czy model SI<a href="#_ftn4" id="_ftnref4">[4]</a>.</p>



<p>PE w rezolucji z 10 marca 2026 r. również podkreśla, że unijne prawo autorskie pozostaje oparte na zasadzie „human authorship”, a pojęcie „utworu” według utrwalonego orzecznictwa Trybunału Sprawiedliwości UE wymaga oryginalności stanowiącej własną intelektualną twórczość autora oraz wyrażenia tej twórczości w sposób możliwy do zidentyfikowania z dostateczną precyzją i obiektywnością.</p>



<p>W praktyce oznacza to trzy główne scenariusze. Po pierwsze, obraz wygenerowany całkowicie automatycznie, bez realnego twórczego wkładu człowieka, może nie korzystać z pełnej ochrony prawa autorskiego. Po drugie, jeśli człowiek kształtuje rezultat przez złożony dobór promptów, iteracje, selekcję, retusz, kompozycję i dalszą obróbkę, wzrasta argument za uznaniem wyniku za utwór człowieka wspomaganego narzędziem SI. Po trzecie, niezależnie od ochrony samego wyniku, nadal mogą powstawać roszczenia związane z naruszeniem cudzych praw na etapie treningu lub wygenerowania treści zbyt bliskiej chronionym materiałom źródłowym.</p>



<p><strong>Dane treningowe i wyjątek TDM (en. Text and Data Mining)</strong></p>



<p>Kluczowe znaczenie dla zgodności prawnej modeli generujących obrazy ma kwestia danych treningowych. Dyrektywa Parlamentu Europejskiego i Rady (UE) 2019/790 z dnia 17 kwietnia 2019 r. w sprawie prawa autorskiego i praw pokrewnych na jednolitym rynku cyfrowym oraz zmiany dyrektyw 96/9/WE i 2001/29/WE wprowadziła wyjątki dotyczące text and data mining, a w praktyce europejskiej przeważa stanowisko, że mają one znaczenie także dla trenowania modeli SI, choć granice tego zastosowania i jego wdrożenie krajowe pozostają przedmiotem sporów interpretacyjnych<a href="#_ftn5" id="_ftnref5">[5]</a>.</p>



<p>Szczególnie ważny jest mechanizm opt-out dla uprawnionych. W odniesieniu do TDM prowadzonego do celów innych niż badania naukowe uprawnieni mogą zastrzec brak zgody na wykorzystanie utworów, przy czym w przypadku treści dostępnych online zastrzeżenie powinno być wyrażone w odpowiedni sposób, w tym maszynowo odczytywalny.</p>



<p>Znaczenie tego mechanizmu rośnie w praktyce komercyjnej. PE zwrócił uwagę, że obecne systemy zastrzegania praw są często niepraktyczne, nie obejmują wszystkich relewantnych działań związanych z TDM i nie zapewniają wystarczającej przejrzystości dla skutecznego egzekwowania praw, a jednocześnie wskazał potrzebę stworzenia sprawnie działających narzędzi wyłączenia oraz licencjonowania treści do trenowania GenAI.</p>



<p><strong>Akt w sprawie sztucznej inteligencji i obowiązki przejrzystości</strong></p>



<p>Równolegle do prawa autorskiego obowiązują ramy wynikające z Aktu w sprawie sztucznej inteligencji. Jego art. 50 nakłada obowiązki przejrzystości na dostawców systemów generujących syntetyczne obrazy, tekst, dźwięk lub wideo, wymagając, aby takie treści były oznaczane w formacie możliwym do maszynowego odczytu i wykrywalnym jako sztucznie wygenerowane lub zmanipulowane, o ile jest to technicznie wykonalne.</p>



<p>Ten sam przepis wymaga również, aby podmioty używające systemów SI do generowania lub manipulowania obrazem, dźwiękiem lub wideo stanowiącym deepfake ujawniały, że treść została sztucznie wygenerowana lub zmanipulowana. W przypadku utworów artystycznych, kreatywnych, satyrycznych albo fikcyjnych obowiązek ten jest złagodzony, ale nadal wymaga ujawnienia istnienia takiej ingerencji w sposób, który nie utrudnia odbioru dzieła.</p>



<p>Dla podmiotów działających komercyjnie oznacza to, że samo legalne wygenerowanie obrazu nie wyczerpuje obowiązków prawnych. Konieczne może być jednoczesne wdrożenie oznaczeń technicznych, komunikatów dla użytkowników, zasad publikacji i procedur oceny, czy dana treść stanowi zwykły materiał kreatywny, czy też kwalifikuje się jako manipulacja wymagająca dodatkowego ujawnienia<a href="#_ftn6" id="_ftnref6">[6]</a>.</p>



<p><strong>Najnowszy kierunek regulacyjny UE</strong></p>



<p>W marcu 2026 r. PE przyjął rezolucję dotyczącą prawa autorskiego i generatywnej SI, wskazując, że obecne prawo autorskie jest niewystarczające do rozwiązania problemu licencjonowania materiałów chronionych wykorzystywanych przez GenAI. Rezolucja wzywa Komisję do doprecyzowania zasad licencjonowania, zapewnienia współpracy dostawców GenAI z twórcami i innymi uprawnionymi oraz budowy efektywnego rynku licencji.</p>



<p>PE opowiedział się także za szeroką przejrzystością i dokumentowaniem źródeł treści chronionych prawem autorskim użytych do treningu, a także za rozwiązaniami umożliwiającymi skuteczne wyłączanie utworów z treningu w ograniczonej liczbie ustandaryzowanych, maszynowo odczytywalnych formatów. Jako potencjalnego zaufanego pośrednika wskazano EUIPO, które mogłoby wspierać zarówno system wyłączeń, jak i relacje licencyjne między dostawcami AI a uprawnionymi.</p>



<p>To nie oznacza jeszcze pełnej reformy prawa autorskiego, ale pokazuje wyraźny kierunek regulacyjny: większą przejrzystość, większą rozliczalność dostawców SI oraz silniejszą pozycję negocjacyjną twórców i posiadaczy praw. Dla organizacji wdrażających narzędzia do generowania obrazów oznacza to potrzebę budowania zgodności nie tylko według litery obecnego prawa, ale także w zgodzie z przewidywanym kierunkiem egzekwowania i zmian legislacyjnych<a href="#_ftn7" id="_ftnref7">[7]</a>.</p>



<p><strong>Główne ryzyka prawne</strong></p>



<p>Podmiot korzystający z SI do generowania obrazów powinien brać pod uwagę kilka odrębnych ryzyk prawnych i operacyjnych.</p>



<p>Ryzyko naruszenia praw do danych treningowych, jeżeli model był trenowany na materiałach chronionych bez licencji albo bez poszanowania skutecznego opt-out.</p>



<p>Ryzyko wygenerowania treści nadmiernie zbliżonej do istniejących dzieł, znaków towarowych, stylów komercyjnie identyfikowalnych lub wizerunku konkretnych osób.</p>



<p>Ryzyko błędnego przypisania autorstwa lub nieuprawnionego deklarowania wyłącznych praw do materiału, który nie spełnia przesłanek ochrony jako utwór.</p>



<p>Ryzyko naruszenia obowiązków przejrzystości przez brak oznaczeń AI-generated, brak ujawnienia deepfake albo brak właściwych komunikatów dla odbiorców.</p>



<p>Ryzyko kontraktowe, gdy dostawca narzędzia nie daje jasnych gwarancji co do pochodzenia danych, zakresu licencji lub zasad wykorzystywania promptów i tzw. outputów użytkownika.</p>



<p><strong>Kto odpowiada w praktyce</strong></p>



<p>W praktyce odpowiedzialność prawna rozkłada się między kilka kategorii podmiotów. Dostawca modelu odpowiada przede wszystkim za architekturę zgodności dotyczącą modelu, politykę copyright compliance, respektowanie opt-out, dokumentowanie danych treningowych i realizację obowiązków wynikających z Aktu w sprawie sztucznej inteligencji właściwych dla jego roli.</p>



<p>Podmiot wdrażający lub publikujący obrazy odpowiada natomiast za sposób użycia narzędzia, treść końcową, oznaczenia, zgodność publikacji z prawem autorskim, prawem do wizerunku, ochroną konsumenta i zasadami komunikacji rynkowej. Rezolucja Parlamentu Europejskiego akcentuje, że prawo UE dotyczące praw autorskich i pokrewnych powinno być stosowane do wszystkich dostawców i usług funkcjonujących na rynku unijnym, niezależnie od miejsca siedziby czy miejsca, w którym odbywały się czynności istotne dla treningu modelu.</p>



<p>Użytkownik końcowy nie może więc zakładać, że odpowiedzialność zawsze spoczywa wyłącznie na producencie modelu. Jeżeli organizacja publikuje obraz wygenerowany przez AI jako własny materiał marketingowy, produktowy lub redakcyjny, musi samodzielnie ocenić legalność i ryzyko użycia tego materiału.</p>



<p><strong>Praktyczne rekomendacje compliance</strong></p>



<p><strong>1. Stwórz politykę używania generatywnej SI</strong></p>



<p>Organizacja powinna przyjąć wewnętrzną politykę określającą, do jakich celów można używać generatorów obrazów, jakie treści są zakazane i kto zatwierdza publikację materiałów wysokiego ryzyka. Polityka powinna obejmować co najmniej marketing, social media, projekty produktowe, treści redakcyjne oraz materiały wymagające użycia wizerunku lub odniesień do istniejących marek i dzieł.</p>



<p><strong>2. Weryfikuj dostawcę modelu</strong></p>



<p>Przed wdrożeniem rozwiązania warto przeprowadzić due diligence dostawcy. Należy sprawdzić, czy dostawca opisuje źródła danych, politykę copyright compliance, mechanizmy respektowania opt-out, zasady korzystania z promptów oraz warunki licencyjne dotyczące outputów.</p>



<p><strong>3. Ogranicz prompty wysokiego ryzyka</strong></p>



<p>W praktyce warto zakazać promptów nakazujących tworzenie obrazów „w stylu konkretnego żyjącego artysty”, używania rozpoznawalnych postaci, logotypów, opakowań czy imitowania cudzych kampanii reklamowych. Takie ograniczenia zmniejszają ryzyko wygenerowania materiałów naruszających cudze prawa autorskie, prawa do znaków towarowych lub dobra osobiste.</p>



<p><strong>4. Dokumentuj proces twórczy człowieka</strong></p>



<p>Jeżeli organizacja chce wzmacniać argument, że końcowy materiał ma element ludzkiej twórczości, warto archiwizować iteracje promptów, selekcję wariantów, zakres retuszu, kompozycji i dalszej obróbki. Taka dokumentacja może być istotna zarówno dla wykazania wkładu człowieka, jak i dla obrony przed zarzutem, że materiał został bezrefleksyjnie wygenerowany i opublikowany.</p>



<p><strong>5. Wdrażaj oznaczenia AI-generated</strong></p>



<p>Jeżeli obraz jest publikowany w środowisku objętym obowiązkami przejrzystości albo może zostać uznany za deepfake czy materiał zmanipulowany, należy zapewnić odpowiednie oznaczenia i disclosure. Akt w sprawie sztucznej inteligencji wymaga rozwiązań technicznych umożliwiających wykrywanie treści sztucznie wygenerowanych lub zmanipulowanych, a w określonych przypadkach także jasnego informowania odbiorców o takim charakterze materiału.</p>



<p><strong>6. Wprowadź kontrolę przed publikacją</strong></p>



<p>Dla materiałów zewnętrznych warto wdrożyć checklistę publikacyjną obejmującą pytania: czy obraz przypomina istniejące dzieło, czy zawiera oznaczenia lub cechy marki, czy przedstawia realną osobę, czy wymaga ujawnienia oraz czy zachowano dowody pochodzenia i procesu twórczego. Taka kontrola powinna być obowiązkowa zwłaszcza dla kampanii reklamowych, materiałów prasowych i materiałów sprzedażowych.</p>



<p><strong>7. Ureguluj prawa w umowach</strong></p>



<p>Umowy z pracownikami, agencjami, freelancerami i klientami powinny wyraźnie określać, czy i na jakich zasadach można korzystać z narzędzi generatywnej SI, kto odpowiada za zgodność materiałów, kto ponosi ryzyko roszczeń osób trzecich oraz jaki jest zakres przeniesienia lub licencji do końcowych materiałów. Bez takiej regulacji łatwo o spór, zwłaszcza gdy końcowy materiał powstał z udziałem wielu osób i narzędzi.</p>



<p><strong>8. Przygotuj procedurę „notice-and-response”</strong></p>



<p>Organizacja publikująca treści AI powinna posiadać prostą procedurę obsługi zgłoszeń dotyczących naruszeń praw autorskich, dóbr osobistych lub oznaczeń deepfake. W praktyce powinna ona obejmować szybkie przyjęcie zgłoszenia, czasową blokadę spornego materiału, ocenę prawną, decyzję o korekcie albo usunięciu oraz archiwizację całego incydentu.</p>



<p><strong>9. Śledź zmiany regulacyjne w UE</strong></p>



<p>Obszar ten zmienia się szybko. Rezolucja PE z marca 2026 r. pokazuje, że Komisja jest pod presją doprecyzowania zasad licencjonowania, transparentności i ochrony twórców, dlatego organizacje korzystające z generatorów obrazów powinny prowadzić stały monitoring zmian w prawie, standardach i praktyce egzekwowania.</p>



<p><strong>Model operacyjny zgodności</strong></p>



<p>Dobrą praktyką jest przyjęcie trójwarstwowego modelu zgodności. Pierwsza warstwa dotyczy wyboru narzędzia i oceny dostawcy, druga obejmuje proces tworzenia i zatwierdzania materiałów, a trzecia odnosi się do publikacji, oznaczeń, archiwizacji i reagowania na roszczenia.</p>



<p>W organizacjach tworzących większą liczbę materiałów wizualnych warto połączyć ten model z rejestrem użyć SI. Rejestr może zawierać informacje o narzędziu, dacie wygenerowania, celu użycia, osobie odpowiedzialnej, podstawie publikacji, ocenie ryzyka i zastosowanych oznaczeniach, co ułatwia wykazanie należytej staranności oraz audyt zgodności.</p>



<p><strong>Wnioski dla biznesu kreatywnego</strong></p>



<p>Generowanie obrazów przez SI nie jest już wyłącznie zagadnieniem technologicznym, lecz elementem zarządzania ryzykiem prawnym i reputacyjnym. W aktualnym stanie prawnym najbezpieczniejsze podejście polega na traktowaniu SI jako narzędzia wspierającego człowieka, a nie źródła automatycznie „czystych” praw do każdego wygenerowanego rezultatu.</p>



<p>Dla firm i zespołów kreatywnych oznacza to konieczność łączenia innowacji z dokumentowaniem pochodzenia treści, kontrolą publikacji, ostrożnym formułowaniem roszczeń do praw wyłącznych i bieżącym wdrażaniem obowiązków przejrzystości. Właśnie takie podejście najlepiej odpowiada obecnemu kierunkowi prawa UE, które zmierza do połączenia rozwoju generatywnej AI z ochroną twórców, przejrzystością rynku i możliwością skutecznego egzekwowania praw autorskich<a href="#_ftn8" id="_ftnref8">[8]</a>.</p>



<p>r.pr. dr Wiktor Czeszejko-Sochacki, LL.M.</p>



<hr class="wp-block-separator has-alpha-channel-opacity"/>



<p><a href="#_ftnref1" id="_ftn1">[1]</a> https://www.hsfkramer.com/notes/ip/2026-03/transparency-obligations-for-ai-generated-content-under-the-eu-ai-act-from-principle-to-practice I https://www.europarl.europa.eu/doceo/document/A-10-2026-0019_EN.html</p>



<p><a href="#_ftnref2" id="_ftn2">[2]</a> https://www.europarl.europa.eu/doceo/document/TA-10-2026-0066_EN.html I https://artificialintelligenceact.eu/article/50/</p>



<p><a href="#_ftnref3" id="_ftn3">[3]</a> https://poradnikprzedsiebiorcy.pl/-chatgpt-a-prawa-autorskie-kto-jest-tworca-tresci-wygenerowanej-przez-ai i https://mkzpartnerzy.pl/prawo-autorskie-a-sztuczna-inteligencja-kto-jest-autorem-dziela-stworzonego-przez-ai/</p>



<p><a href="#_ftnref4" id="_ftn4">[4]</a> https://www.currenda.pl/prawa-autorskie-w-odniesieniu-do-utworow-tworzonych-przez-sztuczna-inteligencje-ai/</p>



<p><a href="#_ftnref5" id="_ftn5">[5]</a> https://www.traple.pl/en/trenowanie-ai-i-mechanizmy-opt-out-dla-uprawnionych-z-tytulu-praw-autorskich-w-ue-wciaz-wiecej-pytan-niz-odpowiedzi/ i https://cyberprawo.org/tdm-i-sztuczna-inteligencja i https://sodapl.com/stanowisko-soda-zmiana-ustawy-o-prawie-autorskim-i-prawach-pokrewnych/</p>



<p><a href="#_ftnref6" id="_ftn6">[6]</a> https://www.twobirds.com/en/insights/2026/taking-the-eu-ai-act-to-practice-understanding-the-draft-transparency-code-of-practice</p>



<p><a href="#_ftnref7" id="_ftn7">[7]</a> https://www.rpclegal.com/snapshots/technology-digital/spring-2026/eu-proposals-to-ensure-transparency-and-fair-remuneration-for-use-of-copyrighted-work-by-genai/ i https://www.rpclegal.com/snapshots/technology-digital/spring-2026/eu-proposals-to-ensure-transparency-and-fair-remuneration-for-use-of-copyrighted-work-by-genai</p>



<p><a href="#_ftnref8" id="_ftn8">[8]</a> https://scalevise.com/resources/eu-ai-act-2026-changes/ I https://www.globalpolicywatch.com/2026/02/european-parliament-proposes-changes-to-copyright-protection-in-the-age-of-generative-ai/ I https://silesialegalhouse.pl/text-and-data-mining-tdm-zasady-dozwolonego-uzytku/</p>
]]></content:encoded>
					
					<wfw:commentRss>https://lexalert.pl/generowanie-obrazow-przez-sztuczna-inteligencje-a-prawo-autorskie/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
