Czy prawo nadąża za rozwojem sztucznej inteligencji? Na co uważać przy korzystaniu z AI? W jaki sposób sprawdzić, czy wygenerowane treści są plagiatem? Na te oraz inne pytania związane ze sztuczną inteligencją i prawem odpowiada adwokatka Magdalena Korol.

Aby używać odtwarzacza, niezbędne jest wyrażenie zgody na przechowywanie plików cookies powiązanych z usługami odtwarzaczy. Szczegóły: polityka prywatności.

Tak, zgadzam się.

Słuchaj Treściwego Podcastu na swojej ulubionej platformie

Przeczytaj podcast

Marcin Cichocki: Cześć moi drodzy! Witam Was bardzo serdecznie w Treściwym Podcaście, w Treściwym Wywiadzie. Dzisiaj moją gościnią jest Magdalena Korol – adwokatka, która zajmuje się doradztwem prawnym w szeroko rozumianej branży kreatywnej. Doradza agencjom marketingowym, e-commercom, nowym technologiom, fashion, czy podmiotom, które zgłaszają się z problemami natury własności intelektualnej do Creativa Legal

Dzisiaj porozmawiamy sobie z Magdaleną o temacie tak na dobrą sprawę przegrzanym, a mianowicie o tym, w jaki sposób reguluje się kwestie związane ze sztuczną inteligencją oraz jej tworami – obecnie i być może w niedalekiej przyszłości. 

Jak to będzie wyglądało? W jaki sposób prawo nadąża (lub nie nadąża) za rozwojem technologii. Cześć Magdalena!

Magdalena Korol: Dzień dobry Marcin, witam wszystkich, którzy nas słuchają lub będą słuchać. Bardzo dziękuję za zaproszenie. Z przyjemnością z Tobą porozmawiam.

Rozwój sztucznej inteligencji, a krajobraz prawny

Marcin Cichocki: Zainspirowany Twoim bardzo rozległym i bardzo precyzyjnym wpisem na blogu, świetnie opisującym zjawisko wykorzystywania sztucznej inteligencji, a w zasadzie majątkowych praw autorskich do dzieł stworzonych za pomocą sztucznej inteligencji, pozwoliłem sobie Ciebie Magda zaprosić do Treściwego Podcastu. 

Pozwól, że najpierw zadam Ci takie bardzo ogólne i bardzo otwarte pytanie, a mianowicie – jak wprowadzenie sztucznej inteligencji i jej błyskawiczny rozwój, wpłynęło na obecny krajobraz prawny? Czy już powstają jakieś regulacje? Czy prawnicy biegają w panice w kancelariach i tworzą pewne rezolucje? Jak to wygląda?

Magdalena Korol: Może prawnicy nie biegają po kancelariach i nie rwą włosów z głowy, ale faktycznie mamy niezłą zagwozdkę, wynikającą z faktu, że sztuczna inteligencja święci swoje triumfy. Mogę powiedzieć, z pełną odpowiedzialnością, że przeżywa absolutny renesans. Technologia ta w ciągu ostatniego roku niesamowicie się rozwinęła i stworzyła niesamowite możliwości. Nawet ktoś kiedyś ładnie powiedział, przeczytałam taki cytat, że to w tej chwili nie będzie walka między robotami a ludźmi, tylko to będzie walka między ludźmi używającymi do swojej działalności AI i ich nieużywającymi. 

Natomiast, przechodząc na grunt prawniczy, niewątpliwie jest to spore wyzwanie dla nas, prawników, dlatego, że prawo nie nadąża za tymi regulacjami i musimy próbować wypracować jakąś ideę, wypracować jakieś rozwiązanie, tak, żeby sprawnie doradzać klientom, którzy z tych rozwiązań korzystają. Przykładowo, agencje marketingowe, które posiłkują się sztuczną inteligencją przy tworzeniu contentu, szeroko rozumianych treści dla swoich klientów. 

Prace na pewno intensywne już trwają i trwają w Parlamencie Europejskim. Coś ma się pokazać jeszcze w tym roku. Taki artificial intelligence act. Ciekawa jestem, jak to miałoby wyglądać, w jakiej to będzie formie. Czy to będzie dyrektywa, którą będą musiały wdrożyć kraje członkowskie w swój porządek prawny? Czy to będzie jakieś odgórne rozporządzenie bezpośrednio stosowane. Bardzo jestem ciekawa. Nie jestem legislatorem, tylko praktykiem, natomiast na pewno jest to spore wyzwanie, szczególnie właśnie w obszarze praw autorskich.

Na co warto uważać, korzystając z pomocy sztucznej inteligencji?

Marcin Cichocki: Ok. To przyjmijmy taki scenariusz, że prowadzimy agencję marketingową albo stawiamy jakiś nowy start-up i na jakie takie główne aspekty prawne powinniśmy wziąć poprawkę przy wdrażaniu rozwiązań sztucznej inteligencji? Na co przede wszystkim powinniśmy zwrócić uwagę, żeby nie obudzić się z ręką w nocniku?

Magdalena Korol: Ja bym rozróżniła dwie sytuacje. Jedna sytuacja jest taka, że załóżmy, jesteśmy start-up’em i pracujemy nad rozwiązaniem dotyczącym sztucznej inteligencji. Wtedy co do zasady możemy względnie spać spokojnie, dlatego że taki start-up, który opracowuje innowacyjne rozwiązanie, bazujący na sztucznej inteligencji, no to z reguły tworzy program, który podlega ochronie prawno-autorskiej jako program komputerowy. I tutaj nie mamy problemu. Tworzymy coś, musimy oczywiście zadbać o to, żeby zabezpieczyć wszystkie swoje prawa, zabezpieczyć się przed kopiowaniem itd.

Natomiast wydaje mi się, że większym wyzwaniem jest ta sytuacja, o której wspomniałeś, gdzie podmiot, przykładowo agencja marketingowa, posługuje się przy tworzeniu treści dla klienta sztuczną inteligencją. Wtedy mamy milion problemów (żartuję oczywiście). Na pewno jest kilka kluczowych. W jaki sposób tę sztuczną inteligencję wprowadzić? W jaki sposób o tym poinformować klienta? W jaki sposób zabezpieczyć się również przed kopiowaniem? Zacznę od początku. 

W sytuacji, kiedy agencja posiłkuje się takim contentem stworzonym przy pomocy sztucznej inteligencji, to musimy pamiętać, że to, co stworzy sztuczna inteligencja, nie jest utworem w rozumieniu prawa autorskiego i nie podlega ochronie prawnoautorskiej. Zgodnie z definicją ustawową, utworem jest każdy przejaw kreatywnej działalności o indywidualnym charakterze, natomiast musimy pamiętać o tym, że musi być to przejaw działalności indywidualnej i twórczej, ale człowieka. 

My, jako prawnicy, stoimy przed bardzo dużym wyzwaniem, jak uregulować kwestię tego, co to jest to, co stworzyła sztuczna inteligencja. Na pewno na tu i teraz, w oparciu o ustawodawstwo zarówno polskie, jak i europejskie, nie jest to utwór, czyli nie podlega ochronie prawno-autorskiej i wiążą się z tym zarówno przywileje, jak i konsekwencje. 

Pierwsza rzecz to agencja przede wszystkim musi ten fakt uwzględniać w umowie z klientem, bo nie może już dać klientowi do podpisania umowy bazującej na klasycznej klauzuli prawno-autorskiej albo nawet na udzieleniu licencji. Trzeba w umowie wprowadzić odpowiednie postanowienia, które wprost wskazują na fakt korzystania ze sztucznej inteligencji. 

Oprócz tego mamy do czynienia z sytuacją, gdzie sztuczna inteligencja wygeneruje coś na podstawie promptu i to, co agencja musi zrobić, to przede wszystkim uregulować kwestie odpowiedzialności za ewentualne naruszenia przez sztuczną inteligencję czyiś praw – czy to praw autorskich, czy dóbr osobistych, praw osobistych, majątkowych. Musimy pamiętać o tym, że sztuczna inteligencja bazuje na tym, co znajdzie w internecie. Oczywiście ten prompt to jest pewnego rodzaju wskazówka, ale dlaczego teraz GT Images pozwał jednego z autorów oprogramowania generującego treści w oparciu o sztuczną inteligencję za wykorzystywanie obrazów, które znajdują się w tej bazie. 

Zobacz, z jaką sytuacją mamy do czynienia. Sztuczna inteligencja się uczy, ale uczy się w oparciu o dostarczony materiał. A ten materiał, to jest np. 6 miliardów zdjęć, które ona obejmuje swoją pamięcią i na podstawie tego tworzy coś. No ale te zdjęcia zostały początkowo stworzone przez jakiegoś twórcę, któremu przysługują prawa autorskie. I może dojść do takiej sytuacji, że korzystając czy to z zapytania, czy to wspierając się jakąś grafiką, sztuczna inteligencja coś dla agencji wytworzy i w wyniku tego wytworzenia, dojdzie do naruszenia praw autorskich twórcy. W umowie agencyjnej trzeba bez wątpienia przesądzić kwestię, kto wtedy za taką sytuację odpowiada prawnie.

Gdzie zaczyna się dzieło stworzone przez człowieka, a gdzie kończy twór AI?

Marcin Cichocki: To wszystko brzmi logicznie i tak dość pragmatycznie. Urodziło mi się kilka pytań, związanych z Twoją odpowiedzią. Pierwsze jest takie: o ile sztuczna inteligencja wytworzy pewną rzecz i nie mamy wątpliwości, że to zostało w 100% wygenerowane przez sztuczną inteligencję i jako takie nie ma ochrony prawnoautorskiej, to co w sytuacji, w której człowiek redaguje tekst, czy to dorabia grafikę, taką wygenerowaną przez AI? Gdzie zaczyna się dzieło stworzone przez człowieka, a gdzie kończy się ten twór wygenerowany przez AI?

Magdalena Korol: To jest bardzo ciekawe pytanie. To znowu jest sięganie do kwestii, kiedy kończy się inspiracja i zaczyna plagiat i kiedy zaczyna się twórczość tego człowieka. Nie ma takich regulacji, które mówią, że jak się zmieni w jakimś dziele 20 czy 30%, to można spać spokojnie, bo się nie narusza czyjegoś prawa autorskiego. To tak nie działa. Za każdym razem to podlega indywidualnej ocenie. 

Czyli mamy takie trzy stany. Mamy inspirację, utwór zależny (tzw. opracowanie) i plagiat, czyli kradzież intelektualną, czyli skopiowanie po prostu 1:1 albo też w dużej części czyjejś twórczości, czyjegoś utworu. Teraz, przekładając to na grunt związany ze sztuczną inteligencją i nawiązując do Twojego pytania, to mamy sytuację taką, że sztuczna inteligencja tworzy coś, co utworem nie jest. Jest to kompilacja jego quasi-twórczej, kreatywnej, ale nie w takim sensie jak kreatywność człowieka, ale jednak jest to jakaś twórcza działalność, aktywność. 

Sztuczna inteligencja to tworzy, później obrabia to człowiek. I teraz tak naprawdę, im on bardziej to obrobi, im bardziej da ten swój pierwiastek twórczy, tym bardziej możemy mówić o utworze – że on się po prostu posiłkował, inspirował, sugerował, no bo przecież też sztucznej inteligencji możemy używać do inspirowania się, jeśli chodzi o tworzenie jakiegoś contentu, pomysłu itd. Jeżeli sztuczna inteligencja poddaje jakiś pomysł, który następnie człowiek, mówiąc kolokwialnie, bierze na warsztat i nadaje mu ten sznyt twórczy, indywidualny, oryginalny, no to wtedy możemy z dużym prawdopodobieństwem powiedzieć, że człowiek stworzył utwór, inspirując się sztuczną inteligencją. 

Natomiast jeżeli te zmiany są nieznaczne, jeżeli to jest kosmetyka, bo jeżeli prompt jest dobrze przygotowany, to ona radzi sobie bardzo dobrze – czasami wystarczą drobne korekty – to wtedy mamy już problem. To nie jest utworem, nie podlega ochronie prawnoautorskiej. Z jednej strony ok, ale z drugiej strony – sprzedając coś takiego później klientowi, my musimy klienta o tym poinformować, że to stworzyła sztuczna inteligencja, z wszystkimi konsekwencjami, które się z tym wiążą. Abstrahuję od tego, że regulaminy większości tych wszystkich narzędzi mówią, że my mamy obowiązek informować, że korzystaliśmy przy tworzeniu czegokolwiek z wykorzystaniem sztucznej inteligencji. Dla mnie odpowiedzialność kontraktowa agencji w stosunku do klienta jest bezapelacyjna. My musimy poinformować klienta, że korzystała ze sztucznej inteligencji, bo to, co przekazuje, nie podlega ochronie. 

Teraz wyobraźmy sobie, jakie to są konsekwencje dla takiej agencji. Agencja tworzy jakieś, logo, key visual, grafiki w oparciu o sztuczną inteligencję i nie informując o tym klienta, może go narazić np. na takie konsekwencje, że jego konkurencja mogłaby z tego zdjęcia skorzystać, bo jeżeli znajdzie je w zasobach, to może je wykorzystać i tutaj nie ma zarzutu naruszenia praw autorskich. Tutaj może być ewentualnie czyn nieuczciwej konkurencji. 

Odpowiedzialność agencji kontraktowa to jest bardzo ważna. Może być sytuacja taka, że ktoś po prostu będzie przekonany, że ma jakiś utwór na wyłączność, bo zostało mu to przekazane przez agencje, a np. do klienta zgłosi się twórca, który mówi, słuchaj, ta treść, którą się posługujesz, grafika czy key visual, logo jest absolutnie plagiatem mojej działalności, mojej twórczości. I teraz – co robi klient? Idzie do agencji. A agencja, która nie informuje o tym, że korzystała ze sztucznej inteligencji, znowu wrzuca się na przysłowiową minę, bo tak naprawdę jest odpowiedzialna za ten plagiat. 

Musimy pamiętać o tym, że ten plagiat, czyli naruszenie czyjejś własności intelektualnej może być umyślny albo nieumyślny. Nie skupiajmy się na tym, że zrobiła to sztuczna inteligencja i my umywamy ręce. Nie, użytkownik, który z tego korzysta, to on ponosi odpowiedzialność. I albo ponosi odpowiedzialność z tytułu naruszenia czyichś praw autorskich, albo ponosi odpowiedzialność kontraktową w stosunku do swojego klienta, bo nie poinformował go i nie uregulował tych kwestii w umowie. Proste, nie? 

Powiedziałam o inspiracji, powiedziałam o plagiacie, natomiast nie powiedziałam o prawie zależnym. Z prawem zależnym jest taka sytuacja, że bierzemy czyjś utwór i go opracowujemy. To jest np. kwestia tłumaczenia książki, wykorzystanie bazy czyjejś twórczości i dodanie swoich elementów twórczych – powstaje wtedy opracowanie, czyli prawo zależne. Natomiast to, co tworzy sztuczna inteligencja, prawem zależnym nie może być, znów z uwagi na to, że prawo zależne, tak jak utwór, może stworzyć wyłącznie człowiek. 

Jakbym miała to gdzieś tam klasyfikować, jakby np. doszło do takiego naruszenia czyichś praw autorskich, to bym powiedziała, że to, co stworzyła sztuczna inteligencja, co nosi niskie znamiona ingerencji człowieka, czyli tej obróbki, to będzie takie specyficzne, niezależne pole eksploatacji, na które, jak wszyscy wiemy, potrzebna jest zgoda twórcy. 

Jak sam widzisz, problemów prawnych, które powstają w wyniku korzystania ze sztucznej inteligencji, jest mega dużo. Jeżeli miałabym cokolwiek rekomendować, to na pewno transparentność w działaniu i mówienie wprost, że posługujemy się sztuczną inteligencją, w jakim zakresie i uregulowanie z klientem kwestii odpowiedzialności na wypadek tzw. fuckup’u. 

Marcin Cichocki: Czyli, nie wiem, czy dobrze zrozumiałem. Załóżmy, że Chat GTP wygeneruje nam jakiś tekst po angielsku i my go przetłumaczymy i lekko dorobimy coś od siebie, zrobimy jakąś korektę i wówczas tego typu utwór będzie dziełem? Czy będzie dziełem na zasadzie praw zależnych w ramach przeróbki tego utworu wygenerowanego przez AI, czy nie?

Magdalena Korol: Wiesz co, nie będzie prawem zależnym, bo prawo zależne może stworzyć człowiek. Człowiek tworzy opracowanie innego utworu człowieka. A w sytuacji, kiedy mamy do czynienia, że to robi AI, to ja już pomijam, że w przypadku takiego luźnego tłumaczenia, że ja sobie coś znalazłam w internecie i sobie to przetłumaczyłam, to pytanie też o twórczy charakter. Nie każdy tekst nosi na tyle znamiona oryginalności, że jest utworem. Może to być jakaś zbitka słowna, my to możemy sparafrazować itd. 

Natomiast jeżeli mówimy np. o książkach albo cytatach, czymś, co ma niewątpliwie ten walor utworu, no to wtedy faktycznie mamy problem, bo to nie będzie prawo zależne, tylko to będzie to specyficzne pole eksploatacji. Jeżeli np. pokusimy się o zrobienie tłumaczenia fragmentu książki i sztuczna inteligencja to dla nas zrobi, to może dojść podwójnie do naruszenia czyichś praw autorskich. 

Może dojść do naruszenia prawa autorskiego przysługującego twórcy oryginału w danym języku, a może również dojść do naruszenia praw do tego tłumaczenia, bo tłumaczenie jest osobnym utworem, utworem zależnym, ale osobnym utworem. Jeżeli sztuczna inteligencja, mówiąc wprost, zasysa nam z internetu i robi taką kompilację, to nie jest wykluczone, że ona może wziąć czyjeś tłumaczenie i wtedy naruszamy prawa zarówno do oryginału, jak i do tłumaczenia.

Natomiast w przypadku takich prostych, codziennych tekstów, np. 3 protipy jak zrobić dobrze coś, bo na tym generalnie bazują te prompty, albo wygeneruj mi 10 najlepszych sposobów na coś tam, albo 10 jakichś wskazówek dotyczących czegoś tam, no to raczej to nie będą takie treści, które podlegałyby ochronie prawnoautorskiej same w sobie. Więc tutaj bym się tego nie bała. 

Bardziej zwracałabym uwagę agencjom, jeżeli mamy tworzone grafiki, obrazy albo zdjęcia, które obejmują wizerunek osób, bo może się okazać, że naruszamy też prawo do wizerunku. Ja mówiłam o tym, że to są prawa autorskie, dobra osobiste, ale też prawa osobiste, czyli prawo do wizerunku. Na to bym zwracała uwagę. Jeszcze na jedną rzecz bym zwracała uwagę – jeżeli my wrzucamy w narzędzie posługujące się sztuczną inteligencją jakieś zdjęcie i robimy do tego prompta, że słuchaj, wygeneruj mi podobne zdjęcie albo wygeneruj mi zdjęcie, które jest w podobnej stylówce (wiadomo, ten prompt musi być dobrze opisany, ja tutaj improwizuję), to musimy pamiętać o tym, że agencja powinna mieć prawa do zdjęcia, które jest pierwowzorem do działań sztucznej inteligencji. 

Jeżeli to zdjęcie obejmuje wizerunek, to zarówno prawo do dysponowania tym zdjęciem, czyli np. prawo autorskie bądź licencja do wykorzystywania zdjęcia i zgoda w zgodzie, czyli prawo do wizerunku osoby utrwalonej na tym zdjęciu. To jest też kwestia taka, że materiały źródłowe są przede wszystkim objęte prawami autorskimi i prawem do wizerunku i agencja, która wrzuca takie zdjęcie, powinna mieć świadomość, że powinna mieć prawo do wykorzystywania tego zdjęcia. 

Marcin Cichocki: Bardzo skomplikowane.

Magdalena Korol: To jest bardzo skomplikowane, ja staram się uprościć to maksymalnie, tłumacząc to swoim klientom, czy w podcaście, czy pisząc artykuły. Wracając do Twojego pierwszego pytania, wyzwań jest ogromna ilość i tak naprawdę przyjmując pewne rozwiązania, my czasami jako prawnicy możemy dawać się zapętlać w taki kozi róg. 

Tu trzeba bardzo uważać. Jak dajemy rekomendacje, musimy analizować sytuacje kompleksowo. Ja też zachęcam agencje do podchodzenia do tematu kompleksowo i do informowania kompleksowo, na jakim etapie, co wykorzystujemy, gdzie mamy te prawa i następnie co się z tym dzieje, jak już sztuczna inteligencja się weźmie za te zdjęcia, którymi się posługujemy.

Chociaż z drugiej strony wiesz, jest to skomplikowane, ale jest to do ułożenia. Może tak bym powiedziała. Nie chcę brzmieć tak fatalistycznie. Uważam, że jest to wszystko do ułożenia, tylko wymaga to gruntownego przemyślenia i szczerej rozmowy i grubej konsultacji agencji z prawnikiem, do czego osobiście zachęcam. 

Jak na gruncie prawnym wygląda przekazanie klientowi tworu AI?

Marcin Cichocki: Ok, czyli przyjmijmy taki scenariusz, że wygenerowaliśmy sobie coś za pomocą sztucznej inteligencji, poinformowaliśmy o tym klienta, że to jest stworzone za pomocą AI i chcemy mu to przekazać, żeby mógł sobie tym dysponować. Czy w ogóle na gruncie prawnym można mu to przekazać i czy on może sobie to eksploatować na różnych polach? Jak wygląda tego typu sytuacja?

Magdalena Korol: No tutaj mamy do czynienia z taką sytuacją, że owszem, możemy. Nie przekazujemy tego w klauzuli prawnoautorskiej, ale przekazujemy prawo do tego, co wygenerowaliśmy, zwłaszcza jeśli jeszcze ktoś nad tym w agencji pracował i podrasowywał to, ulepszał, likwidował te palce czy te zęby nadmiarowe. Przekazujemy prawa do korzystania z tego.

Natomiast wiadomo, że musimy zabezpieczyć się jako agencja przed tym, że gdyby się okazało, że jednak doszło do naruszenia jakichś praw osób trzecich, to kto za to odpowiada? Czy klient to przyjmuje do wiadomości i on w razie czego ponosi odpowiedzialność, czy jednak ponosi odpowiedzialność za to agencja, bo ona np. wcześniej zrobiła research, czy takie grafiki się pojawiają w internecie, bo to można zrobić.

Też nie można abstrahować trochę od regulaminów narzędzi, które się oczywiście zmieniają dość często, ale te regulaminy też są w wersji płatnej, w wersji bezpłatnej, one są na licencjach creative commons, są na licencjach full opcji itd. Trzeba te wszystkie czynniki wziąć pod uwagę. 

Kto odpowiada za ewentualny plagiat?

Marcin Cichocki: A to nie jest tak, że za plagiat odpowiada ten podmiot, który opublikował dane dzieło?

Magdalena Korol: No właśnie tutaj mamy taką fajną odpowiedzialność schodkową. Bardzo ciekawe pytanie. Mamy taką odpowiedzialność schodkową, bo tak, jak już powiedziałam, odpowiedzialność za naruszenie praw autorskich jest oderwana od winy. Po prostu naruszasz – odpowiadasz, mówiąc w skrócie. 

Przejdźmy sobie tę ścieżkę współpracy agencja-klient. Klient dostaje materiał, pominę w tej chwili kwestię umowy, co powinno znaleźć się w tej umowie, bo już wystarczająco tutaj odpowiedziałam. Zgłasza się do klienta, który wykorzystuje logotyp, grafikę, cokolwiek stworzone przez agencję w swojej działalności zawodowej twórca. Mówi, droga marko, droga firmo, to czym się posługujecie, jest plagiatem mojej twórczości. I oczywiście, marka odpowiada. 

W zależności od tego, co marka ma w umowie, co firma dana, klient agencji ma wpisane w umowie z agencją to, jeśli ma dobrze to uregulowanie, to ma tzw. prawo regresu, które mówi o tym, że albo ten twórca pozwie mnie jako firmę, a ja wtedy skieruję wszystkie swoje roszczenia na agencję, która za to odpowiada, albo agencja przystąpi do takich rozmów ugodowych, albo przystąpi do takiego postępowania sądowego i wstąpi w moje miejsce w charakterze strony, bo ja za to nie odpowiadam, albo klient to np. wziął na przysłowiową klatę i klient wtedy za to odpowiada. Scenariuszy jest bardzo dużo. 

Mówiąc o odpowiedzialności schodkowej, chodziło mi o odpowiedzialność kontraktową. Nawet jeżeli twórca przyjdzie do marki, bo marka de facto finalnie się posługuje tym efektem pracy agencji stworzonym przy wykorzystaniu AI, to agencja jak najbardziej może za to odpowiadać. Dlatego ważne jest tak bardzo, co jest w tych umowach. Finalnie klient przychodzi do agencji, agencja mówi ups, mamy kryzys. 

Ja nawet nie w kontekście sztucznej inteligencji, ale napisałam taki artykuł o kryzysie w agencji, kiedy zgłasza się do klienta twórca, który mówi, że jego prawa zostały naruszone. To nie było w kontekście AI, bo wtedy to AI nie było tak rozbuchane, ale już wtedy były problemy, z tym że agencje wielokrotnie popełniały plagiaty, zbytnio sugerując albo inspirując cudzą twórczością. Albo jakiś content manager czy manager nie miał świadomości prawnej na tyle dużej, żeby wiedzieć, że nie może sobie tak wziąć zdjęcia z internetu bez zbadania jego źródła i po prostu wziął to zdjęcie, źródło nie zostało ustalone, a okazało się, że jest to czyjś utwór, za co agencja bez wątpienia odpowiada.

Więc dla mnie np. szkolenia pracowników w obszarze własności intelektualnej, a teraz już w ogóle w obszarze AI no to jest must have każdej porządnej agencji. 

Marcin Cichocki: A dużo macie spraw, w których faktycznie ten plagiat zostaje wykrywany, który został wygenerowany przez AI?

Magdalena Korol: Coraz więcej. Znaczy mamy sprawy bardzo różne, jeśli chodzi o AI. Najczęściej są to sprawy, w których agencje zwracają się do nas w celu zredagowania, przygotowania, opracowania dla nich takiej klauzuli, żeby móc ją przedstawić klientowi. 

W kontekście plagiatów to raczej mamy takie konsultacje i zapytania, co robić, na razie. Bo temat jest dość świeży. Nie mieliśmy takiej sprawy, że wprost ktoś przychodzi. Mieliśmy sprawy na gruncie naruszenia samych praw autorskich, to co już powiedziałam wcześniej. Stąd powstał ten artykuł, żeby też uczulić agencje na tego rodzaju niefrasobliwe działania ich managerów czy tam członków zespołu. Natomiast temat ten na pewno pojawi się prędzej niż później.

W jaki sposób sprawdzić, czy twój AI jest plagiatem?

Marcin Cichocki: No właśnie tak się zastanawiam, w jaki sposób możemy sprawdzić, czy dane dzieło stworzone przez AI jest przeróbką lub plagiatem. No bo jak to wykryć?

Magdalena Korol: No chociażby przez search by image.

Marcin Cichocki: No dobra, ale poza tym. Np. w jaki sposób moglibyśmy jakiś tekst wyczaić? Albo nawet search by image, ok, pytanie, na ile on jest skuteczny w przypadku detekcji dzieł, które zostały w jakiś sposób zmienione i gdzie tutaj się rozmywa jego efektywność w znajdowaniu plagiatów graficznych.

Magdalena Korol: Znaczy wiesz co, jeśli się rozmywa efektywność w znajdowaniu plagiatów graficznych, to znaczy, że sztuczna inteligencja dobrze zrobiła swoją robotę i prawdopodobnie do plagiatu nie dojdzie. Bo jeżeli masz search by image i faktycznie nic się nie znajduje, co jest choćby zbliżone do tego, co wygenerowała sztuczna inteligencja, to możesz spać spokojnie. 

Oczywiście pod tymi warunkami, że z założenia każdy powinien mieć skorzystania z tego, więc też trochę odpada nam tu kwestia takiej wyłączności, którą mamy przy utworach i przy przekazaniu praw autorskich albo np. przy udzieleniu licencji wyłącznej. 

Natomiast co do tekstu, to również wpisywanie całych fraz w tekst i patrzenie, tylko tak jak mówię, to jest problem w mojej ocenie marginalny, jeśli chodzi o takie proste treści, takie proste zapytania. Nie mam na to innej odpowiedzi, dlatego że podejrzewam, że się pojawią różnego rodzaju programy, które będą umożliwiały takie searchowanie. 

Natomiast na pewno okolicznością w pewnym stopniu łagodzącą odpowiedzialność jest takie dołożenie należytej staranności, że ktoś jednak się pokusił o ten research i nic mu z tego researchu nie wyszło. Wiadomo, że Google nie jest doskonałą wyszukiwarką i zawsze może się zdarzyć jakiś problem, ale na ten moment nie mam, szczerze mówiąc, innej rekomendacji, jak można by to weryfikować. 

Alternatywą byłaby duża ingerencja człowieka w to, co dostarczy mu sztuczna inteligencja. Czyli dodanie tego pierwiastka twórczego, kreatywnego, gdzie można już mówić o twórczości i można już mówić o utworze. To, co nam tworzy sztuczna inteligencja, jest niejako inspiracją do dalszej naszej aktywnej twórczości, którą moglibyśmy następnie przekazać klientowi, bazując na tym, że będzie to utwór.

Jak będzie wyglądała kwestia rejestracji znaków słownych i słowno-graficznych stworzonych przez AI?

Marcin Cichocki: Zastanawiam się, jak wygląda, albo jak będzie niedługo wyglądała kwestia rejestracji znaków słownych, słowno-graficznych, trademarków w przypadku dzieł stworzonych przez AI i czy np. jeśli, załóżmy, urząd, który jeszcze jest technologicznie niezbyt rozwinięty, zatwierdzi, załóżmy, taki trade mark, a później ktoś go zaskarży. 

Czy jest opcja, że taki trademark zostanie cofnięty, bo np. został nałożony na dzieło wygenerowane przez AI, które jest plagiatem, albo nie został wykryty plagiat, tylko po prostu odkryliśmy, że to zostało stworzone przez AI więc nie ma tych praw autorskich do tego dzieła.

Magdalena Korol: No to jest bardzo ciekawe i wielowątkowe pytanie, bo jeżeli chodzi o rejestrację znaków towarowych, to pierwszą rzeczą, od której trzeba zacząć, to jest właśnie umowa przenosząca prawa autorskie do tego znaku, logotypu, sygnetu, herbu – w zależności od tego, co jest tym znakiem towarowym, czy to jest wymyślone słowo, czy to jest słowo+grafika, czy to jest sama grafika. 

Zawsze mówimy klientom, że muszą zaczynać od tego, kto to stworzył. Jeżeli klient dostaje taką księgę znaku i następnie decyduje się na rejestrację i okazuje się, że to zostało stworzone przy pomocy sztucznej inteligencji, no to mamy trochę problem w dwóch przypadkach. 

W pierwszym przypadku mamy problem taki, że jeżeli by to było takie 1:1, czego nie rekomenduje, to nie dość, że nie mamy tego utworu i nawet jak agencja przeniesie na klienta prawa, to z założenia, że ta cała twórczość sztucznej inteligencji jest dostępna w stosunku do wszystkich, no to ktoś może rościć sobie prawo do tego, że może się też posługiwać danym logotypem. 

Oczywiście my tu się poruszamy w obszarze prawnoautorskim, a pomijamy takie argumenty wynikające z czynów nieuczciwej konkurencji, które tutaj przychodzą z pomocą.

No bo jeżeli nawet logo zostało stworzone przez sztuczną inteligencję, ja je zarejestrowałem, bo ma to zdolność rejestrową, spełnia przesłanki z ustawy dotyczące rejestracji, a drugi przedsiębiorca powie, dobrze, to ja się mogę tym logotypem posługiwać, bo on został stworzony przez sztuczną inteligencję, to to też nie do końca będzie prawda, bo oczywiście, temu klientowi nie przysługują prawa autorskie do tego logotypu, ale tak naprawdę przysługują jakieś prawa, które sobie może rościć, bo zamówił u agencji, bo pracował nad tym logotypem itd. i stworzył identyfikację wizualną swojej firmy. 

Jeżeli drugi przedsiębiorca nie ingeruje w tę identyfikację wizualną i chce się posługiwać tym samym znakiem, to to też nie do końca tak działa, bo wtedy mamy do czynienia z tym reżimem z czynów nieuczciwej konkurencji. I akurat przy znakach towarowych, gdzie tutaj EUIPO jest dość prężnie działającą organizacją, nam się bardzo współpracuje z EUIPO, mamy różne casy, na różnym etapie i oni są bardzo fajnie zautomatyzowni, zinternetyzowani, więc komunikacja się odbywa w sposób poprawny, prawidłowy i sprawny. 

Podejrzewam, że EUIPO będzie musiało zastanowić się nad tym problemem, natomiast na tu i teraz to ja uważam, że to nie jest aż taki duży problem, w sytuacji oczywiście, gdy agencja poinformuje klienta, że korzystała ze sztucznej inteligencji i poinformuje go o tych ewentualnych możliwych ryzykach. 

Żebyśmy nie zachęcali innych przedsiębiorców do bycia takimi cwanymi gapami i mówienia, a stworzyłeś to sobie ze sztucznej inteligencji, to w takim razie ja Ci po prostu wezmę tę nazwę. No nie, to tak na pewno nie będzie to działać. Przynajmniej mam takie głębokie przekonanie i tak widzę to ja osobiście, Magda Korol.

Regulaminy narzędzi AI

Marcin Cichocki: Ok, to może jeszcze trochę porozmawiamy o regulaminach narzędzi generujących treści, utwory za pomocą AI. Wspomniałaś o nich wcześniej. No i właśnie, w jaki sposób regulaminy np. Journey, Chat GPT, DALL-E, tych takich najpopularniejszych narzędzi do generowania cyfrowych treści, w jaki sposób one regulują wykorzystywanie tych utworów, które zostały za ich pomocą wygenerowane?

Magdalena Korol: Wiesz, co przede wszystkim, to à propos tych regulaminów bym zaczęło od tego, żebyśmy zaczęli je czytać. Bo nie czytamy regulaminów i konia z rzędem temu, kto przeczytał regulamin Instagrama, jak się do niego zapisywał, albo Facebooka. Zachęcam jednak do czytania, przynajmniej głównych postanowień dotyczących regulacji właśnie takich około autorskich i tych naruszeniowych i odpowiedzialności. 

Co do zasady, te regulaminy ściągają z siebie odpowiedzialność, tak jak FB i Instagram ściągają z siebie odpowiedzialność za naruszenia praw osób trzecich, tak te regulaminy również ściągają z siebie tę odpowiedzialność. Na pewno twórcy narzędzi nie ponoszą odpowiedzialności za plagiaty popełnione za AI. Ponosi ją użytkownik, który z tego korzysta. 

To, co jest bardzo ważne, to te regulaminy nakazują w większości albo domyślnie, albo wprost wskazywać, dawać informację, jeżeli coś publikujemy, że to zostało stworzone przy użyciu sztucznej inteligencji. Mało kto to robi. Zastanawiam się, jak to będzie egzekwowane. Poza tym jednak musimy pamiętać o tym, że jak coś tworzymy w tych zasobach i udostępniamy to, to każdy może z tego później korzystać. My nie mamy wyłączności na to, co nam stworzyła sztuczna inteligencja. 

I jeszcze na jedną rzecz zwróciłabym uwagę. Na zasoby płatne i bezpłatne. Bo tutaj zakres tych licencji on się różni. Może się okazać, że narzędzie, z którego korzystamy w wersji bezpłatnej, daje nam możliwość tylko na non-commercial use, czyli na użytek niekomercyjny, bo ma licencję creative commons. A dopiero kiedy wykupimy wersję płatną, to możemy skorzystać z tego komercyjnie. 

Więc jakbym zebrała w pigułce wszystkie regulaminy tych narzędzi, o których mówiłeś, to pomiędzy nimi są subtelne różnice. Natomiast reguły są takie, że twórca narzędzia, załóżmy ten start-up, o którym wspomniałeś na początku, który tworzy to narzędzie, on ściąga z siebie całkowicie odpowiedzialność. Nie ponosi odpowiedzialności za to, co się dzieje. A odpowiedzialność tą ponosi użytkownik. 

Również tutaj zwracam uwagę, bo może to nie jest takie kluczowe, ale też trzeba pamiętać, że też te narzędzia wyraźnie wskazują, że nie można z pomocą tych programów tworzyć treści dyskryminujących, treści hejterskich, nawołujących do jakichś mów nienawiści, rasistowskich itd.

Tutaj też jest kwestia tych wszystkich fake newsów, jak się przed tym bronić i dla mnie np. o ile to uregulowanie tych praw autorskich, o których sobie rozmawiamy, jest ważne, to uważam, że ważniejsze jest zapobiegnięcie i tutaj pokładam dużą nadzieję w Parlamencie Europejskim, zapobieganie takim patologiom, że ktoś jest w stanie wywołać niezły rozgardiasz, publikując fałszywy obraz lub komunikat. 

Mieliśmy już takie fake newsy z szarpaniną byłego prezydenta USA itd. Wiadomo, że na pewnym etapie jest to do wykrycia przez ilość palców czy ilość zębów, ale te mankamenty sztucznej inteligencji zostały już wyeliminowane. Też umówmy się, kto też liczy te palce.

My mamy taką ilość informacji do przyswojenia dziennie, że my nie weryfikujemy z uwagą tych informacji, które nam się dostarcza. Wydaje mi się, że tym się powinni zająć legislatorzy, żeby jednak dusić te fake newsy, które już są teraz i zawsze były, jakieś virale itd. To jest dla mnie duże niebezpieczeństwo wynikające z rozwoju sztucznej inteligencji. Tak troszkę około tematu, ale chciałam o tym powiedzieć, bo to jest ważne.

Weryfikacja wiarygodności tworów AI

Marcin Cichocki: Zastanawiam się, jak niedługo będziemy się uwiarygadniać jako ludzie, np. właśnie politycy czy jakieś VIP-y, czy np. powstanie jakaś bio sygnatura, którą będziemy umieszczać do wideo, żeby uwiarygodnić, że to faktycznie dana osoba nagrywała, a nie deepfake. 

Wracając na tory naszej rozmowy, mówiłaś o tym, że narzędzia nie mogą być wykorzystywane do szerzenia mowy nienawiści, do generowania fake newsów itd. Ale jak ma się do tego halucynacja AI, która co do zasady generuje fake newsy i to wynika z ograniczeń technologicznych. Więc jakby ten regulamin, no trochę godzi w samo funkcjonowanie narzędzi.

Magdalena Korol: Wiesz, ale tak naprawdę to odpowiedzialność jest ten, który używa tego narzędzia. I oczywiście ta halucynacja AI, świetny termin, to jest właśnie to, że sztuczna inteligencja zaklina rzeczywistość. Tak naprawdę my posługując się sztuczną inteligencją, bez wątpienia musimy weryfikować to, co ona nam podsuwa. Bo te wiadomości, te informacje, te rzeczy, one są szalenie wiarygodne i brzmią sensownie. Do tego została przyuczona sztuczna inteligencja.

Natomiast to, że ona generuje rzeczy nieprawdziwe, to jest niewątpliwe i cała nadzieja w tym rozsądnym użytkowniku i tym, który wykorzystuje, który redaguje. Trzeba pokładać nadzieję w ludziach. Ja pokładam bardzo dużą nadzieję w ludziach. My nie mamy wyjścia. Bo to, o czym mówiłeś – jeżeli sztuczna inteligencja jest w stanie wygenerować z próbki głosu całe wypowiedzi, całe ciągi wypowiedzi, mamy przykład Leonardo di Caprio, który mówi głosem Kim Kardashian. 

Marcin Cichocki: To w ogóle zrobił polski start-up.

Magdalena Korol: No w ogóle bajka, nie? Ale to jest absolutne niebezpieczeństwo wywołania jakiegoś stanu zagrożenia, nie mówiąc o wojnie. Więc ja nie mam wyjścia jako prawniczka, ja pokładam bardzo dużą nadzieję w tych użytkownikach, że kiedy się bawimy, to się bawimy, ale kiedy dostrzegamy zagrożenia, to dostrzegamy. Szczególnie pokładam duże nadzieje w tej legislacji europejskiej.

Stany Zjednoczone to swoją drogą, ale jak Stany Zjednoczone już zobaczyły problem w tym bardzo poważny, no to absolutnie nie możemy bagatelizować tych zagrożeń wynikających oczywiście z tych wspaniałych szans, które nam daje sztuczna inteligencja. 

Legislacje dotyczące sztucznej inteligencji

Marcin Cichocki: Ok, no właśnie wspomniałaś o Parlamencie Europejskim. Czy możemy oczekiwać w jakiejś niedalekiej przyszłości jakichś konkretnych regulacji, które dotyczą wykorzystania AI nawet nie tylko w Polsce, ale przede wszystkim globalnie, na świecie? 

Mam nadzieje, że jakaś poważniejsza instytucja będzie trzymała nad tym pieczę, albo przynajmniej samą legislację poprowadzi w taki sposób, żeby ona miała faktycznie ręce i nogi. Jak myślisz?

Magdalena Korol: Wiesz co, to co już wspominałam, Parlament Europejski mocno nad tym proceduje. Ja nie jestem legislatorem, natomiast uważam, że to bez wątpienia musi zostać uregulowane. Szczególnie w tym obszarze niebezpiecznym, o którym mówiliśmy. 

Musi to być też uregulowane w obszarze poszanowania praw autorskich i tej twórczości. Zrobiła nam się trochę wolna amerykanka. Ja już pomijam fakt, że prawa autorskie były dość często traktowane po macoszemu, prawda? Szczególnie na rynku polskim, jeszcze zanim pojawiła się sztuczna inteligencja. 

Teraz mamy sztuczną inteligencję i wydaje się, że jest trochę wolna amerykanka, bo jeżeli to zrobi sztuczna inteligencja, to nie ja. Mnie się osobiście wydaje, że tutaj oprócz zmian legislacyjnych, ale takich zdecydowanych kroków jednak dotyczących ukrócenia tego, my powinniśmy skupić się mocno na edukacji. Bo ja bardzo mocno wierzę w siłę edukacji. Jeżeli zabraniasz komuś robienia czegoś, nie mówiąc dlaczego, no to zawsze to rodzi jakiś bunt, taki wewnętrzny i chęć próbowania. 

Natomiast jeżeli wiesz, dlaczego albo zdajesz sobie sprawę z konsekwencji i nieuchronności tych konsekwencji, bo to też jest ważne, ta nieuchronność kary za popełnione nadużycie/naruszenie itd. Nieuchronność kary, ona też powinna przynosić takie efekt. Teraz mamy taką sytuację, że prawa autorskie są traktowane nonszalancko, a co dopiero to, co zostało wygenerowane przez sztuczną inteligencję. Odpowiadając na Twoje pytanie – bardzo wierzę w to, że w tym roku coś się już pojawi. 

To tak, jak, stosując taką delikatną analogię, oznaczanie postów sponsorowanych przez influencerów. Były rekomendacje płynące z Wielkiej Brytanii, były dobre praktyki płynące ze Stanów Zjednoczonych, a każdy miał to, za przeproszeniem, w nosie. Dopiero UOKiK wydał te rekomendacje, zaczął karać i padł blady strach. 

Ja nie chcę oczywiście wprowadzać tutaj państwa policyjnego. My i tak mamy już wystarczająco dużo wszelkich ograniczeń, które gdzieś tam blokują nasze wolności i swobody obywatelskie, ale uważam, że wszystko musi odbywać się w jakiś cywilizowany sposób, z poszanowaniem interesów różnych grup. Więc na pewno poszanowanie interesów agencji różnego rodzaju, czy ludzi kreatywnych, którzy mają prawo posiłkować się tą sztuczną inteligencją i to jest niewątpliwe. 

Również poszanowaniem praw twórców, którzy teraz mają potężny dylemat, bo ich twórczość jest wsysana do uczenia się przez maszyny, na podstawie ich twórczości maszyny się uczą, a potem na podstawie ich twórczości generują plagiaty. No to też coś tutaj nie gra, prawda? Chciałabym, może skończę tak naiwnie, że chciałabym, żeby został wypracowany jakiś taki kompromis fajny, mądry.

Czy prawa autorskie stają się reliktem?

Marcin Cichocki: Jeszcze jedno takie pytanie, bo w zasadzie ostatnio parę razy spotkałem się z taką myślą, czy w obliczu tak zmieniającego się świata wokół nas i rozwoju technologii, w zasadzie kolejnej rewolucji technologicznej, którą przechodzimy, czy prawa autorskie nie stają się powoli reliktem, który jest takim naszym z jednej strony bezpiecznikiem, ale też i hamulcowym w rozwoju ludzkości? Co o tym myślisz?

Magdalena Korol: Bardzo trudne pytanie, powiedziałabym, że wręcz z gatunku filozoficznych. 

Marcin Cichocki: Mam tendencję do takiego filozofowania.

Magdalena Korol: Nie no, świetnie. To też jest na pewno element edukacji. Wiesz, co tutaj na pewno zderzają się ze sobą dwa interesy. Interes twórcy do tego, żeby ten jego wysiłek kreatywny był chroniony i doceniony, z tym, żeby jednak nie blokować i nie barykadować się i żeby dać dostęp do tej twórczości. 

Jednak chyba byłabym za tym, żeby prawa tych twórców były szanowane. Nie wiem, może przydałaby się jakaś rozmowa o granicach tych praw itd. Miejmy cały czas świadomość tego, że są osoby, które zarobkują wyłącznie ze swojej twórczości. Gdybyśmy pozbawili ich tych praw i możliwości zarobkowania, to oni nie mieliby pracy. To też tak nie może wyglądać. Na pewno w kwestii praw osobistych no to tutaj to jest niewątpliwe. 

Może przydałaby się jakaś dyskusja odnośnie do tych praw majątkowych. Musimy pamiętać, że nasza ustawa o prawach autorskich jest z lat 90. Ona była oczywiście gdzieś tam po drodze zmieniana, ale ona też tak troszkę nie przystaje do rzeczywistości. Może to faktycznie byłby jakiś moment na rozmowę o tym, na stworzenie takich baz itd. Też musimy pamiętać, że prawa autorskie nie są objęte żadną bazą, tak jak np. znaki towarowe, że mamy rejestr znaków towarowych. 

Rejestru utworów nie mamy. I to też jest taka swoboda, że spełniasz kryteria ustawowe, jest to utworem. Utwór nie powstaje w wyniku umowy stron, tylko w związku ze spełnieniem przesłanek. Ktoś może bardzo chcieć stworzyć utwór, a tego utworu nie stworzy. Albo ktoś może nie mieć zamiaru stworzenia utworu, a jednak uda mu się stworzyć utwór, czyli jakiś element twórczy, kreacyjny, jakaś wena na tego twórcę spłynie.

Kończąc ten filozoficzny wywód, wydaje mi się, że obstawałabym przy tym, że ten szacunek dla twórcy i jego twórczości się należy. Natomiast faktycznie, może należałoby, zacząć rozmowy w jakiejś takiej otwartości i wzajemnym zrozumieniu interesów nad pewnymi modyfikacjami tych majątkowych praw autorskich.

Marcin Cichocki: Ten pomysł, z taką bazą utworów, gdzie np. nadawałoby się coś takiego, jak numer ISBN, każdemu utworowi, który by został zgłoszony, to nie jest głupi pomysł. Może w tym kierunku by to trochę ułatwiło i znormalizowało wykorzystanie AI w tworzeniu tych cyfrowych dzieł.

Magdalena Korol: No tak, bo wtedy Marcin, nie byłoby sytuacji, że robisz search by picture i się zastanawiasz czy naruszasz, czy nie naruszasz, tylko wchodzisz w taką bazę. Tutaj też byłby potrzeby obowiązek twórcy wrzucenia tego w bazę, pod rygorem np. przyjęcia konsekwencji tego, że ktoś może cię splagiatować. Na pewno ciekawe rozwiązanie, które wymagałoby pewnie jakiegoś głębszego namysłu i dopracowania, ale na pewno wiele rzeczy by ułatwiło na gruncie naszego prawa europejskiego.

Marcin Cichocki: Ok, dobra, już rozmawiamy kawał czasu, więc chyba czas kończyć ten podcast. Bardzo Ci dziękuję Magda za podzielenie się swoją rozległą wiedzą na tematy związane z prawem, zwłaszcza w zakresie nowych technologii. 

A Ty drogi słuchaczy, droga słuchaczko, jeśli chcesz bardziej zgłębić ten temat, to serdecznie zapraszam Cię na bloga Creativa Legal i do obserwowania Magdy w mediach społecznościowych, a obstawiam, że domyślnie na LinkedIn.

Ja już się z Tobą słuchaczu, słuchaczko żegnam i również Tobie Magda bardzo dziękuję.

Magdalena Korol: Dziękuję Marcin, pozdrawiam Was wszystkich bardzo serdecznie i życzę Wam dużo, dużo ciekawych projektów z użyciem sztucznej inteligencji, ale zgodnie z prawem. 

Marcin Cichocki: Do usłyszenia, cześć!

Wywiady