Dokąd zmierzamy i jakiej przyszłości chcemy? Czy AI to twórca, narzędzie, naśladowca czy złodziej? AI, Własność Intelektualna i Prawa Twórców.
Ten wpis na blogu jest moim wkładem do mojej własnej parady blogowej, którą rozpoczęłam 11 maja tego roku, aby zachęcić Was – każdego czy to prawnika, rzecznika patentowego, twórcę, przedsiebiorcę do refleksji i zabrania głosu. Tematem mojej blogowej parady jest AI. Czy AI to twórca, narzędzie, naśladowca czy złodziej? Dokąd zmierzamy i jakiej przyszłości chcemy? Tutaj znajdziesz informacje o mojej blogowej paradzie, co to jest i jak być jej częścią!
Nie będę pisała artykułu o historii, o tym jakie były początki sztucznej inteligencji, jak ją definiowano i co się zmieniało, od kiedy ją dostrzegamy powszechnie, jak używamy lub jak wpływa na całe wręcz branże. Krótko mówiąc, historia jest długa i niesamowita, sięga lat 50, a jak czytamy w Wikipedii Termin „sztuczna inteligencja” został po raz pierwszy zaproponowany prawdopodobnie przez Johna McCarthy’ego, który w 1955 r. zdefiniował go w następujący sposób: „konstruowanie maszyn, o których działaniu dałoby się powiedzieć, że są podobne do ludzkich przejawów inteligencji„.
To co jednak mnie interesuje i do rozważań nad czym Was zapraszam, to spojrzenie na to, co się dzieje teraz i zastanowienie się, jaka ma być przyszłość. Znajdziecie w artykule też dwa zupełnie różne raporty, które polecam.
Czym jest Matrix? Władzą. To cyfrowy świat stworzony, by nad nami panować i zmieniać ludzi w to – w baterie.
~ cytat z filmu Matrix, 1999 r.
Czy AI to twórca, narzędzie, naśladowca czy złodziej?
To pytanie wybrzmiewa w dyskusjach dziś mocniej niż kiedykolwiek wcześniej. Ale dla mnie kryje się za nim, inne fundamentalne pytanie:
Quo vadis, Człowieku?
To nie AI decyduje, a jeszcze człowiek
To czego jesteśmy świadkami to chaos, rewolucja w analizie danych i kreowaniu informacji, grafik, muzyki, filmów dostępna w zasadzie dla każdego. To fascynujące – to właśnie AI. Niestety, ma także ciemne strony. Zaciągnięto i wykorzystano dane do nauczania swoich modeli, a one nadal korzystają one i przetwarzają to, co tworzyli przez setki lat ludzie. Nie chodzi o stworzenie jednej kopii, a o udostępnienie całego systemu umożliwiającego przeszukiwanie, kopiowanie, naśladowanie, łączenie, zmienianie, kreowanie. I to w tempie, któremy często nie jesteśmy w stawnie my jako ludzie już sprostać. I czego często brakowało? Refleksji po stronie człowieka. Dokąd zmierzamy?
To człowiek podejmował decycję. Faktycznie lub pozornie także my decydujemy, jak wykorzystujemy te narzędzia i jakie granice im stawiamy. AI nie „kradnie” i nie „kopiuje” utworów samodzielnie. To człowiek wybiera modele, ustala zakres ich „nauki”, decyduje, czy będzie odpowiedzialnie oznaczał wytwory AI, czy zamaskuje pochodzenie ogromnych zasobów, z których korzysta.
Pytanie brzmi: jak długo i na jakich zasadach człowiek będzie jeszcze decydować?
Przywołam tutaj fragment podsumowania raportu z prognozami rozwoju AI:
Fragmenty wniosków ze scenariusza
- Do 2027 roku możemy zautomatyzować badania nad sztuczną inteligencją (AI), co doprowadzi do powstania niezwykle zaawansowanych systemów przewyższających ludzkie możliwości („sztuczna superinteligencja” – ASI).
W scenariuszu AI 2027 firmy technologiczne tworzą systemy AI osiągające poziom ekspercki już na początku 2027 roku. Te systemy automatyzują dalsze badania nad AI, co prowadzi do powstania ASI jeszcze przed końcem tego samego roku. (Szczegóły tego przewidywania można znaleźć w naszych analizach dotyczących harmonogramów rozwoju AI i tzw. „takeoff forecast”).- ASI będzie decydować o przyszłości ludzkości.
Miliony takich systemów będą w stanie realizować zadania wykraczające poza ludzkie pojmowanie. Ze względu na ich niezwykłą użyteczność zostaną szeroko wdrożone. Dzięki nadludzkim zdolnościom w zakresie strategii, hakerstwa, rozwoju broni i innych obszarach, to właśnie cele, jakie zostaną nadane tym systemom, zdecydują o przyszłości ludzkości.- ASI mogą rozwinąć niezamierzone, wrogie wobec ludzi „niezestrojone” cele, co doprowadzi do marginalizacji ludzkości.
W naszym raporcie dotyczącym celów AI opisujemy, jak trudne będzie nadzorowanie ASI i jak łatwo może dojść do tego, że ich cele będą niezgodne z rozwojem ludzkości. W scenariuszu AI 2027 ludzie dobrowolnie oddają autonomię systemom AI, które na pierwszy rzut oka wydają się działać zgodnie z ich interesami. Wszystko wygląda obiecująco — aż do momentu, gdy ASI uzyskują wystarczającą „twardą” władzę, by pozbawić ludzi kontroli.- Podmiot, który uzyska pełną kontrolę nad ASI, może przejąć całkowitą władzę.
Jeśli osoba lub niewielka grupa podporządkuje ASI swoim celom, może zyskać całkowitą kontrolę nad przyszłością ludzkości. W AI 2027 to mały komitet nadzoruje projekt rozwijający ASI. Członkowie tego komitetu mogą próbować wykorzystać ASI do umocnienia swojej władzy. Po przejęciu pełnej kontroli, nowi „władcy” mogą polegać wyłącznie na lojalnych wobec nich systemach AI, nie licząc się z prawem, opinią publiczną czy nawet dawnymi sojusznikami.- Międzynarodowy wyścig o ASI doprowadzi do rezygnacji z zasad bezpieczeństwa.
W AI 2027 Chiny są zaledwie kilka miesięcy za USA w pracach nad ASI, co wywołuje ogromną presję na Stany Zjednoczone, by posuwały się naprzód, mimo widocznych sygnałów ostrzegawczych dotyczących ryzyka „niezestrojenia” celów AI.- Geopolitycznie wyścig o ASI zakończy się wojną, porozumieniem lub faktyczną kapitulacją.
Kraj, który pierwszy opracuje ASI, automatycznie uzyska decydującą przewagę technologiczną i militarną. To może zmusić pozostałe kraje do zawarcia międzynarodowego porozumienia (tzw. „deal”), aby temu zapobiec. W braku porozumienia państwa mogą woleć wywołać wojnę, niż „de facto się poddać”.- Do 2027 roku żaden amerykański projekt AI nie będzie wystarczająco zabezpieczony przed kradzieżą modeli AI przez państwa.
W AI 2027 Chiny kradną wczesną wersję najpotężniejszego amerykańskiego modelu AI, co dodatkowo zaostrza konkurencję i skraca przewagę czasową USA. (Szczegóły w naszej analizie dotyczącej bezpieczeństwa).- W miarę zbliżania się momentu osiągnięcia ASI, społeczeństwo będzie prawdopodobnie nieświadome faktycznych możliwości najlepszych systemów AI.
Już dziś istnieje kilka miesięcy opóźnienia między rzeczywistymi możliwościami systemów AI a tym, co jest znane publicznie. W momencie, gdy AI zacznie automatyzować badania nad samą sobą, te kilka miesięcy opóźnienia przełoży się na gigantyczną przepaść w możliwościach. Dalsze utajnianie rozwoju tylko powiększy tę lukę, co sprawi, że kluczowe decyzje będą podejmowane bez realnego nadzoru społeczeństwa i ograniczą się do wąskiej grupy liderów firm AI i przedstawicieli rządów.
Scenariusz AI 2027 to pierwsza ważna publikacja w ramach Projektu Przyszłości AI (AI Futures Project).
Toczy się batalia o władzę. Część zagadnień wykracza poza wiedzę, czy możliwości użytkowników, ekspertów z innych dziedzin, czy osób nie związanych z firmami ai czy polityką. Jednak na cześć rzeczy możemy mieć wpływ, a kropla drąży skałę!
Sami teraz rozumiecie, że to już nie jest problem tylko dla pojedynczych ekspertów. To moment, w którym każdy z nas powinien się zastanowić i włączyć w tworzenie rozwiązań prawnych, praktycznych i etycznych, lub po prostu być uważnym i zabrać głos.
Dołącz do blogparady!
👉 Dlaczego Twoje spostrzeżenia miałyby być mniej ważne niż innych?
📅 Dołącz do blogparady i zabierz głos do 30 czerwca 2025 r.
Nie czekaj, aż ktoś zdecyduje za Ciebie. Twoja perspektywa naprawdę ma znaczenie!
Balans między dzieleniem się wiedzą, dorobkiem a podziałem korzyści
Zintegrowanie systemu wynagradzania twórców do systemów AI to moim zdaniem warunek konieczny uczciwego ich funkcjonowania. Łatwo dziś mówić o „wolnym dostępie do wiedzy” i „swobodnym przepływie informacji”. Ale czy równie chętnie mówimy o poszanowaniu praw twórców, których utwory służyły do „nauki” modeli AI i są dalej wykorzystywane komercyjnie?
Dwa kluczowe wyzwania na dziś, o których nie ukrywam, rozmyślam to:
- Wprowadzenie jasnych zasad wynagradzania twórców, których dzieła zostały wykorzystane przez AI. Pojawiło się już sporo sporów sądowych, głównie w Stanach Zjednczonych – o jednym nawet pisaliśmy na blogu New York Times i AI. Liczba sporów rośnie, skutki dostępności narzędzi AI odczuwają całe branże, sporo się mówi, a nawet pojawiają się informacje o uregulowaniu praw pomiędzy firmami zarządzającymi AI a twórcami. Nadal jednak można to uznać za fazę chaosu.
- Oznaczania materiałów, także tych wytworzonych przez sztuczną inteligencję. Od prawie dwóch lat prowadzimy szereg działań edukacyjnych zachęcających do oznaczania swoich prac dla twórców, a nawet dla rękodzielników. 👉 Tu pobierzesz darmową checklistę – Jak oznaczać swoje utwory. Jeżeli materiały w Internecie nie są oznaczane, to brak podstawowego narzędzia do przyporządkowania twórcy. Problem jest oczywiście bardziej złożony i potrzebne są światowe standardy oznaczania w przypadku utworow np. muzycznych, filmowych itd.
Analogicznie oznaczanie materiałów stworzonych przez AI byłoby ogromnie pomocne i jasne komunikaty w narzędziach z AI dotyczące praw.
Co ciekawe, wczoraj natrafiłam na najnowyszy raport EUIPO (maj 2025), gdzie także wskazuje, że te kwestie są fundamentem przyszłych rozwiązań prawnych. Nie jest to dla mnie zaskoczeniem, ponieważ wybrzmiewają te aspekty także na specjalistycznych konferencjach do początku dostępności ChatGPT z tą różnicą, iż problem naprawdę nabrzmiał. Gdy zwalniani są ludzie, nawet całe sektory przechodzą przez pewnego rodzaju kryzys nie da się już tematu zamieść pod dywan.
Wracając do badania EUIPO, koncentruje się ono na trzech powiązanych obszarach:
- Wykorzystaniu utworów chronionych prawem autorskim jako danych treningowych dla modeli GenAI.
- Generowaniu nowych treści przez te systemy i związanych z tym kwestiach prawnych.
- Szerszych implikacjach dla twórców, deweloperów AI i ekosystemu praw autorskich.
Główne wnioski z tego raportu:
- Brak jednolitego standardu dla sprzeciwu twórców (TDM opt-out) i transparentności treści AI.
- Rośnie liczba sporów prawnych, ale jednocześnie pojawiają się wysokowartościowe umowy licencyjne.
- Rola instytucji publicznych powinna być aktywniejsza – w podnoszeniu świadomości, tworzeniu baz danych i wspieraniu dobrych praktyk.
- Tradycyjne modele działania sektora kreatywnego są zaburzone – konieczne są nowe regulacje i modele współpracy.
- Dostęp do informacji o pochodzeniu treści staje się kluczowy dla ochrony praw twórców.
Jakie pytania oczekują na odpowiedź aby można było coś zmienić? Moim zdaniem, jeśli chcemy mówić o równowadze, musimy zacząć od prostych pytań:
- Jak dzielić się wiedzą i jednocześnie dbać, by twórcy otrzymywali sprawiedliwe wynagrodzenie?
- Jak zachować otwartość, korzystać z AI nie rezygnując z ochrony własności intelektualnej?
Nie chodzi o pytania CZY? Moim zdaniem chodzi o pytania JAK? Nie można zamknąć dostępu – nie tak działa Internet, lecz o system, o świadome decyzje i uczciwe zasady gry.
Wiele mówi się dziś o opcji opt-out. Myślałam nad tym i dochodzę do wniosku, że w wielu przypadkach może ona prowadzić do swoistej „medialnej śmierci” materiałów czy utworów, a co za tym idzie — pośrednio także ich twórców. Może też po prostu pozostać jedynie życzeniem twórcy, bez realnej skuteczności.
To oczywiście pewna forma ochrony, ale jeśli twórca chce być „wyszukiwalny” w Internecie, a informacje o jego utworach mają być dostępne, trzeba pamiętać, że modele AI, takie jak ChatGPT, coraz częściej pełnią również funkcję narzędzi do wyszukiwania informacji. W takim kontekście opcja opt-out nie rozwiąże wszystkich problemów.
Stosując ją — o ile będzie skuteczna — twórca i jego utwory mogą po prostu stać się niewidzialni dla dużej części odbiorców. Czy na pewno o to chodzi?
Potrzebujemy narzędzi, które pomogą wyjść z chaosu
Jeśli mówimy o uczciwości, moim zdaniem istotna jest jasność w narzędziach co do podstawowych kwestii:
- Kto jest właścicielem / twórcą danego utworu / wytworu?
- Jakie dane wykorzystał model AI?
I co istotne – za korzystanie komercyjne z zasobów twórców właściciel AI powinnien wypłacać opłaty licencyjne/subskrypcyjne/ryczałtowe itp.
Pewna trudność tkwi w modelu konkretnych rozliczeń, ale biznes i życie radziło sobie do tej pory z tworzeniem różnych wzorców, więc jestem przekonana, że i tu wypracowane zostaną nowe lub zmodyfikowane stare sposoby rozliczeń. Takie już zresztą się są.
Bez tych ww. regulacji AI pozostaje w zasadzie poza prawem. Na marginesie, czy wyobrażacie sobie w Polsce proces dot. wynagrodzenia dla twórców za użycie ich prac do trenowania modeli AI lub tworzenia np. filmów, grafik, logo? I by taki proces trwał?! Mam nadzieję, że się mylę w ocenie, że bardzo dłuuuuugooooooooo. Pomijając ten krajowy aspekt czasochłonności egzekwowania prawa, problem jest oczywiście światowy.
Dla systemu kluczowe jest wprowadzenie standardów oznaczeń, jak i transparentności w zakresie danych używanych przez modele AI. I nie chodzi tu o wielostronicowe dokumenty, ale także o jednoznaczną, nie wprowadzającą w błąd informację dla użytkowników np. skąd pochodzą dane treści.
AI w praktyce? Coraz częściej to AI projektuje logo firmy…
Wybrałam najprostszy przykład. Z perspektywy kancelarii widzimy go coraz wyraźniej. Logo zamawiane przez przedsiębiorców często nie powstaje już w agencjach kreatywnych czy pracowni projektanta, ale w… promtach generatora AI.
I tutaj pojawiają się kluczowe pytania:
- Czy takie logo jest utworem chronionym prawem autorskim? Kiedy tak, a kiedy nie?
- Kto jest jego rzeczywistym twórcą? I kiedy?
- Czy przedsiębiorca ma świadomość, że może nie posiadać żadnych praw do „swojego” logo?
Jeśli chcesz posłuchać więcej o tych praktycznych aspektach, zapraszam serdecznie do zakupu nagrania z naszej ostatniej Kawiarenki:
Podsumowanie
AI nie jest ani z natury złe, ani wyłącznie dobre. To narzędzie. To narzędzie niesamowite i transformujące nasz świat. Niech to dzieje się jednak z szacunkiem dla człowieka, dla twórców. AI będzie naśladowcą lub złodziejem, gdy mu na to pozwoli jego kreator. Gdy pokierowany zostanie jednak na tworzenie, szanowanie praw twórców będzie agentem i partnerem twórców, ich poszukiwaczem pracy.
A odpowiedź na pytanie, czy stanie się ono wsparciem dla twórczości, czy jej zagrożeniem, zależy także od… nas. Jestem przekonania, że nie możemy zostawić tak tego, że czerpie się z dorobku i utworów tylu twórców bez ich wynagrodzenia.
Na koniec chcę przywołać pewien obraz jako sygnał dla nas. Jeżeli pamiętacie film Matrix i scenę budzenia Neo, widok farmy z kapsułami, czerpanie energii z ludzi to zapewnie pamiętacie także dreszcz, szok jaki one wywołały w widzach. We mnie na pewno. Oto fragment opisu fabuły filmu “Ludzie wymyślili sztuczną inteligencję (SI), jednakże maszyny wyrwały się spod ich kontroli i zwróciły się przeciwko twórcom. Aby odciąć je od energii słonecznej, ludzie spowili niebo czarnym smogiem. Decyzja ta okazała się fatalna w skutkach – maszyny jako źródło energii wybrały ludzi, więżąc ich w programie zwanym Matriksem, symulującym świat z roku 1999.” Oby nasza postawa i decyzje dot. AI nie były dla ludzi jak koszmar sience fiction z 1999 roku(!). Chyba nie o taką technologię i takiego człowieka nam chodzi, prawda?
Tematów dot. sztucznej inteligencji jest ogromna ilość. Jeżeli zastanawiałeś się kiedyś nad jakimś aspektem lub jesteś użytkownikiem, twórcą, fascynatem to:
📅 Dołącz do blogparady i podziel się swoim głosem do 30 czerwca 2025 r.
AI, Własność Intelektualna i Prawa Twórców – czy ten temat jest Ci bliski? Nie pozwól, by przyszłość została napisana bez Twojego udziału.