Ilekroć moje rozmowy z właścicielami agencji kreatywnych schodzą na temat AI to niczym bumerang wraca do mnie pytanie, które zasadniczo brzmi tak:
„Czy możemy używać ChatGPT do tworzenia treści dla klientów bez obawy, że coś pójdzie nie tak?”
Oczywiście mógłbym wówczas przekornie wówczas zapytać:
„A czy ktoś z Was przeczytał regulamin ChatGPT?”
Ale wtedy byłbym hipokrytą. I to straszliwym.
Bo od kilku miesięcy z kuchennej półki straszy mnie opasłe tomiszcze z napisem „instrukcja obsługi ekspresu do kawy”.
Na samą myśl oddania się takiej lekturze…wzdrygam się 🤢.
Bo w końcu ekspres klikam i wszystko działa. Kawę robi znaczy się 😃.
Tak samo jest z ChatemGPT. Wszyscy bezrefleksyjnie klikamy checkbox potwierdzający akceptację regulaminu i już po chwili transformer produkuje dla nas czyste, cyfrowe złoto 😉.
Ale wiesz co?
Wcale nie musisz czytać tego dokumentu.
W tym artykule przeprowadzę Cię krok po kroku przez najważniejsze jego zapisy.
Dowiesz się, gdzie czyhają ryzyka i jak zadbać o to, by Twoja agencja AI działała zgodnie z prawem i…regułami gry ustalonymi przez OpenAI.
Regulamin ChatGPT określa prawo właściwe i sąd
Jednym z najbardziej zaskakujących fragmentów regulaminu ChatGPT – szczególnie dla agencji działających w Unii Europejskiej – jest kwestia prawa właściwego i sądu.
To zapisy, które większość użytkowników pomija, a które mają kluczowe znaczenie dla Twoich praw w przypadku jakiegokolwiek sporu z dostawcą usługi.
Regulamin ChatGPT opublikowany został w dwóch wersjach, które stosuje się w zależności od miejsca zamieszkania (lub siedziby firmy):
„Niniejsze Warunki użytkowania mają zastosowanie, jeśli mieszkasz w Europejskim Obszarze Gospodarczym (EOG), Szwajcarii lub Wielkiej Brytanii. Użytkownicy spoza EOG, Szwajcarii i Wielkiej Brytanii podlegają następującym Warunkom użytkowania.”
Jeśli więc prowadzisz agencję w Polsce, obowiązuje Cię wersja regulaminu przeznaczona dla UE. Warto jednak zwrócić uwagę, kto formalnie jest stroną umowy.
Użytkownicy z EOG i Szwajcarii zawierają umowę z OpenAI Ireland Ltd, spółką zarejestrowaną w Republice Irlandii.
I choć stroną umowy dla użytkowników z UE jest podmiot irlandzki, to w przypadku biznesowego korzystania z ChatGPT regulamin jasno określa, że:
- „Niniejsze Warunki podlegają prawu stanu Kalifornia z wyłączeniem norm kolizyjnych.”
- „Wszelkie roszczenia wynikające z niniejszych Warunków lub z nimi związane będą wnoszone wyłącznie do sądów federalnych lub stanowych w San Francisco w Kalifornii.”
Co to oznacza w praktyce?
Jeżeli Twoja agencja będzie miała spór z OpenAI, np. w zakresie odpowiedzialności za dane, prawa autorskie czy błędne działanie usługi, to ewentualne postępowanie będzie toczyć się według prawa stanu Kalifornia i… przed sądem w San Francisco.
Czyli: nawet jeśli korzystasz z usługi w Polsce, płacisz w euro i zawierasz umowę z podmiotem zarejestrowanym w Irlandii, wszelkie spory będą rozstrzygane na gruncie amerykańskiego prawa, w amerykańskim sądzie.
Co prawda tak jest w przypadku biznesowego wykorzystywania narzędzia, ale nie ma się co czarować: agencja konsumentem nie jest 😉 (chociaż w pewnych przypadkach może być tak traktowana).
Myślę, że raczej nie w głowie Ci potencjalny spór sądowy z OpenAI, ale jak zobaczysz w dalszej części regulamin ChatGPT porusza jeszcze wiele innych kwestii, których skuteczność trzeba oceniać wedle…prawa stanu Kalifornia.
Czego regulamin ChatGPT absolutnie zabrania
Choć OpenAI ma „open” w nazwie to już sam ChatGPT podlega wielu ograniczeniom.
I jeżeli tworzysz produkty, kampanie lub usługi z wykorzystaniem AI to musisz zdawać sobie sprawę z tych ograniczeń.
Oto najważniejsze z nich, które mają znaczenie dla agencji reklamowych i technologicznych.
Zakaz działań nielegalnych i szkodliwych
OpenAI wyraźnie zakazuje wykorzystywania ChatGPT do jakiejkolwiek działalności, która:
jest nielegalna (np. narusza prawo krajowe lub unijne),
narusza cudze prawa, w tym prawa autorskie, prywatność czy dobra osobiste,
prowadzi do nadużyć, oszustw lub celowego wprowadzenia odbiorców w błąd.
To oznacza, że nie możesz wykorzystywać ChatGPT do generowania treści, które mają na celu manipulację odbiorcami, nawet jeśli ma to miejsce w ramach pozornie „niewinnej” kampanii marketingowej. Kampania naruszająca prawo reklamy (np: wykorzystująca nierzetelne wyniki badań) może podlegać pod ten zakaz.
Zakaz podszywania się pod człowieka
Jednym z mniej oczywistych, ale istotnych zakazów jest:
Nie możesz twierdzić, że Dane Wyjściowe zostały wygenerowane przez człowieka, podczas gdy tak nie było.
Innymi słowy: jeśli używasz AI do generowania treści, musisz jasno komunikować, że nie są one dziełem człowieka. Dotyczy to zwłaszcza treści przekazywanych klientom, odbiorcom lub publikowanych w przestrzeni publicznej.
Inna sprawa jak OpenAI miałoby to zweryfikować.
No i przede wszystkimi komunikowanie „autorstwa” AI nie jest, delikatnie rzecz ujmując, powszechną praktyką wśród osób korzystających z tego narzędzia.
Niemniej jednak zasada taka istnieje i nie możemy udawać, że jest inaczej 😃.
Zakaz działań politycznych i lobbystycznych
Regulamin ChatGPT w części dotyczącej API zabrania:
angażowania się w kampanie polityczne lub lobbing,
generowania materiałów kampanijnych skierowanych do określonych grup demograficznych.
Jeśli Twoja agencja obsługuje klientów ze świata polityki – korzystanie z ChatGPT do tworzenia treści dla takich projektów może naruszać warunki korzystania z usługi.
Czy to może zdarzyć się w praktyce czy też jest to kolejny „wymysł” twórców Chata?
Otóż ostatnia kampania prezydencka pokazuje, że wszystko „siem da” 😃.
Jeden z kandydatów (zaraz będzie spoiler…) posługiwał się zdjęciami wygenerowanymi przez AI w akcji „Polskie dziewczyny za Nawrockim„.
Zakaz dezinformacji i manipulacji
Zabronione jest również:
generowanie fałszywych recenzji, komentarzy czy opinii,
tworzenie lub wspieranie fałszywej aktywności online,
promowanie dezinformacji lub celowe wprowadzanie odbiorców w błąd.
W fikcyjne opinie całkiem niedawno uderzył Omnibus, ale dzięki ChatowiGPT ich tworzenie (i to w wysokiej jakości) stało się proste jak nigdy do tej pory.
Ponownie wątpliwym jest czy OpenAI może (czy nawet chce) weryfikować takie okoliczności. No bo w sumie to nawet UOKiK sobie z tym nie radzi, chociaż to jedno z jego zadań…
Dodatkowo, jeśli tworzysz chatboty lub inne systemy oparte na AI, to masz obowiązek:
Zapewnić, że użytkownik wie, iż rozmawia z systemem sztucznej inteligencji – chyba że wynika to w sposób oczywisty z kontekstu.
Innymi słowy – ukrywanie faktu, że rozmówcą nie jest człowiek, ale AI, jest niedozwolone, chyba że interfejs, forma lub treść nie pozostawiają żadnych wątpliwości.
AI na obecnym etapie wywołuje raczej mieszane uczucia u odbiorców (od nieufności po strach).
Przynajmniej ja nie znam nikogo kto tryskałbym energią oraz entuzjazmem na samą myśl o załatwianiu czegokolwiek poprzez chatbota.
Dlatego w pewnym sensie występuje tutaj konflikt interesów, gdyż firmy korzystające z takich zautomatyzowanych systemów raczej nie afiszują się z tym, że pod drugiej stronie ekranu jest AI, a nie człowiek. Ale powinny. I nie dlatego, że OpenAI tak dba o transparentność w komunikacji, ale pewnie dlatego, że wymaga tego rozporządzenie w sprawie AI (pisałem o tym na nowymarketing.pl)
Czy regulamin ChatGPT może Ci przyznać prawa autorskie?
Jednym z najczęstszych pytań, jakie zadają mi właściciele agencji korzystających z narzędzi AI, jest:
„Kto tak naprawdę ma prawa autorskie do treści wygenerowanych przez ChatGPT?”
Ja mam na ten temat swoje zdanie, które wyłuszczyłem tutaj.
Ale ponieważ bohaterem tego wpisu jest regulamin ChatGPT więc skupię się na tym co tam „w prawie piszczy”.
A twórcy Chata nie unikają tematu praw autorskich, ale też stawiają pewne warunki.
Musisz posiadać prawa do danych wejściowych
Zanim ChatGPT cokolwiek dla Ciebie wygeneruje, musi otrzymać od Ciebie dane wejściowe – czyli prompt, tekst źródłowy, brief, załącznik lub jakiekolwiek inne dane, które wprowadzasz do systemu. Regulamin nakłada na Ciebie w tym zakresie jednoznaczną odpowiedzialność:
„Oświadczasz i gwarantujesz, że posiadasz wszelkie prawa, licencje i uprawnienia niezbędne do dostarczania Danych Wejściowych do naszych Usług.”
Innymi słowy: nie możesz wrzucać do ChatGPT materiałów, do których nie masz praw – np. cudzych tekstów, fragmentów książek czy innych treści objętych ochroną – jeśli nie uzyskałeś na to zgody. W przeciwnym razie to Ty ponosisz pełną odpowiedzialność za ewentualne naruszenia.
Zgodnie z pradawną zasadą „garbage in, garbage out” trudno oczekiwać, że AI weźmie treści naruszające prawo autorskie i „zaczaruje” je magią algorytmów tak, że wyjdzie z tego treść nienaruszająca praw autorskich. A w każdym razie OpenAI się od tego odżegnuje.
Dane wyjściowe = Twoja własność
Jeśli jednak dane wejściowe są legalne albo po prostu należą do Ciebie, to OpenAI zapewnia Ci pełne prawa do wszystkiego, co model dla wygeneruje:
„Zachowujesz prawo własności do Danych Wejściowych oraz jesteś właścicielem Danych Wyjściowych. Niniejszym przenosimy na Ciebie wszystkie nasze prawa, tytuły i udziały, jeśli takie istnieją, do Danych Wyjściowych.”
Co to oznacza dla Twojej agencji? TEORETYCZNIE:
Możesz legalnie wykorzystywać wygenerowane treści w projektach komercyjnych.
Masz prawo przenieść prawa do tych treści na klienta (np. w umowie).
OpenAI nie rości sobie żadnych praw do wyników działania modelu – choć zastrzega sobie możliwość ich analizowania w celach bezpieczeństwa i rozwoju usługi (chyba że wyłączysz to w ustawieniach).
…ale czy aby napewno?
Czy dane wyjściowe zawsze są chronione prawem autorskim?
Chciałbym napisać „to zależy”, ale ten zwrot w ustach prawników jest już memem.
Zacznę więc tak jak podpowiedział mi ChatGPT: to nie jest kwestia jednoznaczna.
Jestem sobie w stanie wyobrazić sytuację, gdzie prompt chroniony prawem autorskim jest podstawą do wygenerowania równie chronionych treści.
To są jednak (prawie) akademickie rozważania. Twarde realia prawne są bowiem takie, że co do zasady to co wygeneruje AI nie jest chronione przez prawo autorskie.
I bez znaczenia jest co OpenAI napisze w regulaminie, bo prawa autorskie nie powstaną tylko dlatego, że zastrzeżemy je w umowie albo innym dokumencie.
Mam wrażenie, że regulamin ChatGPT zawiera tę klauzulę dotyczącą praw autorskich tak „na wsjakij słuczaj”.
To znaczy jeżeli przeniesiesz prawa autorskie do czegoś do czego tych praw nie masz (bo np: nigdy nie powstały) to co najwyżej ten zapis jest bezskuteczny.
Ot, nie wywołuje skutków prawnych. Tyle albo aż tyle.
Od jakiej odpowiedzialności OpenAI się odżegnuje?
Wielu użytkowników traktuje treści wygenerowane przez ChatGPT jako wiarygodne, bezpieczne i gotowe do dalszego wykorzystania materiały.
Tymczasem regulamin ChatGPT wyraźnie wskazuje, że korzystanie z danych wyjściowych wiąże się z konkretnymi ograniczeniami i ryzykiem, o których każda agencja AI powinna pamiętać.
Dane wyjściowe mogą zawierać błędy i halucynacje
Regulamin zastrzega:
„Dane Wyjściowe mogą nie zawsze być dokładne. Nie powinieneś/powinnaś polegać na Danych Wyjściowych z naszych Usług jako jedynym źródle prawdy lub faktów, ani traktować ich jako substytutów profesjonalnej porady.”
Oznacza to, że treści wygenerowane przez ChatGPT:
mogą zawierać błędy merytoryczne,
nie powinny być traktowane jako wiarygodne źródło informacji, np. w tekstach prawniczych, medycznych czy finansowych,
wymagają zawsze weryfikacji i redakcji przed przekazaniem klientowi lub ich opublikowaniem.
Dla agencji marketingowych to powinno być kluczowe, bo odpowiedzialność za treść spoczywa na Tobie, nie na AI.
To, że Twoja agencja AI otrzymała zlecenie na wygenerowanie treści pod SEO za pomocą sztucznej inteligencji nie oznacza, że możesz „umyć ręcę” w zakresie merytorycznej poprawności tych tekstów.
W końcu algorytm Google premiuje treści wartościowe, użyteczne i eksperckie, napisane z myślą o użytkowniku, a nie tylko pod kątem wyszukiwarek. Błędy merytoryczne w tekście z pewnością SEO nie pomagają 😉.
Dane wyjściowe mogą się powtarzać
Choć ChatGPT generuje treści dynamicznie, regulamin podkreśla, że:
„Dane Wyjściowe mogą nie być unikatowe, a inni użytkownicy mogą otrzymywać podobne dane wyjściowe z naszych Usług.”
W praktyce oznacza to, że:
nie masz gwarancji unikalności wygenerowanych treści,
inna agencja lub użytkownik może otrzymać zbliżony lub niemal identyczny rezultat, nawet jeśli prompt był inny,
nie masz wyłączności na dane wyjściowe, mimo że OpenAI formalnie przekazuje Ci do nich prawa.
Dlatego przy projektach, które wymagają oryginalności (np. slogany, manifesty marek, hasła reklamowe), warto łączyć AI z pracą kreatywną zespołu. Z całą bowiem pewnością opracowanie treści wygenerowanych przez AI przez człowieka zwiększą ich unikalność.
Odpowiedzialność agencji za skutki wykorzystania AI
Jeśli korzystasz z ChatGPT w sposób profesjonalny (a to robi każda agencja będąca przedsiębiorstwem) to regulamin ChatGPT nakłada na Ciebie dodatkowy obowiązek:
„Zabezpieczysz nas, nasze podmioty powiązane i nasz personel przed wszelkimi kosztami, stratami, zobowiązaniami i wydatkami (w tym honorariami prawników) z tytułu roszczeń osób trzecich wynikających z korzystania przez Ciebie z Usług i Treści.”
Co to znaczy?
Jeśli ktoś zgłosi roszczenie związane z treściami wygenerowanymi przez Twoją agencję – np. naruszenie praw autorskich czy zniesławienie – to Ty ponosisz pełną odpowiedzialność, nie OpenAI.
W przypadku sporu z osobą trzecią, to Twoja agencja AI pokrywa koszty prawne i odszkodowania, nawet jeśli treść pochodziła w całości z ChatGPT.
To jest problem absolutnie hipotetyczny, żeby nie powiedzieć „wirtualny”.
Bo trudno mi sobie wyobrazić scenariusz, w którym Twoja agencja AI coś generuje, a sprawa wytaczana jest przeciwko OpenAI.
Ale jak śpiewała Anita Lipnicka – wszytko się może zdarzyć 😉.
Regulamin ChatGPT ogranicza odpowiedzialności OpenAI
W regulaminie ChatGPT znajdziesz zapisy, które jasno określają zakres odpowiedzialności OpenAI za szkody i roszczenia, jakie mogą powstać w związku z korzystaniem z ich usług.
I chociaż na pierwszy rzut oka może się wydawać, że firma bierze odpowiedzialność za działanie narzędzia, to prawna rzeczywistość jest nieco bardziej złożona.
OpenAI odpowiada tylko w wyjątkowych sytuacjach
Regulamin precyzuje:
„Z zastrzeżeniem, że działaliśmy z zachowaniem należytej staranności, nie ponosimy odpowiedzialności za straty lub szkody spowodowane przez nas, chyba że: (i) zostały spowodowane naruszeniem niniejszych Warunków przez nas lub (ii) można było je przewidzieć w sposób uzasadniony w momencie zawarcia niniejszych Warunków.”
Oznacza to, że:
OpenAI nie bierze odpowiedzialności za większość sytuacji, w których Twoja agencja lub Twoi klienci ponieślibyście stratę w związku z użyciem ChatGPT,
wyjątkiem są wyłącznie przewidywalne szkody wynikające z naruszenia warunków umowy przez OpenAI,
ale nawet wtedy… odpowiedzialność finansowa firmy pod AI jest drastycznie ograniczona.
Limit odpowiedzialności OpenAI: 100 dolarów lub mniej
Zgodnie z regulaminem:
„Nasza całkowita odpowiedzialność na mocy niniejszych Warunków nie przekroczy większej z kwot: kwoty zapłaconej przez Ciebie za usługę, która stała się podstawą roszczenia w ciągu 12 miesięcy przed powstaniem odpowiedzialności lub 100 dolarów (100 USD).”
Innymi słowy:
Jeśli Twoja agencja korzysta z płatnej wersji ChatGPT i powstanie szkoda (nawet bardzo poważna), maksymalna odpowiedzialność OpenAI wynosi równowartość 100 USD lub opłat z ostatnich 12 miesięcy – w zależności od tego, która kwota jest wyższa.
To ważna informacja dla każdej firmy, która opiera swoje produkty, usługi lub procesy na narzędziu AI – ryzyko ponosisz w praktyce samodzielnie.
Wyłączenia odpowiedzialności – kiedy OpenAI nie zapłaci za roszczenia osób trzecich
W regulaminie znajduje się również sekcja dotycząca roszczeń o naruszenie praw własności intelektualnej, szczególnie dla klientów API.
Choć OpenAI deklaruje, że pokryje ewentualne roszczenia w przypadku, gdy dane wyjściowe naruszają prawa osób trzecich, to… tylko pod określonymi warunkami.
Zwolnienie OpenAI z odpowiedzialności obowiązuje, gdy:
Klient wiedział lub powinien był wiedzieć, że treści mogą naruszać cudze prawa,
Nie skorzystano z mechanizmów bezpieczeństwa, cytowania lub filtrowania oferowanych przez OpenAI,
Treści zostały zmodyfikowane lub wykorzystane z produktami innych firm,
Klient nie miał prawa do danych wejściowych lub materiałów wykorzystanych do fine-tuningu,
Roszczenie dotyczy znaków towarowych i użycia treści w celach handlowych,
Treści pochodzą z tzw. Oferty Osoby Trzeciej, np. zintegrowanych narzędzi lub baz danych spoza OpenAI.
W skrócie: jeżeli nie korzystasz z ChatGPT zgodnie z regulaminem, OpenAI nie bierze odpowiedzialności za żadne roszczenia.
I to nawet jeśli wygenerowana treść rzeczywiście narusza cudze prawa.
Regulamin ChatGPT – podsumowanie
I tak dobrnęliśmy do końca regulaminu.
No prawie, bo tak naprawdę to raptem omówiłem tych kilka klauzul które mają największe znaczenie dla Ciebie jako właściciela agencji.
Jeżeli z całego tekstu miałbyś zapamiętać TYLKO trzy punkty to niech one będą następujące:
Musisz mieć świadomość, że to Twoja agencji AI ponosi pełne ryzyko związane z używaniem ChatGPT – zarówno wobec klientów, jak i osób trzecich.
Jeżeli jako danych wejściowych używasz materiałów do których nie masz tytułu prawnego to najpewniej dane wyjściowe będą tak samo bezprawne („GIGO”).
Warto wdrożyć procedury weryfikacji danych wyjściowych i ich opracowywania przez ludzi. OpenAI nie daje gwarancji unikalności treści.
{ 0 komentarze… dodaj teraz swój }