Skocz do zawartości

[zagranica] Sąd: AI nie może kopiować treści bez zgody – przełomowy wyrok w sprawie Thomso


Rekomendowane odpowiedzi

NEWS dostępny pod adresem

https://news.bloomberglaw.com/ip-law/judge-rejects-fair-use-defense-in-westlaw-ai-copyright-lawsuit

a poniżej dokładne wytłumaczenie, które rozpisał mój idealny asystent - ChatGPT

Wytłumaczenie:

Chodzi o spór sądowy między Thomson Reuters a Ross Intelligence dotyczący praw autorskich do treści prawnych używanych w narzędziu AI.

Kluczowe punkty sprawy:

  1. Oskarżenie o naruszenie praw autorskich

    • Thomson Reuters zarzuciło, że Ross skopiował headnoty (czyli streszczenia kluczowych zagadnień prawnych) z ich systemu Westlaw, by użyć ich do trenowania własnego narzędzia AI do wyszukiwania treści prawnych.
  2. Obrona Ross Intelligence – „dozwolony użytek” (fair use)

    • Ross argumentował, że korzystanie z tych treści mieści się w ramach dozwolonego użytku (fair use), czyli zasady pozwalającej na wykorzystanie chronionych materiałów w określonych sytuacjach (np. edukacja, krytyka, komentarz).
  3. Decyzja sądu

    • Sędzia Stephanos Bibas uznał, że użycie treści przez Ross nie jest fair use, bo:
      • Nie było transformacyjne – Ross nie stworzył z headnotów nic nowego, tylko użył ich do budowy konkurencyjnego produktu.
      • Szkodziło rynkowi – Westlaw zarabia na swoich treściach, a Ross tworzył alternatywne narzędzie na bazie ich pracy.
  4. Konsekwencje wyroku

    • Sędzia przyznał częściowe zwycięstwo Thomson Reuters w sprawie ponad 2 000 headnotów, ale nie rozstrzygnął jeszcze, czy kolejne 5 000 naruszonych treści podlega ochronie.
    • Sprawa dotycząca tych 5 000 headnotów trafi do sądu przysięgłych.
  5. Szersze znaczenie dla AI i praw autorskich

    • To jeden z pierwszych procesów dotyczących AI i praw autorskich.
    • Podobne sprawy dotyczą teraz firm, które tworzą generatywne modele AI, np. OpenAI, Meta czy Anthropic.
    • Choć ten przypadek dotyczył niegeneratywnej AI, może być wskazówką, jak sądy podejdą do podobnych spraw.
  6. Wpływ na inne procesy

    • Po decyzji sędziego Bibasa, w innym procesie dotyczącym AI (gdzie Anthropic jest oskarżane o użycie tekstów piosenek w modelu Claude), prawnicy natychmiast powołali się na ten wyrok jako argument.

W skrócie: Ross Intelligence próbował wykorzystać treści Westlaw do stworzenia konkurencyjnego narzędzia AI. Sąd uznał, że to naruszenie praw autorskich, a nie „fair use”.

Ten wyrok może mieć wpływ na kilka innych spraw dotyczących AI i praw autorskich, szczególnie tych, które dotyczą wykorzystania chronionych treści do trenowania modeli sztucznej inteligencji. Oto kilka przykładów:

1. Sprawy przeciwko OpenAI i Meta (Generatywne AI vs. prawa autorskie)

  • Pozwy autorów, dziennikarzy i wydawców

    • Wydawnictwa, takie jak The New York Times, pozywają OpenAI i Microsoft za trenowanie modeli AI (np. ChatGPT) na ich artykułach bez zgody.
    • Podobne pozwy wniosło także wielu autorów, m.in. George R.R. Martin i John Grisham, twierdząc, że AI uczy się na ich książkach i generuje podobne treści.
  • Pozew artystów i ilustratorów

    • Twórcy wizualni (np. Sarah Andersen) pozwali firmy rozwijające modele generatywne obrazów (Stable Diffusion, Midjourney) za wykorzystywanie ich prac bez zgody i wynagrodzenia.

Jak wyrok w sprawie Ross Intelligence może wpłynąć?

  • Sąd uznał, że kopiowanie treści do trenowania AI nie jest „transformacyjne” i szkodzi rynkowi.
  • To może osłabić linię obrony OpenAI, Meta i innych firm AI, które twierdzą, że użycie cudzych treści mieści się w ramach „fair use”.

2. Sprawa przeciwko Anthropic (Claude AI a teksty piosenek)

  • Pozew wytwórni muzycznych (Universal, Sony, Warner) przeciwko firmie Anthropic, twórcy modelu Claude AI.
  • Zarzuty: Claude generuje teksty piosenek chronionych prawem autorskim, co oznacza, że został wytrenowany na materiałach muzycznych bez zgody właścicieli praw.
  • Po wyroku w sprawie Ross Intelligence, prawnicy muzycznych gigantów natychmiast powołali się na tę decyzję jako argument wzmacniający ich sprawę.

3. Potencjalne przyszłe sprawy przeciwko Google (Gemini) i Microsoft (Copilot, Bing AI)

  • Modele AI od Google (Gemini) i Microsoft (Copilot) również bazują na ogromnych ilościach danych, w tym na publikacjach prasowych, książkach, kodzie programistycznym.
  • Jeśli sądy dalej będą uznawać, że wykorzystywanie treści do trenowania AI nie jest fair use, Google i Microsoft mogą stanąć przed podobnymi wyzwaniami prawnymi.

Podsumowanie

Ten wyrok to pierwszy duży sygnał, że sądy mogą podchodzić restrykcyjnie do wykorzystania cudzych treści w AI. Może to oznaczać:
Większą ochronę praw autorskich twórców treści.
🚫 Większe ograniczenia dla firm AI w trenowaniu modeli na cudzych materiałach.
⚖️ Bardziej przewidywalne podejście do „fair use” w kontekście AI.

Firmy rozwijające AI mogą teraz bardziej obawiać się pozwów i być zmuszone do negocjowania licencji z właścicielami treści, zamiast trenować modele na nich bez pytania.

Kompleksowy mentoring bezpieczeństwa i anonimowości w internecie   

Kompleksowy mentoring - BEZPIECZEŃSTWO I ANONIMOWOŚĆ
Nie daj się śledzić, ukrywaj tożsamość online i offline, zabezpiecz swoje urządzenia i sporo więcej!

Odnośnik do komentarza

Zarejestruj się za darmo i naucz się zarabiać online!

  • Dostęp do darmowych poradników pokazujących krok po kroku jak zarabiać w Internecie
  • Sposoby zarabiania niepublikowane nigdzie indziej
  • Aktywna społeczność, która pomoże Ci rozwiązać problemy i doradzi
  • Profesjonalne treści na temat SEO, social media, afiliacji, kryptowalut, sztucznej inteligencji i wiele więcej!

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się
×
×
  • Dodaj nową pozycję...

Powiadomienie o plikach cookie

Ta strona korzysta z ciasteczek, aby świadczyć usługi na najwyższym poziomie. Dalsze korzystanie z witryny oznacza zgodę na ich wykorzystanie. Polityka prywatności .