
Przełomowy wyrok w sprawie AI. Chodzi o trenowanie modeli na treściach ludzi
Amerykański sąd federalny uznał, że firma Anthropic nie naruszyła praw autorskich, wykorzystując miliony książek do trenowania swojego modelu językowego Claude. Jednocześnie problemem okazało się źródło tych książek.
Sąd Okręgowy dla Północnego Dystryktu Kalifornii wydał wyrok w sprawie wniesionej przez grupę autorów przeciwko firmie Anthropic, twórcy chatbota AI o nazwie Claude. Sędzia William Alsup rozstrzygnął kluczową dla sprawy kwestię “dozwolonego użytku” (ang. fair use), tworząc ważny precedens dla przyszłych sporów na linii autorzy-AI.
Trenowanie modeli AI na książkach zostało uznane za "transformacyjne"
Sąd uznał, że proces trenowania dużych modeli językowych, które napędzają Claude, jest "transformacyjny", a tym samym mieści się w granicach dozwolonego użytku w świetle amerykańskiego prawa autorskiego.
Wspomniana transformacyjność to idea, która zakłada, że na podstawie jednego dzieła powstaje zupełnie inne dzieło, które nie stanowi kopii lub bezpośredniej konkurencji dla tego pierwszego.
W uzasadnieniu sędzia wyjaśnił, że Anthropic nie wykorzystywał dzieł autorów do ich powielania czy zastępowania na rynku. Zamiast tego książki posłużyły jako materiał treningowy, z którego AI uczyło się wzorców językowych, gramatyki, stylu i struktury narracji, aby móc generować zupełnie nowe teksty. Sędzia porównał ten proces do sposobu, w jaki człowiek uczy się pisać. "Każdy z nas również czyta teksty, a następnie pisze nowe. (…) Zmuszanie kogoś do płacenia za użycie książki za każdym razem, gdy ją czyta, przywołuje z pamięci i czerpie z niej inspirację, pisząc nowe rzeczy na nowe sposoby, byłoby nie do pomyślenia" - czytamy w uzasadnieniu wyroku.
Kluczowe było również to, że usługa Claude ma wbudowane filtry mające uniemożliwiać odtwarzenie dzieł, na których trenował model. W dokumentach sądowych podkreślono, że autorzy nie zarzucali, by Claude kiedykolwiek wygenerował kopię ich utworu, a przedmiotem sporu było samo wykorzystanie treści do rozwoju algorytmu.
Sąd przyjrzał się także "niszczycielskiemu skanowaniu" zakupionych książek
Sąd rozpatrzył również inną kategorię działań Anthropic: zakup milionów używanych książek w formie drukowanej, a następnie ich "niszczycielskie skanowanie". Proces ten polegał na odrywaniu opraw, cięciu stron i tworzeniu cyfrowych kopii, podczas gdy papierowe oryginały były wyrzucane.
W tym przypadku sąd również uznał działania za dozwolony użytek, ale z innego powodu. Proces został zakwalifikowany jako "zmiana formatu" nośnika. Anthropic legalnie nabył prawo do posiadania tych książek i jedynie zamienił je na wygodniejszą, cyfrową wersję na własny, wewnętrzny użytek, co ułatwiło ich przechowywanie i przeszukiwanie. Ponieważ kopie te nie były dalej rozpowszechniane, a oryginały zniszczono, sąd nie dopatrzył się naruszenia praw autorów.
Twórcy sztucznej inteligencji Claude mogą jednak odpowiedzieć za piractwo
Zwycięstwo firmy Anthropic nie jest całkowite. Sąd skrytykował firmę za początkowe działania, polegające na masowym pobieraniu książek z nielegalnych źródeł internetowych. Twórcy chatbota Claude mieli zgromadzić w ten sposób bibliotekę zawierającą ponad siedem milionów pirackich kopii książek, w tym dzieła powodów.
Sędzia Alsup stwierdził jednoznacznie, że budowanie "stałej, ogólnego przeznaczenia biblioteki" z pirackich materiałów nie jest tym samym, co ich transformacyjne wykorzystanie do treningu AI. Zdaniem sądu, takie działanie było zwykłym piractwem, mającym na celu uniknięcie kosztów legalnego pozyskania materiałów.
Anthropic stanie więc przed sądem ponownie, tym razem w sprawie dotyczącej pirackich kopii użytych do stworzenia swojej biblioteki. Proces ten rozstrzygnie o wysokości ewentualnego odszkodowania, a sąd weźmie pod uwagę, czy działania firmy były umyślne.
Komentarze
0Nie dodano jeszcze komentarzy. Bądź pierwszy!