Det väntar flera stämningsansökningar för OpenAI och fler kan det bli då de verkligen behöver andras verk för att kunna träna sin AI.
OpenAI och deras störste investerare Microsoft har det tufft med att kunna träna sin AI utan klagomål. Just nu finns det flera stämningar som anklagar dem för att använda andras upphovsrättsskyddade verk utan tillstånd för att träna upp sina stora språkmodeller.
OpenAI har berättat för en brittisk granskningskommitté att det skulle vara “omöjligt att träna dagens ledande AI-verktyg (som ChatGPT-4) utan att använda upphovsrättsskyddat material”. Enligt OpenAI så anser de att de följer lagar och att deras träning går under ”rättvis användning”. Samtidigt så säger de att det finns mer att göra för skapare och att de utvecklar och erbjuder sätt för hemsidor att blockera träningen av AI.
The New York Times som stämt OpenAI och Microsoft med anklagelsen att de vägrar ge författare ersättning för deras arbete samtidigt som de själva bygger en miljardindustri med AI. OpenAI kommenterade inte just detta men sa att publikationen inte berättar hela sanningen. Enligt OpenAI så ska New York Times ha manipulerat ChatGPT för att återge exakta meningar tagna från nyhetspublikationens artiklar som funnits bakom betalväggar. OpenAI sa även att anklagelserna saknar grund men att de fortfarande hoppas på ett framtida samarbete.
Angående den stämning till OpenAI som lämnats in av New York Times så kommenteras denna nu lite mer ingående. OpenAI berättar sin syn på saken.
OpenAI som ägs av Microsoft förtydligar nu hur de ser på journalism och den stämning som New York Times lämnat in mot företaget. Deras mål är att utveckla AI-verktyg som stärker människor i problemlösning som annars inte är genomförbara. Idag är miljontals externa utvecklare och företag engagerade kring deras tjänster. OpenAI sammanfattar sin verksamhet kring fyra punkter:
OpenAI samarbetar med nyhetsorganisationer och skapar nya möjligheter. De träffar regelbundet ledande företag inom nyheter och media för att utforska möjligheter och diskutera frågor samt tillhandahålla lösningar. OpenAI vill vara en bra partner och skapa möjligheter som gagnar alla parter.
De anser att publik träning av deras AI-modeller ska ses som rättvist användande. Flertalet akademiska och bibliotekstjänster, intressegrupper, startups, företag, innehållsskapare, författare med flera har nyligen lämna in sina synpunkter kring detta där de ger sitt stöd. Flertalet regioner och länder har också lagar som tillåter träning av modeller kring upphovsrättskyddat material. OpenAI tillhandahåller också en “opt-out”-tjänst för de som inte vill upplåta sitt material för träning, något som NY Times anammat i augusti 2023 vilket innebär att OpenAI’s verktyg inte besöker deras hemsidor.
Den bugg som finns under namnet “regurgitation” är sällsynt och det arbetas för att denna ska försvinna. Det handlar om att material som förekommer på flertalet sidor som verktyget tränas på kan användas i material trots att det finns direktiv på att så inte ska ske. Denna oavsiktliga memorering ska inte förekomma och samtidigt uppmanas användare att inte medvetet manipulera deras modeller.
New York Times berättar inte hela historien och utelämnar diskussioner mellan de båda företagen kring nyttjande av tjänster baserade på ChatGPT som skulle vara fördelaktigt för deras läsare. De har också informera New York Times om att deras innehåll inte varit så pass meningsfullt för att träna sina modeller. OpenAI fick dessutom reda på stämningen genom att läsa New York Times och då tidningen påpekat förekomster av oavsiktliga memoreringar så har de inte inkommit med några exempel. De memoreringar som verkar retat upp tidningen har dessutom förekommit hos flera tredjepartshemsidor under flera år. Det verkar också som att tidningen har manipulerat prompter för att medvetet få fram dessa oavsiktliga memoreringar.
OpenAI hoppas på ett fortsatt konstruktivt samarbete med New York Times och andra nyhetspulicister. Vad som händer framöver återstår att se. Hela det omfattande inlägget kan läsas via länken nedan.
OpenAI står anklagade för att ha använt upphovsrättsskyddat material för att träna ChatGPT. Nu har de dessutom råkat radera bevis som kunde ha avgjort fallet.
Efter månader av granskning av ChatGPT:s träningsdata drabbades advokater från New York Times och Daily News av en överraskning – OpenAI råkade radera allt deras arbete. AI-utvecklaren lyckades återställa delar av materialet, men nu saknas det som kunde användas i rättsprocessen. Ett dyrt misstag, bokstavligt talat.
Tvisten gäller om AI-modeller får tränas med upphovsrättsskyddade verk utan tillstånd. OpenAI hävdar att det handlar om “fair use”, men kritiker menar att detta kan ge fel signaler för framtida AI-utveckling. Med raderade bevis och påbörjad omgranskning kan denna rättsprocess bli både längre och dyrare än planerat. Sedan ser det inte speciellt bra ut för OpenAI att ha hanterat bevismaterial mot dem på det här sättet.