Legújabb hírek az AI világából – felbolydult a világ
A mesterséges intelligencia alapú alkalmazások szerzői jogi kihívásairól előszeretettel írunk e blogon. A terület folyamatos fejlődése magával hozza a jogi problémák felgyorsulását is. Amit azonban az elmúlt hónapok produkálnak, arra lassan szavakat se lehet találni. Nézzünk kicsit a mélyére a legújabb pereknek. (És előre is elnézést, február eleje óta készítem ezt az írást, de most értem csak a végére. Én mi minden történt ez alatt a másfél hónap alatt!)
Igen, merthogy ezúttal már perekről kell beszélnünk. Ami eddig csak elméleti kihívásokról szólt, az a generatív AI megjelenésével és számos alterületének a nyilvános (bár több esetben még csak béta szintű) alkalmazásával gyakorlati problémává nőtte ki magát.
Mielőtt ezekbe belenéznénk, hadd listázzam azokat a híreket, amelyek spontán (tehát különösebb keresés nélkül) „elém kerültek” a tudományos források és a mindennapi hírek szemlézése közepette. A Kluwer Copyright blogon háromszor is olvashattunk erről az elmúlt hetekben (itt, itt és itt); a ChatGPT-ről és más generatív AI alkalmazásokról izgalmas újságcikkek/elemzések jelentek meg a New York Times (itt, itt, itt, itt és itt), a Washington Post, a Guardian, a TechCrunch, a Digital Camera World vagy a Nature (itt és itt) oldalán. A hvg.hu-n már most már több tucatnyi apró hír olvasható e témában. Sőt a HVG 2023. február 16-ai nyomtatott számában „Válasz online” címmel közölt egy izgalmas elemzést a Google szorult helyzetéről; majd a március 9-ei számban hozott le egy portré interjút magával a ChatGPT-vel. (Mindkét cikk egyelőre csak az előfizetőknek érhető el.) Ám nem csak az OpenAI mesterséges intelligenciája érdemel figyelmet. Természetesen olvasni kell az „ellenlábas” Google-ről is: ott a Bard, az Imagen, a text-to-music AI alkalmazás MusicLM, vagy épp ott a hír, miszerint a Google visszahívja a cég alapítóit – Sergei Brin már fel is vette a munkát. (És még egyszer: ennél sokkal több van „out there”, de nem keresgéltem több forrást ehhez a poszthoz.)
Ami mindezeknél fontosabb, hogy az elmúlt hetekben összegyűlt öt olyan ügy, amelyek reálisan eljuthatnak a bíróságok szintjére (bár e téren vannak kétségeim), és amelyek szükségessé tették, hogy ismét posztot írjak.
Sorban ezek a Copilot per (íme a kereset); a csoportos per a Stable Diffusion, Midjourney és a Devientart ellen (lásd még itt); az amerikai Getty Images v. Stability AI ügy (ugyanez itt, itt és itt is) és ugyanennek a problémának az angol High Court of Justice előtt indított „testvérpere„, végül a történetiségét tekintve őskövület, azonban igencsak friss megállapítás iránti kereset a Thaler ügyben. (Egyelőre a fenti elnevezéseket tervezem használni, de ennél pontosabban is meg lehetne majd még jelölni a felperesek/alperesek neve mentén az ügyeket.)
E négy jogvita közül kettő alkotók, egy a piacát féltő képaggregátor és a mesterséges intelligenciát fejlesztő cégek között indult, a negyedikben pedig annak megállapítása a kérdéses, hogy az AI által kidolgozott kép – az annak nyilvántartásba vételét elutasító Amerikai Szerzői Jogi Hivatal véleményével szemben – jogvédett alkotás-e. Egyik per sem tűnik könnyűnek, ám viszonylag érthető módon mindegyik arra a végső kérdésre keresi a választ:
hol a helye az AI által fejlesztett tartalmaknak?
Ami az első két ügyet illeti: személy szerint csekély esélyét látom annak, hogy az OpenAI-nak (ami a Copilotot fejlesztette), a Stability AI-nak (a Stable Diffusion fejlesztője), vagy a Midjourney-nek komolyabban félnie kelljen a felperesi keresetektől (még akkor is, ha a Midjourney alapítója világossá tette, hogy engedély nélkül analizálta adatok milliárdjait). El is mondom, miért gondolom így.
Egyrészt egy valamire való szerzői jogi perhez legalább valószínűsíteni kell az engedély nélküli felhasználást (más szóval valamely vagyoni jog engedély nélküli gyakorlását). Miközben az viszonylag egyértelmű, hogy a releváns cégek az interneten keresztül (egyelőre úgy tűnik, hogy korlátok nélkül) elérhető adatokra támaszkodva mozdítják elő az algoritmusok gépi tanulását, egyáltalán nem magától értetődő, hogy valamely vagyoni jog ténylegesen sérül e felhasználás során. Kicsit pontosabban: ha valaki elemzi a már említett szolgáltatások működését, látni fogja, hogy a forrásadatok tendenciái, mintái mentén valószínűségeket vesz alapul egy új output elkészítése érdekében (egy Greg Rutkowski stílusú sárkány produkálásához számtalan Rutkowski sárkány adatainak elemzése szükséges, amelyből a gép adatbányászat útján kinyeri a releváns sajátosságokat). Ám nem magától értetődő, hogy ehhez szerzői jogi értelemben többszöröznie kellene a forrásadatot (adat alatt itt most jogvédett tartalmakat, például képeket értünk). Ha többszörözi is, talán csak ideiglenes jelleggel.
Ez utóbbi vonalon kell tovább indulni: tegyük fel, hogy legalább ideiglenes, esetleg tartós jelleggel adatmásolásra kerül sor. Amíg a releváns cégek az amerikai szerzői jog hatálya alá tartoznak, erős érveket sorakoztathatnak fel a fair use doktrína alkalmazhatósága mellett. Az algoritmikus tartalomszolgáltatás, amely a weboldalak tömeges böngészésén alapul, már jó ideje velünk van – igaz, ezeket például a Google jobbára eddig a keresőszolgáltatások keretében vette igénybe. (Well, a Bard, a ChatGPT is felfogható egyfajta keresőszolgáltatásként – íme még egy izgalmas vitakérdés.) Az amerikai joggyakorlatban a keresőmotorok által elérhetővé tett thumbnailek vagy a Google Books projekt megfelelt a fair use követelményeinek, és vígan élnek ma is. Nagy vonalakban az is kijelenthető, hogy az amerikai joggyakorlat megengedő a „technológiai fair use” esetek területén. (Kevésbé tűnik rugalmasnak a „művészeti fair use” esetekben, de erről majd máskor írok.) Természetesen ahhoz, hogy a fair use teszt – mint ún. affirmative defense – előkerüljön, a felperesnek bizonyítania kell legalább egy jogsértő magatartást. Ezt a gondolatot már elindítottam az előző bekezdésben, de álljon itt egy további izgalmas adalék: a felperesek igenis megtették már a megfelelő lépéseket, hogy a forrástartalmak tanulási adatként való többszörözését jogsértésnek állítsák be. Ez a logika azonban egyrészt komoly bizonyítást igényel (vagyis annak igazolását, hogy konkrétan meghatározott, jogvédett tartalmakat másolt például a Midjourney), valamint hiteles keresetleveleket. Andres Guadamuz igyekezett a blogján nem is oly rég körbejárni, hogy egyáltalán helytálló-e az a keresetlevél, amelyet a Stable Diffusion, Devinatart és Midjourney ellenében nyújtott be a Copilot perben is eljáró ügyvédi iroda. Az eredmény: kiábrándító. Guadamuz szerint a felperesek egyáltalán nem úgy írják le az alkalmazások működését, ahogy az a valóságban zajlik. Ugyanerre igyekszik figyelmeztetni a Stable Diffusion szóvivője is, aki szerint a cég alkalmazását félreértik a jogosultak.
Ami az Európai Uniót illeti, itt legalább annyira megoszlanak az állás- vagy épp nézőpontok. Olvashatunk ugyanis olyat, miszerint az egész gépi tanulás beilleszthető a szöveg- és adatbányászat (TDM) keretei közé (erről Paul Keller írt például a Kluwer Copyright Blogon); mások kifejezett szerzői jogi kivételért lobbiznak a training data felhasználhatósága érdekében; vagy épp a Raymond Ku (huh, 13 éve találkoztam vele utoljára…) által felvetett „private contractual systems” ötlete, vagyis egy automatikus, bevétel alapú méltányos díjazás is elképzelhetőnek tűnik. Személy szerint nem vagyok meggyőződve arról, hogy ezek bármelyike is magától értetődő lenne. A TDM – CDSM-irányelv 4. cikke szerinti üzleti változat – alkalmazása számos technikai feltételtől függ (melyek közül kiemelkedik a megőrzés időtartama és a jogosulti opt-out lehetősége); a teljesen új, speciális kivétel bevezetésére jelenleg semmi esélyt nem látok uniós szinten; a méltányos díjazást pedig mi indokolná, ha nem beszélhetünk releváns korlátozásról? Nem beszélve arról a fentebb már taglalt kérdésről, hogy egyáltalán nem látom igazoltnak, hogy szerzői jogilag releváns felhasználásról beszélünk – az EU-ban ugyanis ott van még az ideiglenes többszörözés harmonizált (kötelezően átültetendő) esetköre is az InfoSoc-irányelv alapján.
Ami a Stable Diffusion elleni amerikai és angol pert illeti, egyelőre úgy érzem, ez a közvetítők csatája lehet: a Getty Images képek millióinak engedély (licencia) nélküli felhasználása miatt vonja kérdőre a Stable Diffusiont, ám hogy ez a követelés megalapozott-e, eljárhat-e a Getty Images az ügyben, és hogy ténylegesen tudja-e majd igazolni a kérdéses képek jogsértő felhasználását, erősen kérdésesnek tűnik. Végül ott van a Stephen Thaler által fejlesztett mesterséges intelligencia segítségével előállított vizuális tartalom nyilvántartásba vételének elmaradása miatt (annak „spin-offjaként”) indult per, amelyben Thaler annak megállapítását kéri a Federal Circuittől, hogy a kép igenis jogvédett mű lehet. (Nem szoktam fogadni, de most nagyon is valószínűnek tartom a kereset elutasítását.) (Viszont ha ez így van, akkor a ChatGPT sem lehet szerző, mint aminek a megjelölésével egyébként páran már próbálkoztak…)
Nem kevés probléma, tényleg érthető, miért „borult a bili”. Én mégis azt mondom, hogy „nem eszik olyan forrón a kását”. Egyrészt nem csak a generatív AI-fejlesztések lángoltak fel – de az AI-generált tartalmak feltárására, sőt legújabban a mesterséges intelligencia általi „másolás” lehetőségét megnehezítő fejlesztések is napvilágot láttak. Előbbire lehet példa a Have I Been Trained, a GPTzero, a DetectGPT vagy és a spawning.ai alkalmazás (igaz, e szolgáltatások egy részének a technológiai működése legalább annyira nehezen követhető, mint magának a generatív AI-nak); utóbbira – és ez már igencsak érdekes – a Glaze. Utóbbit szakemberek fejlesztették abból a célból, hogy egyfajta „maszkolást” alkalmazzanak a forrás vizuális tartalmak esetén oly módon, hogy miközben a mű az emberi szem számára az eredeti megjelenésében érhető el, addig a Glaze a kép digitális formáját (az adatokat) módosítja oly módon, hogy például a Stability AI másként „olvassa le” a konkrét képet (nem tudja analizálni a kép eredeti jellemzőit). Rendkívül izgalmas kérdés, mert ez a megoldás akár még meg is feleltethető a CDSM-irányelvben foglalt opt-out logikának. Hasonlóképp izgalmas – sőt talán fontosabb is – lehetne annak vizsgálata, hogy az AI elfogult-e (nos, az…) vagy hogy egyáltalán valóban az ilyen prediktív technológiáknak kell-e a jövő mesterséges intelligenciáját jelentenie?
Noam Chomsky szavait idézve zárnák a gondolataimat – teljes mértékben egyetértve vele:
To be useful, ChatGPT must be empowered to generate novel-looking output; to be acceptable to most of its users, it must steer clear of morally objectionable content. But the programmers of ChatGPT and other machine learning marvels have struggled — and will continue to struggle — to achieve this kind of balance.