Dirbtinis intelektas. Kaip nuo jo apsisaugoti kūrėjams?
2024 - 03 - 06
Straipsnio autorius: Julija Beldeninovienė
Pastaraisiais metais kūrybinėse industrijose kilo rimtų neramumų dėl dirbtinio intelekto (DI) panaudojimo. Holivudą sukrėtė galingas aktorių ir scenaristų streikas, dėl kurio studijos buvo priverstos sustabdyti daugumos pagrindinių projektų įgyvendinimą. Tada kūrėjai sukilo dėl DI kuriamų jų vaizdo ir garso įrašų panaudojimo. Lietuvoje kūrybinių sričių atstovai taip pat vis dažniau neramiai kalba apie DI sukeliamas rizikas. Nors šiuo metu nei Lietuvos, nei Europos Sąjungos lygmeniu nėra jokio teisinio reguliavimo dėl tokių technologijų panaudojimo, yra teisinių priemonių, kurios gali padėti kūrėjams apsaugoti DI sugeneruotą atvaizdo panaudojimą, sako Julija Beldeninovienė, advokatų teisinės bendrijos COBALT patarėja.
Anot J. Beldeninovienės, nors vaizdo ir garso klastočių (deepfake) technologijų panaudojimas nėra ir ateityje nebus draudžiamas, tačiau kūrėjai turėtų atkreipti dėmesį į savo teises, kurios yra apibrėžtos įstatymų ir kurios gali padėti apsaugoti savo DI sukurto atvaizdo panaudojimą.
Pirmiausia, advokatė sako, kad asmens nuotrauka ir kitoks atvaizdas negali būti atgaminami, parduodami, spausdinami be žmogaus sutikimo. Visuomenėje žinomų žmonių, įskaitant ir atlikėjus, teisės į savo atvaizdą yra kiek siauresnės. Jų fotografavimas ar filmavimas renginiuose ar kitose viešose vietose yra leidžiamas, bet net ir tokiais atvejais, jų atvaizdo naudojimas komerciniais tikslais neturint tam leidimo yra neteisėtas, sako patarėja.
Ji atkreipia dėmesį, kad tam, kad DI technologijų pagalba būtų galima sukurti asmens vaizdą, reikalinga jo nuotrauka ar vaizdo įrašas. Garso sintetinimui DI pagalba reikalingas balso įrašas. Tačiau dažnai autorių turtinės teisės į nuotraukas, garso ar vaizdo įrašus priklauso ne atlikėjams, bet garso ar kino studijoms. Todėl atlikėjams labai svarbu skaityti jų sudaromas sutartis su kūrybinėmis industrijomis: „Svarbu, kad sudaromose sutartyse būtų numatyta, kokiu laikotarpiu ar kokio konkretaus projekto rėžiuose garso ar vaizdo įrašas bus naudojamas. Sutartyje galima net gi konkrečiai nurodyti, kad vaizdo ar garso įrašas negali būti naudojamas apmokant dirbtinį intelektą.“
Beldeninovienė taip pat pabrėžia, kad atlikėjas savo atvaizdą gali apsaugoti įregistruodamas jį kaip prekių ženklą. Tiesa, tai padėtų apsisaugoti tik nuo vaizdo klastočių, naudojamų prekėms ir paslaugoms, kurių atžvilgiu yra registruotas, reklamuoti. Advokatė priduria, kad balsas negali būti registruojamas prekių ženklu, bet tam tikra atlikėjo frazė ir garsų derinys – gali. Atitinkamai, prekių ženklas galėtų apsaugoti atlikėjus nuo garso klastočių tik tam tikrais aspektais: pavyzdžiui, nuo skambių frazių klastojimo.
Galiausiai, COBALT advokatė atlikėjus skatina atkreipti dėmesį į tai, kad asmens balsas, atvaizdas yra asmens duomenys. Todėl garso ar vaizdo klastočių kūrimas yra susijęs su asmens duomenų tvarkymu ir tam reikalingas asmens sutikimas.
Teisiniai pokyčiai – jau šiais metais
Anot J. Beldeninovienės, nors ir egzistuoja teisinės priemonės, kurių pagalba atlikėjai galėtų apsisaugoti nuo DI keliamų rizikų, tačiau jos vis dar yra ribotos. Tam tikras reguliavimas ES lygmeniu atsiras jau šiais metais, kai įsigalios naujas DI aktas. Tiesa, ir šis aktas didelių pokyčių neįves.
„Naujas DI aktas įpareigos vaizdo ir garso klastočių (deepfake) kūrėjus bei platintojus atskleisti jo dirbtinę kilmę ir pateikti informaciją apie panaudotą technologiją. Tokiu būdu norima vartotojus apsaugoti nuo galimų manipuliacijų. Skaidrumo reikalavimo taikymas padės kovojant su klastočių technologijų keliama rizika, tačiau kiek – kol kas sunku prognozuoti“, – sako J. Beldeninovienė.