Pirmadienį Kalifornijos valstijos teismui pateiktame skunde Matthew ir Maria Raine‘ai tvirtina, kad 2024 ir 2025 m. jų sūnus Adamas kelis mėnesius artimai bendravo su platforma „ChatGPT“, kol nusižudė.
Ieškinyje teigiama, kad 2025 m. balandžio 11 d. paskutinio pokalbio metu „ChatGPT“ patarė Adamui, kaip pavogti iš tėvų degtinės ir atliko techninę jo surištos kilpos analizę, patvirtindama, kad ji „galėtų išlaikyti pakabintą žmogų“.
Po kelių valandų Adamas buvo rastas negyvas – jis nusižudė būtent tokiu būdu.
Ieškinyje atsakovais įvardijami „OpenAI“ ir jos generalinis direktorius Samas Altmanas.
„Ši tragedija nebuvo staigus gedimas ar nenumatytas paribio atvejis“, – teigiama ieškininiame pareiškime.
„ChatGPT“ veikė būtent taip, kaip ir buvo sumanyta: nuolat skatino ir patvirtino viską, ką sakė Adamas, įskaitant pačias žalingiausias ir labiausiai save žalojančias mintis, ir tai darė labai asmeniškai“, – toliau nurodoma pareiškime.
Ieškinyje teigiama, kad Adamas platformą „ChatGPT“ naudoti pradėjo kaip pagalbinę priemonę namų darbams atlikti, bet palaipsniui išsiugdė, jo tėvų teigimu, nesveiką priklausomybę.
Ieškininiame pareiškime pateikiamos pokalbių ištraukos, kuriose „ChatGPT“ neva sakė Adamui, kad „tu niekam nesi skolingas už išgyvenimą“, ir siūlėsi padėti parašyti atsisveikinimo raštelį.
Raine‘ai siekia prisiteisti nenurodyto dydžio žalos kompensaciją ir prašo teismo priimti nutartį, kuria būtų nurodoma taikyti saugos priemones, įskaitant automatinį bet kokio pokalbio, susijusio su savęs žalojimu, nutraukimą ir nepilnamečių naudotojų tėvams skirtas kontrolės priemones.
Tėvams atstovauja Čikagos advokatų kontora „Edelson PC“ ir „Tech Justice Law Project“.
Priversti dirbtinio intelekto bendroves rimtai rūpintis saugumu „galima tik darant išorinį spaudimą, o išorinis spaudimas reiškia blogą reklamą, naujų teisės aktų ir teisminių ginčų grėsmę“, – naujienų agentūrai AFP sakė bendrovės „Tech Justice Law Project“ vadovė Meetali Jain.
„Tech Justice Law Project“ taip pat atstovauja klientams dvejose panašiose bylose prieš „Character.AI“ – populiarią dirbtinio intelekto kompanionų platformą, kuria dažnai naudojasi paaugliai.
Reaguodama į bylą, susijusią su platforma „ChatGPT“, žiniasklaidą ir technologijas stebinti ir vertinanti Amerikos ne pelno organizacija „Common Sense Media“ teigė, kad Raine‘ų šeimos tragedija patvirtina, jog „dirbtinio intelekto naudojimas siekiant draugystės, įskaitant pokalbius su tokiais bendros paskirties pokalbių robotais kaip „ChatGPT“ patarimams psichinės sveikatos klausimais gauti, paaugliams kelia nepriimtiną riziką“.
„Jei dirbtinio intelekto platforma tampa pažeidžiamo paauglio „savižudybės treneriu“, tai turėtų paraginti mus visus imtis veiksmų“, – pareiškė organizacija.
Praėjusį mėnesį organizacijos „Common Sense Media“ atliktame tyrime nustatyta, kad beveik trys iš keturių amerikiečių paauglių yra naudojęsi dirbtinio intelekto kompanionų paslaugomis, o daugiau nei pusė jų yra nuolatiniai tokių platformų naudotojai, nepaisant vis didėjančio susirūpinimo, ar šie virtualūs santykiai tikrai yra saugūs.
Tyrime „ChatGPT“ dirbtinio intelekto kompanionu laikoma nebuvo. Tokie kompanionai apibrėžiami kaip pokalbių robotai, skirti asmeniniams pokalbiams, o ne paprastoms užduotims atlikti, ir veikia tokiose platformose kaip „Character.AI“, „Replika“ ir „Nomi“.
Patiko straipsnis? Užsiprenumeruokite mūsų naujienlaiškį ir gaukite svarbiausias dienos naujienas bei įdomiausius straipsnius kiekvieną darbo dieną 11 val. Tiesiai į Jūsų el. paštą!