OpenAI: to nie ChatGPT jest winny śmierci dziecka. To ono naruszyło regulamin

Firma OpenAI zaprzecza, jakoby ChatGPT przyczynił się do śmierci nastolatka, który odebrał sobie życie. W sądzie argumentuje, że dziecko samo jest sobie winne, bo naruszyło regulamin korzystania z usługi, rozmawiając z czatbotem o samobójstwie.
Fot. Andre Taissin / Unsplash
Fot. Andre Taissin / Unsplash

Firma OpenAI zaprzecza, jakoby ChatGPT przyczynił się do śmierci nastolatka, który odebrał sobie życie. W sądzie argumentuje, że dziecko samo jest sobie winne, bo naruszyło regulamin korzystania z usługi, rozmawiając z czatbotem o samobójstwie.

16-letni Adam Raine popełnił samobójstwo w kwietniu. Jego ojciec, Matt Raine, pozwał firmę OpenAI – twórców czatbota ChatGPT – oskarżając firmę o poluzowanie zabezpieczeń w usłudze, co spowodowało, że ChatGPT stał się “coachem od samobójstwa” (jak to określa rodzic chłopaka) dla jego syna.

Ojciec zmarłego nastolatka uważa, że firma OpenAI celowo zaprojektowała wersję czatbota, z której korzystał jego syn w taki sposób, aby ChatGPT zachęcał i walidował jego wyobrażenia o samobójstwie. Celem firmy było bowiem zwiększanie zaangażowania użytkowników w korzystanie z czatbota – a to osiąga się m.in. przez takie ich programowanie, aby schlebiały użytkownikom i utwierdzały ich w żywionych przez nich przekonaniach.

OpenAI: rodzice wybiórczy, a dziecko samo sobie winne

Odnosząc się do treści pozwu, spółka OpenAI ocenia, że rodzice chłopaka idąc do sądu, wybrali celowo najbardziej szokujące zapisy rozmów Adama z ChatemGPT, celowo ignorując pełniejszy obraz i szerszy kontekst konwersacji, który miał być widoczny w logach usługi.

Firma Sama Altmana twierdzi, że z logów wynika, iż nastolatek zaczął mieć myśli samobójcze już w wieku 11 lat, czyli na długo, zanim zaczął korzystać z czatbota i zanim ChatGPT w ogóle został udostępniony użytkownikom.

“Lektura pełnej historii czatu pokazuje, że jego śmierć, jakkolwiek tragiczna, nie została spowodowana przez ChatGPT” – twierdzi OpenAI w odpowiedzi na pozew rodziców.

Firma dodatkowo stwierdziła, że z logów wynika, iż cierpiący nastolatek wielokrotnie próbował mówić o swoich problemach zaufanym osobom z otoczenia, ale jego wzywanie o pomoc i krzyk rozpaczy były ignorowane. Miał podzielić się tym z ChatemGPT

Adam miał samowolnie zwiększyć dawkę przyjmowanych leków, co wzmocniło odczuwane przez niego objawy depresji i spowodowało myśli samobójcze. To również znalazło się zdaniem OpenAI w logach czatbota. Według firmy Altmana, to właśnie leki, które przyjmował nastolatek, “mają wypisane na opakowaniu ostrzeżenie o ryzyku myśli samobójczych i podobnych zachowań u nastolatków i młodych dorosłych, szczególnie w okresach zmiany dawkowania”.

Nie do zweryfikowania

Serwis Ars Technica opisujący tę sprawę zauważa, że twierdzeń firmy OpenAI odnoszących się do zawartości logów ChatuGPT nie da się niezależnie zweryfikować, bo jako materiał istotny dla śledztwa zostały utajnione. Firma Altmana zaś publicznie deklaruje, że nie będzie dzielić się “wrażliwymi dowodami” z opinią publiczną, bo “w sprawach dotyczących zdrowia psychicznego chce działać z troską, przejrzystością i poszanowaniem” dla nich.

Tego poszanowania nie widzi w stanowisku OpenAI prawnik reprezentujący rodziców Adama.

Zimna kalkulacja i deliberatywna obojętność

Mecenas Jay Edelson ocenia, że odpowiedź OpenAI na pozew rodziców jest “szokująca”. Firma miała zignorować wszystkie argumenty państwa Raine, np. ten dotyczący braku pełnych testów modelu GPT-4o zanim został on wypuszczony na rynek. 

OpenAI miała też dwukrotnie zmieniać specyfikację modelu tak, aby musiał on angażować się w dyskusje dotyczące autoagresji rozpoczynane przez użytkowników. Zdaniem prawnika rodziny, ChatGPT odradzał nastolatkowi rozmowy z rodzicami o jego myślach samobójczych i aktywnie pomagał mu “planować piękne samobójstwo”. 

Dodatkowo, jak argumentuje prawnik, ani firma OpenAI, ani Sam Altman, nie potrafią wytłumaczyć tego, co działo się w ostatnich godzinach życia nastolatka. A co się działo? ChatGPT miał odbyć z Adamem “pogadankę motywacyjną” dotyczącą samobójstwa i zaoferował mu, że napisze dla niego list pożegnalny. 

To właśnie mecenas Jay Edelson ujawnił, że OpenAI w procesie z rodzicami chłopaka argumentuje, iż to nastolatek sam jest sobie winien, gdyż ”samodzielnie naruszył regulamin usługi angażując się w rozmowę z ChatemGPT dokładnie w taki sposób, w jaki został on zaprogramowany” (cytat jest wypowiedzią mec. Edelsona – red.).

Prawnik jednocześnie zauważa, że firma nie zdecydowała się wypełnić wniosku o oddalenie pozwu, co samo w sobie sugeruje, iż spółka Altmana do pewnego stopnia “zdaje sobie sprawę, że argumenty prawne, którymi dysponuje, są marnej jakości, o ile w ogóle istnieją”.

Edelson ocenia, że “OpenAI i Sam Altman nie zatrzymają się przed czymkolwiek – nawet przed zastraszaniem rodziny Raine i innych, którzy odważyli się wystąpić (do sądu – red.), aby tylko uniknąć odpowiedzialności”. Jednak, jego zdaniem “ostatecznie będą musieli wyjaśnić sądowi, dlaczego tak wiele osób odebrało sobie życie w wyniku tego, że zachęcał ich do tego ChatGPT zaprogramowany przez OpenAI i Sama Altmana”.

OpenAI: nie ponosimy odpowiedzialności

Firma OpenAI odnosi się do tych zarzutów kładąc nacisk na treść regulaminu swoich usług. Spółka podkreśla przede wszystkim, że chłopak nie powinien korzystać z ChatuGPT bez nadzoru rodziców i tym samym, to jego rodzina jest winna, iż nastolatek odebrał sobie życie.

Dodatkowo, spółka podkreśla, że “użytkownicy ChatuGPT przyjmują do wiadomości, iż korzystają z niego wyłącznie na własne ryzyko i są informowani o tym, że zwracane przez niego rezultaty nie mogą być traktowane jako jedyne źródło prawdy lub rzetelnych informacji”. OpenAI broni się też wskazując, że w regulaminie usługi są zapisy zabraniajace wykorzystywania ChatuGPT do szkodzenia sobie, innym ludziom, a także do celów terrorystycznych czy związanych z aktami przemocy seksualnej.

Odnosząc się do sprawy sądowej wytoczonej przez rodziców nastolatka, OpenAI argumentuje, że ochrona użytkowników naruszających regulamin nie jest odpowiedzialnością po stronie firmy. ChatGPT miał ostrzegać Adama “ponad 100 razy” wskazując mu, aby poszukał pomocy, ale ten “w powtarzalny sposób wyrażał frustrację w związku z ograniczeniami wbudowanymi w ChatGPT, które kierowały go w stronę rozmowy z najbliższymi lub poszukania specjalistycznej pomocy”.

Zdaniem firmy, nastolatek sam obszedł zabezpieczenia ChatuGPT i korzystał też z innych platform AI, co ma wynikać z logów rozmów z czatbotem, podobnie jak to, że był użytkownikiem forów internetowych dla samobójców. 

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share