Pedofile korzystają z czatbotów, a ich fantazje wyciekają do sieci – wykryła firma UpGuard. Zdaniem ekspertów to poważny sygnał alarmowy dotyczący przestępczego użycia modeli AI.
Otwartoźródłowe modele językowe mogą być wykorzystywane w różny sposób – na przykład do tworzenia usług, które umożliwiają konwersacje o charakterze erotycznym.
Firma z branży cyberbezpieczeństwa UpGuard wykazała jednak, że czatboty wykorzystywane przez użytkowników do fantazjowania na tematy związane z seksem nie zawsze używane są w sposób zgodny z prawem.
W marcu spółka UpGuard wykryła ok. 400 źle skonfigurowanych systemów AI, spośród których część to niewielkie usługi czatbotów zbudowanych w oparciu o otwartoźródłowy model językowy Llama i uruchomiony z wykorzystaniem modułu llama.cpp
Erotyczne fantazje z AI
Część spośród wykrytych systemów – około jedna trzecia wszystkich źle skonfigurowanych instancji – była ustawiona w taki sposób, że wyciekały z nich prompty. Większość z nich była całkowicie nieszkodliwa.
Jednak część z wyciekających promptów zainteresowała badaczy – okazało się bowiem, że prompty, które wyciekają, to elementy konwersacji użytkowników z czatbotami ewidentnie zaprojektowanymi tak, by mogły odpowiadać na fantazje erotyczne.
Treści zakazane prawem
Wśród scenariuszy promptów dla erotycznych czatbotów, kilka z nich zostało według UpGuard specjalnie zaprojektowanych tak, aby mogły być wykorzystywane przez pedofilów. Opisane w scenariuszach interakcje bowiem zawierały opisy czynności seksualnych z udziałem dzieci, w tym – kilkulatków.
Treści tego rodzaju są nielegalne, a pedofilia jest przestępstwem. Badacze z UpGuard nie byli w stanie jednak przypisać instancji wykorzystywanych do budowy czatbotów modeli do odpowiedzialnego za nie podmiotu. Niemożliwe też było zidentyfikowanie, na jakich stronach internetowych lub w jakich usługach osadzone były czatboty oferujące nielegalne scenariusze erotyczne.
Wiceprezes UpGuard Greg Pollock w rozmowie z magazynem „Wired” podkreśla, że przeprowadzone przez firmę badanie to sygnał alarmowy dotyczący tego, jak nieetyczne mogą być różne sposoby wykorzystania sztucznej inteligencji.
Jego zdaniem szeroka propagacja AI obniża próg dostępności materiałów zawierających treści zabronione prawem, takie jak pornografia dziecięca w dowolnej formie, a regulacja sztucznej inteligencji w ogóle nie obejmuje tego tematu.
Kto to zaprojektował?
Zdaniem Pollocka, niekoniecznie musi stać za tym firma chcąca cynicznie zarabiać pieniądze z naruszeniem prawa.
Na rynku obecne są bowiem usługi, które pozwalają użytkownikom na tworzenie promptów obejmujących całe nowe scenariusze i persony, z którymi inni będą mogli wchodzić w interakcje – i to właśnie tego rodzaju czatboty mogą być źródłem niezgodnych z prawem treści wyciekających w promptach odnalezionych przez UpGuard.