Koncern Meta wprowadzi bezpieczniki, które uniemożliwią nastolatkom rozmowy z czatbotami tej firmy na tematy takie, jak samookaleczenia, zaburzenia odżywiania czy samobójstwo.
Łaskawy i ukierunkowany na zachowanie przy życiu możliwie jak największej liczby młodych, a zatem perspektywicznych użytkowników usług Mety, serwis BBC odnotowuje zaledwie dwa tygodnie po tym, jak amerykańscy senatorowie postanowili zająć się firmą Marka Zuckerberga w kontekście bezpieczeństwa jej usług AI w odniesieniu do wykorzystania przez dzieci i młodzież.
Wcześniej media informowały, że czatboty Mety prowadzą nieodpowiednie rozmowy z młodymi ludźmi, np. wdając się w konwersacje o charakterze romantycznym, czy seksualnym. Potwierdziła to wewnętrzna notatka firmy, która wyciekła do wiadomości publicznej i została ujawniona przez agencję Reutera.
Koncern odniósł się do treści notatki, podkreślając, że przykłady rozmów czatbotów z nieletnimi w niej zawarte są sprzeczne ze standardami dotyczącymi treści i polityką Mety.
Gaszenie pożaru
Najwyraźniej jednak problem istnieje – dlatego Meta postanowiła publicznie zapowiedzieć, że czatboty będą każdorazowo odsyłać młodych ludzi do „materiałów eksperckich”, jeśli w konwersacji pojawią się wątki dotyczące tematyki takiej, jak samobójstwo, zaburzenia odżywiania czy samookaleczenia.
Rzecznik firmy podkreślił też, że bezpieczeństwo nastolatków jest integralną częścią produktów AI już na etapie ich projektowania. Jako zwykli śmiertelnicy, oczywiście, nastolatkowie mogli tego nie dostrzec – nie mówiąc o ich jeszcze mniej spostrzegawczych rodzicach. Słowa rzecznika więc naprowadzają nas na właściwe tory rozumienia rzeczywistości, podobnie jak deklaracje firmy, które padły w rozmowie z serwisem Tech Crunch, gdzie przedstawiciele Mety zapewniali, że w narzędziach AI znajdą się dodatkowe bezpieczniki, które mają ograniczać czasowo możliwość podejmowania interakcji z określonymi czatbotami przez nieletnich użytkowników.
Nie tylko Meta
Czatboty to nie tylko produkty Mety – to także cała gama innych usług, takich jak choćby Replika, czy Character.AI, a także synonimiczny już dla słowa „czatbot” ChatGPT firmy OpenAI.
Spółka ta w ostatnim czasie dorobiła się pozwu ze strony małżeństwa z Kalifornii, które pozwało OpenAI w związku ze śmiercią syna – nastolatek odebrał sobie życie po tym, jak czatbot miał go do tego zachęcić. Wcześniej, w ubiegłym miesiącu, spółka Samuela Altmana obiecała wprowadzić więcej mechanizmów ochrony użytkowników i zachęcających do „zdrowszego” korzystania z jej usług.
Na łamach TECHSPRESSO.CAFE można przeczytać o czatbocie Tessa, który miał pomagać w walce z zaburzeniami odżywiania, a zamiast tego – szkodził. Algorytm zastąpił przy tym wcześniej zwolnionych pracowników telefonu zaufania, ukierunkowanego na pomoc osobom cierpiącym z powodu tego rodzaju problemów.
Warto zatem zadać sobie pytanie o kwestie etyczne, zanim zoptymalizujemy koszty – albo zostawimy nastolatków samym sobie, ignorując ich potrzebę kontaktu i emocjonalnego wsparcia.