OpenAI pracuje nad specjalną wersją czatbota ChatGPT przeznaczoną dla nastolatków. Powodem są m.in. pozwy przeciwko firmie oskarżające ją o zaniedbania w zakresie bezpieczeństwa dzieci w usłudze.
Firma OpenAI pracuje nad specjalną wersją czatbota ChatGPT, która będzie przeznaczona dla użytkowników poniżej 18 roku życia i ma oferować „odmienne doświadczenie korzystania z usługi” – relacjonuje serwis Axios.
Weryfikacja wieku ma odbywać się na podstawie mechanizmów predykcji, które określą, czy użytkownik powinien korzystać z domyślnej, „dorosłej” wersji ChatuGPT, czy też z jego nowej, przeznaczonej dla nastolatków odsłony.
Firma Sama Altmana twierdzi, że odpowiednie mechanizmy i technologie posiada – wobec czego weryfikacja wieku nie powinna być problemem, a jeśli w niektórych przypadkach się nie powiedzie z jednoznacznym skutkiem, to usługa automatycznie przełączy się do wersji dla młodocianych, aby gwarantować odpowiedni poziom bezpieczeństwa.
To reakcja m.in. na pozwy, które OpenAI w ostatnim czasie otrzymała w związku z oskarżeniami o niedostateczne ramy bezpieczeństwa, które miały doprowadzić m.in. do odebrania sobie życia przez nastolatka.
Odpowiedzialność przerzucona na rodziców. Znowu
W wersji przeznaczonej dla nastolatków, za bezpieczeństwo klasycznie – jak to zazwyczaj ma miejsce w przypadku produktów Big Techu – odpowiedzialni będą rodzice.
Zamiast wbudować ograniczenia domyślnie w produkt, OpenAI pozostawia rodzicom możliwość ustawienia, jakiego typu interakcje będzie mogło podejmować dziecko z ChatemGPT, ograniczając np. tryb flirtu. Rodzice będa też mogli połączyć swoje konto w usłudze z kontem dziecka, po to, aby nadzorować jego aktywność poprzez system powiadomień o alarmujących promptach (mogących wskazywać np. na kryzys psychiczny u dziecka) i móc wyłączyć zapisywanie historii konwersacji oraz „uczenie się” czatbota. Ostatecznie, rodzice będą mogli ustawiać godziny, w których ChatGPT będzie dla dziecka niedostępny.
ChatGPT dla nastolatków – to nie jest dobry pomysł
… a zarazem, całkowicie spodziewany ruch ze strony OpenAI, która chce przyzwyczaić użytkowników od najmłodszych lat do korzystania ze swojego produktu.
Wersję czatbota dla dzieci zapowiedziało też Google, o czym można przeczytać na łamach TECHSPRESSO.CAFE w tym tekście. Użytkownicy, którzy za młodu nauczą się, że synonimem generatywnej AI jest konkretny produkt, zostaną z nim na dłużej i zbudują sobie system nawyków ograniczający większość przypadków użycia właśnie do rozwiązania, do którego przyzwyczaili się we wczesnym okresie korzystania z technologii.
Zrzucanie odpowiedzialności za bezpieczeństwo usługi jest również listkiem figowym – zdecydowana większość dorosłych ma problem z samodzielnym dbaniem o to, aby sztuczna inteligencja nie oddziaływała na nich negatywnie, założenie, że będą zdolni radzić sobie sprawnie z ograniczaniem zagrożeń względem swoich dzieci, jest zatem naprawdę odważne.
Bezpieczeństwo powinno być jedną z podstaw towarzyszących projektowaniu nowych produktów i usług od samego początku – jednak, to podejście, które wyklucza się z drapieżnymi modelami biznesowymi współczesnych graczy rynku cyfrowego.