OpenAI pracuje nad wersją czatbota ChatGPT dla nastolatków

OpenAI pracuje nad specjalną wersją czatbota ChatGPT przeznaczoną dla nastolatków. Powodem są m.in. pozwy przeciwko firmie oskarżające ją o zaniedbania w zakresie bezpieczeństwa dzieci w usłudze.
ChatGPT w wersji dla nastolatków to kolejny pomysł OpenAI / Fot. Annie Spratt / Unsplash
ChatGPT w wersji dla nastolatków to kolejny pomysł OpenAI / Fot. Annie Spratt / Unsplash

OpenAI pracuje nad specjalną wersją czatbota ChatGPT przeznaczoną dla nastolatków. Powodem są m.in. pozwy przeciwko firmie oskarżające ją o zaniedbania w zakresie bezpieczeństwa dzieci w usłudze.

Firma OpenAI pracuje nad specjalną wersją czatbota ChatGPT, która będzie przeznaczona dla użytkowników poniżej 18 roku życia i ma oferować „odmienne doświadczenie korzystania z usługi” – relacjonuje serwis Axios.

Weryfikacja wieku ma odbywać się na podstawie mechanizmów predykcji, które określą, czy użytkownik powinien korzystać z domyślnej, „dorosłej” wersji ChatuGPT, czy też z jego nowej, przeznaczonej dla nastolatków odsłony.

Firma Sama Altmana twierdzi, że odpowiednie mechanizmy i technologie posiada – wobec czego weryfikacja wieku nie powinna być problemem, a jeśli w niektórych przypadkach się nie powiedzie z jednoznacznym skutkiem, to usługa automatycznie przełączy się do wersji dla młodocianych, aby gwarantować odpowiedni poziom bezpieczeństwa.

To reakcja m.in. na pozwy, które OpenAI w ostatnim czasie otrzymała w związku z oskarżeniami o niedostateczne ramy bezpieczeństwa, które miały doprowadzić m.in. do odebrania sobie życia przez nastolatka. 

Odpowiedzialność przerzucona na rodziców. Znowu

W wersji przeznaczonej dla nastolatków, za bezpieczeństwo klasycznie – jak to zazwyczaj ma miejsce w przypadku produktów Big Techu – odpowiedzialni będą rodzice.

Zamiast wbudować ograniczenia domyślnie w produkt, OpenAI pozostawia rodzicom możliwość ustawienia, jakiego typu interakcje będzie mogło podejmować dziecko z ChatemGPT, ograniczając np. tryb flirtu. Rodzice będa też mogli połączyć swoje konto w usłudze z kontem dziecka, po to, aby nadzorować jego aktywność poprzez system powiadomień o alarmujących promptach (mogących wskazywać np. na kryzys psychiczny u dziecka) i móc wyłączyć zapisywanie historii konwersacji oraz „uczenie się” czatbota. Ostatecznie, rodzice będą mogli ustawiać godziny, w których ChatGPT będzie dla dziecka niedostępny.

ChatGPT dla nastolatków – to nie jest dobry pomysł

… a zarazem, całkowicie spodziewany ruch ze strony OpenAI, która chce przyzwyczaić użytkowników od najmłodszych lat do korzystania ze swojego produktu.

Wersję czatbota dla dzieci zapowiedziało też Google, o czym można przeczytać na łamach TECHSPRESSO.CAFE w tym tekście. Użytkownicy, którzy za młodu nauczą się, że synonimem generatywnej AI jest konkretny produkt, zostaną z nim na dłużej i zbudują sobie system nawyków ograniczający większość przypadków użycia właśnie do rozwiązania, do którego przyzwyczaili się we wczesnym okresie korzystania z technologii.

Zrzucanie odpowiedzialności za bezpieczeństwo usługi jest również listkiem figowym – zdecydowana większość dorosłych ma problem z samodzielnym dbaniem o to, aby sztuczna inteligencja nie oddziaływała na nich negatywnie, założenie, że będą zdolni radzić sobie sprawnie z ograniczaniem zagrożeń względem swoich dzieci, jest zatem naprawdę odważne. 

Bezpieczeństwo powinno być jedną z podstaw towarzyszących projektowaniu nowych produktów i usług od samego początku – jednak, to podejście, które wyklucza się z drapieżnymi modelami biznesowymi współczesnych graczy rynku cyfrowego.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share