Ty jako lalka – to kolejna odsłona zabaw z AI, która trenduje w mediach społecznościowych, zalanych falą obrazków miniaturowych figurek przypominających konkretne osoby. Czy to bezpieczne?
Najprawdopodobniej w gronie czytelników nie ma osoby, która podczas przeglądania mediów społecznościowych nie spotkałaby wpisu ulubionego influencera lub znajomego, w którym ten chwali się swoim wizerunkiem w wersji miniaturowej figurki zapakowanej w plastikowy blister w towarzystwie kilku charakterystycznych dla niego gadżetów.
„Ty jako lalka”, lub też „Barbie box” to kolejny trend w zabawie sztuczną inteligencją, który zdominował w ostatnich dniach platformy internetowe. Wizerunki można generować np. z wykorzystaniem popularnego ChatuGPT.
Czy warto jednak ulegać pokusie i bawić się własnym wizerunkiem przerabiając go na plastikową laleczkę? Niekoniecznie – jeśli szanujemy środowisko naturalne i własną prywatność.
Kosztowna środowiskowo zabawa
Według cytowanej przez serwis BBC profesor Giny Neff z Uniwersytetu Królowej Marii w Londynie, ChatGPT i zasilające go centra przetwarzania danych zużywają więcej energii elektrycznej, niż 117 krajów w ciągu roku.
Wcześniejsze badania wykazały, że szkolenie modelu GPT-3 firmy OpenAI odpowiada za zużycie od 3,5 mln do 5 mln litrów wody, co oznacza, że model GPT-4 z pewnością zużył jej jeszcze więcej.
Zużycie zasobów przez sztuczną inteligencję jednak przeciętnie nie budzi naszego oburzenia, bo nie zdajemy sobie sprawy z tego, jak ten proces wygląda. Woda płynąca w rurach centrów danych, odpowiedzialna za chłodzenie działających tam komputerów, jest niewidoczna – pisał w „Guardianie” Chris Stokel-Walker.
A co z naszą prywatnością?
Koszty środowiskowe to jednak aspekt, o którym rzadko kiedy myślimy, chcąc nadążać za modnymi w mediach społecznościowych trendami – podobnie jak o naszej prywatności.
Za każdym razem, kiedy generujemy laleczkę przypominającą nas samych, musimy nakarmić generator AI zdjęciem, które posłuży mu za wzór.
Oznacza to, że nasz wizerunek może trafić do zbioru danych wykorzystywanych przez narzędzie AI do dalszego szkolenia się, a także być przetwarzany w inny sposób.
Wszystko zależy od polityki prywatności firmy oferującej model, z którego korzystamy do zabawy – tak, tego długiego, nudnego dokumentu, którego nikt nie czyta – bo przecież to tylko niewinna zabawa, w której nic nam nie grozi – w dodatku, możliwa za darmo.
W niektórych politykach prywatności generatorów obrazów zasilanych przez AI znajdują się jednak zapisy np. o tym, że zdjęcia wgrywane do chmury przez użytkowników mogą być później wykorzystywane przez firmę dla celów komercyjnych. W praktyce – przez to nasze zdjęcia mogą posłużyć np. do reklamy, albo być sprzedane w ramach bazy danych oferowanych przez właściciela narzędzia innej firmie (np. data brokerowi).
Dobrej jakości zdjęcia pozwalają też na pozyskanie z nich informacji o naszych danych biometrycznych – a to stanowi zagrożenie dla bezpieczeństwa, szczególnie w świecie, w którym coraz częstszym problemem są kradzieże tożsamości.
Warto zatem zastanowić się, jaki jest realny koszt bezpłatnej z pozoru zabawy generatorami obrazków AI – i jeśli nie troszczymy się o środowisko, to przynajmniej przemyśleć ryzyko, które wiąże się z taką zabawą z naszej prywatnej perspektywy.