Szef firmy OpenAI, która stworzyła duży model językowy ChatGPT, stanie przed Kongresem. Tematem wysłuchania mają być m.in. kwestie bezpieczeństwa w erze szybkiego rozwoju sztucznej inteligencji, który niepokoi amerykańskich polityków.
Sam Altman, który obecnie jest szefem OpenAI, ma w Kongresie pojawić się w przyszłym tygodniu. To jego pierwsze wysłuchanie przed amerykańskimi politykami – pisze dziennik „Washington Post”, który podkreśla, że w szeregach Kongresu panuje coraz większy niepokój w związku z szybkim rozwojem generatywnej sztucznej inteligencji – i to właściwie po obu stronach sceny politycznej.
O czym szef OpenAI będzie rozmawiał z Kongresem?
Według gazety, tematem wysłuchania Altmana, które zaplanowano wstępnie na wtorek, ma być przede wszystkim bezpieczeństwo.
Jakie granice postawić rozwojowi sztucznej inteligencji? Jak uregulować tę technologię? Jakie regulacje powinno się brać pod uwagę? M.in. takie kwestie będą poruszane podczas rozmowy szefa OpenAI z politykami.
Obecnie nie ma zbyt wielu spójnych pomysłów na to, jak uregulować sztuczną inteligencję w USA. Kraj ten słynie z niechęci do regulacji, jak i bardzo silnego lobbingu rodzimych firm technologicznych, które w rękawie mają m.in. asa w postaci argumentu o zaciekłej rywalizacji w ramach wojny handlowej z Chinami. Dodatkowym argumentem może być obecnie wsparcie Pekinu dla Rosji – tym bardziej sprawę trzeba traktować poważnie i dbać o własny biznes (kwestie etyczne rozwiąże się później, o ile w ogóle).
Lobbyści wiedzą, że argumentacja taka pada na podatny grunt – w końcu bezpieczeństwo narodowe to priorytet, również ze względu na zaplanowane na przyszły rok wybory prezydenckie, gdzie to właśnie ten temat będzie nadawał ton kampanii.
Coraz trudniejsze kwestie etyczne
Oprócz bezpieczeństwa, problemem w kontekście AI pozostają prawa autorskie, które przy rozwijaniu dużych modeli językowych oraz algorytmów generatywnych takich, jak np. Midjourney czy DALL-E-2 są masowo naruszane.
Wszystko za sprawą data scrappingu, który nie jest nielegalny – i właśnie dlatego firmy pracujące nad narzędziami AI mogą pobierać z otwartych źródeł w internecie mnóstwo materiałów, w tym teksty, obrazy, zdjęcia, a nawet nasze prywatne dane – i na tej podstawie usprawniać swoje produkty.
Obok praw autorskich, wątpliwa pozostaje również rola, jaką algorytmy mogą odgrywać w kwestii dezinformacji – to doskonałe narzędzie, aby wykorzystywać je właśnie w tym celu.
W USA, jak już wcześniej wspomniałam, idzie rok wyborczy – dlatego kluczowa stanie się m.in. kwestia wykorzystania AI do tworzenia deep fake’ów, które mogą na masową skalę wprowadzać w błąd, ale i… strachu społeczeństwa przed rewolucją przemysłową, którą sztuczna inteligencja może wywołać, prowadząc do likwidacji licznych miejsc pracy.
Amerykańscy politycy zdają sobie sprawę z ryzyka niesionego przez rozwój AI na wielu płaszczyznach – prace nad ewentualnymi regulacjami będą jednak niełatwe. Stworzenie ram etycznych dla rozwoju sztucznej inteligencji jest konieczne, podobnie jak przeniesienie punktu ciężkości w dyskusjach o tym, jak powinny one wyglądać, na dobrostan użytkowników.
O dobrostan firm, ich prezesi zadbają najlepiej – i o niego nie musimy się martwić.