Firma Microsoft zwolniła cały zespół, który odpowiedzialny był za kwestie etyczne w rozwoju sztucznej inteligencji. Redukcja tego działu zbiega się z deklaracjami większego zaangażowania Microsoftu we współpracę ze spółką OpenAI – twórcami modelu ChatGPT.
Dział zajmujący się etyką i wpływem innowacji Microsoftu na społeczeństwo został rozwiązany w ramach redukcji pracowników obejmującej zwolnienie 10 tys. osób – pisze serwis Platformer.
Jednocześnie, koncern z Redmond inwestuje coraz więcej – zarówno pod względem finansowym, jak i zaangażowania – w relację z firmą OpenAI, która stworzyła słynny duży model językowy ChatGPT.
Nieoficjalnie, inwestycje finansowe spółki w OpenAI to już 10 mld dolarów – i można spodziewać się kolejnych.
Zyski i kontrowersje
Nie można powiedzieć, aby Microsoft na tym nie zyskiwał – wdrożenie rozwiązań opartych o czatboty dużych modeli językowych do produktów tej firmy – przeglądarki Edge i wyszukiwarki Bing, które do tej pory pozostawały daleko w tyle za konkurencją, pozwoliło znacznie zwiększyć przewagę i chociaż na chwilę, jeśli chodzi o doświadczenie korzystania z usług internetowych, wyprzedzić odwiecznego rywala – Google.
Jakkolwiek ChatGPT i konwersacje z wyszukiwarką Bing przeważnie dostarczają swoim użytkownikom wiele rozrywki, to jednak technologie te stają się kontrowersyjne, kiedy spojrzymy na nie w szerszym ujęciu.
Czatboty nie zostały zaprojektowane po to, aby mówić prawdę – w przypadku tego zaimplementowanego w Bingu, Microsoft podkreśla, iż narzędzie może się mylić, dlatego warto uważnie przyglądać się zwracanym przez nie wynikom i pomagać firmie w jego ulepszaniu.
Znane są już jednak przypadki, w których okazało się, że czatboty można doprowadzić do stanu, w którym wyzywają użytkowników, obrażają ich i wykazują – nazwijmy to oględnie – nazistowskie odchyły.
Kto weźmie odpowiedzialność za AI?
Serwis Tech Crunch zwraca uwagę, że Microsoft – choć zwolnił zespół etyki, składający się jedynie z ok. siedmiu osób po wstępnej redukcji etatów w październiku ub. roku – wciąż utrzymuje Biuro ds. Odpowiedzialnej AI (Office for Responsible AI – ORA), które ma zajmować się wytyczaniem reguł dla odpowiedzialnego rozwoju technologii sztucznej inteligencji w oparciu o współpracę m.in. z organami odpowiedzialnymi za polityki publiczne.
Jednak, to grupa siedmiu osób w dziale etyki odpowiadała za ich praktyczne przełożenie na produkty Microsoftu, z którymi na co dzień stykają się użytkownicy.
To również ten niewielki zespół mógł w teorii zatrzymać niekontrolowany rozwój technologii, jeśli wykraczałby in znacząco poza umowne i bardzo rozmyte granice tego, co akceptowalne w ramach wpływu na społeczeństwo lub projektowane (np. w UE) ramy prawne dotyczące działania sztucznej inteligencji. Może właśnie dlatego uznano, że utrzymanie siedmiu działających w ramach tego zespołu etatów to dla Microsoftu za dużo?