Microsoft zwolnił zespół odpowiedzialny za etyczność w sztucznej inteligencji

Firma Microsoft zwolniła cały zespół, który odpowiedzialny był za kwestie etyczne w rozwoju sztucznej inteligencji. Redukcja tego działu zbiega się z deklaracjami większego zaangażowania Microsoftu we współpracę ze spółką OpenAI – twórcami modelu ChatGPT.
Fot. Matthew Manuel / Unsplash

Firma Microsoft zwolniła cały zespół, który odpowiedzialny był za kwestie etyczne w rozwoju sztucznej inteligencji. Redukcja tego działu zbiega się z deklaracjami większego zaangażowania Microsoftu we współpracę ze spółką OpenAI – twórcami modelu ChatGPT.

Dział zajmujący się etyką i wpływem innowacji Microsoftu na społeczeństwo został rozwiązany w ramach redukcji pracowników obejmującej zwolnienie 10 tys. osób – pisze serwis Platformer.

Jednocześnie, koncern z Redmond inwestuje coraz więcej – zarówno pod względem finansowym, jak i zaangażowania – w relację z firmą OpenAI, która stworzyła słynny duży model językowy ChatGPT.

Nieoficjalnie, inwestycje finansowe spółki w OpenAI to już 10 mld dolarów – i można spodziewać się kolejnych.

Zyski i kontrowersje

Nie można powiedzieć, aby Microsoft na tym nie zyskiwał – wdrożenie rozwiązań opartych o czatboty dużych modeli językowych do produktów tej firmy – przeglądarki Edge i wyszukiwarki Bing, które do tej pory pozostawały daleko w tyle za konkurencją, pozwoliło znacznie zwiększyć przewagę i chociaż na chwilę, jeśli chodzi o doświadczenie korzystania z usług internetowych, wyprzedzić odwiecznego rywala – Google.

Jakkolwiek ChatGPT i konwersacje z wyszukiwarką Bing przeważnie dostarczają swoim użytkownikom wiele rozrywki, to jednak technologie te stają się kontrowersyjne, kiedy spojrzymy na nie w szerszym ujęciu.

Czatboty nie zostały zaprojektowane po to, aby mówić prawdę – w przypadku tego zaimplementowanego w Bingu, Microsoft podkreśla, iż narzędzie może się mylić, dlatego warto uważnie przyglądać się zwracanym przez nie wynikom i pomagać firmie w jego ulepszaniu.

Znane są już jednak przypadki, w których okazało się, że czatboty można doprowadzić do stanu, w którym wyzywają użytkowników, obrażają ich i wykazują – nazwijmy to oględnie – nazistowskie odchyły.

Posłuchaj odcinka podcastu o modelu ChatGPT

Kto weźmie odpowiedzialność za AI?

Serwis Tech Crunch zwraca uwagę, że Microsoft – choć zwolnił zespół etyki, składający się jedynie z ok. siedmiu osób po wstępnej redukcji etatów w październiku ub. roku – wciąż utrzymuje Biuro ds. Odpowiedzialnej AI (Office for Responsible AI – ORA), które ma zajmować się wytyczaniem reguł dla odpowiedzialnego rozwoju technologii sztucznej inteligencji w oparciu o współpracę m.in. z organami odpowiedzialnymi za polityki publiczne.

Jednak, to grupa siedmiu osób w dziale etyki odpowiadała za ich praktyczne przełożenie na produkty Microsoftu, z którymi na co dzień stykają się użytkownicy.

To również ten niewielki zespół mógł w teorii zatrzymać niekontrolowany rozwój technologii, jeśli wykraczałby in znacząco poza umowne i bardzo rozmyte granice tego, co akceptowalne w ramach wpływu na społeczeństwo lub projektowane (np. w UE) ramy prawne dotyczące działania sztucznej inteligencji. Może właśnie dlatego uznano, że utrzymanie siedmiu działających w ramach tego zespołu etatów to dla Microsoftu za dużo?

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share