Elon Musk poprosił użytkowników o dane medyczne. Dostał je Grok

Właściciel platformy X Elon Musk zasugerował, że czatbot Grok działający w oparciu o dane z serwisu może pomóc w diagnostyce medycznej. Warunek? Użytkownicy powinni przekazać mu dane medyczne. Wielu posłuchało tej sugestii. Niestety.
Fot. National Cancer Institute / Unsplash
Fot. National Cancer Institute / Unsplash

Właściciel platformy X Elon Musk zasugerował, że czatbot Grok działający w oparciu o dane z serwisu może pomóc w diagnostyce medycznej. Warunek? Użytkownicy powinni przekazać mu dane medyczne. Wielu posłuchało tej sugestii. Niestety.

W ciągu ostatnich tygodni na X zaczęły pojawiać się skany wyników rezonansu magnetycznego czy prześwietleń roentgenowskich, jak i dokumentacja wielu innych rodzajów badań medycznych – informuje dziennik „New York Times”.

Wszystko dlatego, że Elon Musk, do którego należy X, zasugerował użytkownikom, iż umieszczanie dokumentacji medycznej na platformie może pomóc w szkoleniu Groka – czyli dużego modelu językowego i opartego o niego czatbota, które uczą się na podstawie danych z serwisu.

Zdaniem Muska, Grok może być pomocny w diagnostyce medycznej. „To wciąż wczesne stadium, ale już teraz jest dość dokładny i wkrótce będzie ekstremalnie dobry” – napisał na swoim profilu Musk. Jego zdaniem, jeśli użytkownicy dostarczą sztucznej inteligencji dostatecznie dużo danych, ta wkrótce nauczy się je właściwie interpretować, a osoby korzystające z Groka będą mogły pytać go o porady medyczne w ramach uzyskiwania „drugiej opinii” co do diagnozy.

Co rozumie Grok?

Część osób pozytywnie oceniła wyniki analizy Groka – na przykład w przypadku skanów mózgu – jednak zdarzały się również błędne diagnozy, takie jak identyfikacja złamanego obojczyka jako zwichnięcia ramienia. Narzędzie wzbudziło zainteresowanie nie tylko pacjentów, ale i lekarzy, którzy postanowili sprawdzić, jak sztuczna inteligencja poradzi sobie z interpretacją obrazów w porównaniu z profesjonalną diagnozą.

Sztuczna inteligencja w medycynie ma bardzo duży potencjał. Obecnie jest już stosowana do takich zadań, jak analiza mammografii czy identyfikacja pacjentów odpowiednich do badań klinicznych. Wprowadzenie takich narzędzi może w przyszłości usprawnić proces diagnozowania oraz zwiększyć dostępność opieki zdrowotnej.

Czasami, użytkownicy świadomie udostępniają swoje dane algorytmom, wierząc, że przyczynią się one do postępu technologicznego. Takie działania można śmiało określić jako „altruizm informacyjny”.

Czy to zawsze mądra i bezpieczna postawa? Przypadek Groka pokazuje, że niekoniecznie. Dlaczego?

Wrażliwe dane na X – co z prywatnością i bezpieczeństwem?

Dane medyczne to dane wrażliwe, dane szczególnej kategorii. Oznacza to, że powinny podlegać szczególnej ochronie. W oczywisty sposób zatem apel Elona Muska o przesyłanie danych medycznych, którymi mógłby karmić się Grok, wzbudził zdumienie i dezaprobatę w środowisku ekspertów zajmujących się ochroną danych i prywatności.

Cytowany przez dziennik Bradley Malin, profesor informatyki biomedycznej na Uniwersytecie Vanderbilta, wskazuje, że użytkownicy nie mają jasności co do tego, w jaki sposób dane przesłane do Groka są przechowywane, przetwarzane i wykorzystywane. Co istotne, w USA dane publikowane w mediach społecznościowych nie są objęte ochroną prawną, taką jak amerykańskie prawo HIPAA, które chroni dane medyczne w placówkach służby zdrowia.

Polityka prywatności platformy X deklaruje brak sprzedaży danych osobom trzecim, ale jednocześnie pozwala na ich udostępnianie „powiązanym firmom”. Matthew McCoy, profesor etyki medycznej z Uniwersytetu Pensylwanii, w rozmowie z „NYT” zauważa, że choć firma może stosować pewne zabezpieczenia, brak szczegółowych informacji na ten temat budzi wątpliwości co do poziomu ochrony danych użytkowników.

To jednak nie jedyne ryzyko. Dane medyczne, które umieścimy w internecie, mogą stać się częścią internetowego profilu użytkownika, co w przyszłości może być wykorzystane na przykład przez potencjalnych pracodawców, ubezpieczycieli lub inne podmioty.

Choć w teorii – w przypadku Stanów Zjednoczonych – istnieją przepisy, takie jak ustawa o zakazie dyskryminacji genetycznej (Genetic Information Nondiscrimination Act), nie chronią one użytkowników w każdej sytuacji, na przykład przy zakupie ubezpieczenia na życie.

Po drugie, wyniki generowane przez Groka mogą być nieprecyzyjne, co w niektórych przypadkach może prowadzić do błędnych decyzji medycznych, takich jak niepotrzebne badania czy leczenie – a to jeden z jaśniejszych scenariuszy.

Total
0
Shares
Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

Powiązane teksty
Total
0
Share