Niedawne badanie nt MIT (Massachusetts Institute of Technology) dzięki sztucznej inteligencji uzyskał wyniki, które zaskakują i niepokoją całe środowisko naukowe. W badaniu, o którym mowa, obserwowano tomografię komputerową kilku osób, a po kilku testach maszyna wykazała, że udało jej się rozwinąć zdolność rozróżniania pochodzenia etnicznego każdego pacjenta.
Jest to jednak bardzo delikatny temat i może mieć negatywny wpływ na świat. Chcesz wiedzieć więcej na ten temat odkrycie? Następnie przeczytaj ten artykuł w całości.
Zobacz więcej
Lataj taniej: przepisy rządowe zezwalają na przelot za R$…
Słodka wiadomość: Lacta wprowadza na rynek batonik Sonho de Valsa e Ouro…
Zobacz więcej: Sprawdź przełomowe badania, które opracowują szczepionki na przeziębienie
Nieoczekiwana niespodzianka sztucznej inteligencji
Profesor Marzyeh Ghassemi, kierujący badaniem opracowanym w Massachusetts Institute of Technology z wykorzystaniem sztuczna inteligencja (AI), mówi, że nie wie, w jaki sposób program uzyskał takie wyniki. Podczas badań wszystkie cechy związane z pochodzeniem etnicznym pacjentów zostały usunięte z tomografii komputerowej, a mimo to sztuczna inteligencja była w stanie zidentyfikować
pochodzenie etniczne każdego.Studenci poszli jednak dalej, usuwając informacje o pacjencie z bazy danych i testując sztuczną inteligencję z obrazami różnych obszarów ciała. Mimo to, nawet przy tych wszystkich ograniczeniach, maszyna osiągała dobre wyniki.
Pozostaje pytanie: w jaki sposób maszyna mogłaby sama stworzyć związek między kośćmi a grupami etnicznymi?
Nauka wciąż nie wie, jak odpowiedzieć na to pytanie. Stawia się, że sztuczna inteligencja będzie w stanie rozróżnić wzorce substancji, takich jak melanina, w budowie ciała różnych grup etnicznych, co nie jest możliwe gołym okiem.
Jakie niebezpieczeństwa wiążą się z wynikami tych badań?
W różnych okresach historii ludzie na stanowiskach władzy, głównie rasy białej, próbowali usprawiedliwić to rasizm używając biologia jako argument za tym. Te „badania” wywarły ogromny wpływ na społeczeństwo i, niestety, niektórzy nalegają na dalsze wykorzystywanie rasistowskich uzasadnień dla swoich aktów uprzedzenie.
Aby uniknąć zdarzeń podobnych do tych, badacze już publicznie oświadczyli, że dane te nie są wykorzystywane jako algorytm. Celem badania było po prostu przetestowanie dokładności sztucznej inteligencji oraz jej zdolności do gromadzenia i organizowania informacji. Musisz więc być bardzo ostrożny, podchodząc do tego tematu, ponieważ złośliwi ludzie mogą wykorzystać te informacje w niewłaściwy sposób.