En nylig undersøgelse af MIT (Massachusetts Institute of Technology) med kunstig intelligens opnået resultater, der overrasker og bekymrer hele det videnskabelige samfund. Den pågældende undersøgelse observerede CT-scanninger af flere personer, og efter nogle tests viste maskinen, at den formåede at udvikle evnen til at skelne mellem hver enkelt patients etnicitet.
Dette er dog et meget ømtåleligt emne og kan have negative konsekvenser for verden. Vil du vide mere om dette opdagelse? Så læs denne artikel i sin helhed.
se mere
Flyv for mindre: Regeringens regler tillader flybilletter for R$...
Søde nyheder: Lacta lancerer Sonho de Valsa e Ouro chokoladebar...
Se mere: Tjek banebrydende forskning, der udvikler forkølelsesvacciner
Den uventede overraskelse af kunstig intelligens
Professor Marzyeh Ghassemi, ansvarlig for undersøgelsen udviklet ved Massachusetts Institute of Technology gennem brug af kunstig intelligens (AI), siger, at han ikke ved, hvordan programmet opnåede disse resultater. Under forskningen blev alle karakteristika relateret til patienternes etnicitet fjernet fra CT-scanningerne, og alligevel var AI i stand til at identificere
etnicitet af hver.De studerende gik dog videre, fjernede patientoplysninger fra databasen og testede AI med billeder af forskellige områder af kroppen. Alligevel, selv med alle disse begrænsninger, opnåede maskinen gode resultater.
Spørgsmålet der står tilbage er: hvordan kunne en maskine i sig selv skabe dette forhold mellem knogler og etniciteter?
Videnskaben ved stadig ikke, hvordan man besvarer dette spørgsmål. Satsningen er, at AI vil være i stand til at skelne mønstre af stoffer som melanin i kroppens konstitution af forskellige etniske grupper, hvilket ikke er muligt med det blotte øje.
Hvad er farerne ved resultaterne af denne forskning?
På forskellige tidspunkter i historien har mennesker i magtpositioner, for det meste af hvid etnicitet, forsøgt at retfærdiggøre racisme bruger biologi som argument for dette. Disse "undersøgelser" forårsagede enorme indvirkninger på samfundet, og desværre insisterer nogle på at fortsætte med at bruge racemæssige begrundelser for deres handlinger. fordomme.
For at undgå begivenheder, der ligner disse, har forskere allerede offentligt udtalt, at disse data ikke bruges som en algoritme. Formålet med undersøgelsen var blot at teste nøjagtigheden af AI og dens evne til at indsamle og organisere information. Så du skal være meget forsigtig, når du nærmer dig dette emne, fordi ondsindede mennesker kan bruge disse oplysninger på den forkerte måde.