En fersk studie av MIT (Massachusetts Institute of Technology) med kunstig intelligens oppnådde resultater som overrasker og bekymrer hele det vitenskapelige samfunnet. Den aktuelle studien observerte CT-skanninger av flere personer, og etter noen tester viste maskinen at den klarte å utvikle evnen til å skille etnisiteten til hver pasient.
Dette er imidlertid et veldig ømfintlig tema og kan få negative konsekvenser for verden. Vil du vite mer om dette oppdagelse? Les deretter denne artikkelen i sin helhet.
se mer
Fly for mindre: Regler fra myndighetene tillater flybillett for R$...
Søte nyheter: Lacta lanserer Sonho de Valsa e Ouro sjokoladebar...
Se mer: Sjekk banebrytende forskning som utvikler kuldevaksiner
Den uventede overraskelsen til kunstig intelligens
Professor Marzyeh Ghassemi, ansvarlig for studien utviklet ved Massachusetts Institute of Technology gjennom bruk av kunstig intelligens (AI), sier at han ikke vet hvordan programmet oppnådde disse resultatene. Under forskningen ble alle karakteristika relatert til pasientenes etnisitet fjernet fra CT-skanningene, og likevel var AI i stand til å identifisere
etnisitet av hver.Studentene gikk imidlertid videre, fjernet pasientinformasjon fra databasen og testet AI med bilder av forskjellige områder av kroppen. Likevel, selv med alle disse begrensningene, oppnådde maskinen gode resultater.
Spørsmålet som gjenstår er: hvordan kunne en maskin i seg selv lage dette forholdet mellom bein og etnisiteter?
Vitenskapen vet fortsatt ikke hvordan de skal svare på dette spørsmålet. Veddemålet er at AI vil være i stand til å skille mønstre av stoffer som melanin i kroppens konstitusjon av forskjellige etniske grupper, noe som ikke er mulig med det blotte øye.
Hva er farene ved resultatene av denne forskningen?
På forskjellige tidspunkter i historien har mennesker i maktposisjoner, for det meste av hvit etnisitet, forsøkt å rettferdiggjøre Rasisme bruker biologi som argument for det. Disse "studiene" forårsaket enorme konsekvenser for samfunnet, og dessverre insisterer noen på å fortsette å bruke rasemessige begrunnelser for sine handlinger. fordommer.
For å unngå hendelser som ligner på disse, har forskere allerede uttalt offentlig at disse dataene ikke brukes som en algoritme. Hensikten med studien var bare å teste nøyaktigheten til AI og dens evne til å samle og organisere informasjon. Så du må være veldig forsiktig når du nærmer deg dette emnet, fordi ondsinnede mennesker kan bruke denne informasjonen på feil måte.