Een recente studie van de MIT (Massachusetts Institute of Technology) behaalde met kunstmatige intelligentie resultaten die de hele wetenschappelijke gemeenschap verbazen en verontrusten. De betreffende studie observeerde CT-scans van verschillende mensen en na enkele tests toonde de machine aan dat het erin slaagde de etniciteit van elke patiënt te onderscheiden.
Dit is echter een zeer delicaat onderwerp en kan negatieve gevolgen hebben voor de wereld. Wil je hier meer over weten ontdekking? Lees dan dit artikel in zijn geheel.
Bekijk meer
Vlieg voor minder: Overheidsregels staan vliegtickets toe voor R$...
Zoet nieuws: Lacta lanceert Sonho de Valsa e Ouro chocoladereep...
Bekijk meer: Bekijk baanbrekend onderzoek dat koude vaccins ontwikkelt
De onverwachte verrassing van kunstmatige intelligentie
Professor Marzyeh Ghassemi, verantwoordelijk voor de studie ontwikkeld aan het Massachusetts Institute of Technology door middel van kunstmatige intelligentie (KI), zegt niet te weten hoe het programma deze resultaten heeft verkregen. Tijdens het onderzoek werden alle kenmerken met betrekking tot de etniciteit van de patiënten uit de CT-scans verwijderd en toch kon de AI de
etniciteit van elke.De studenten gingen echter verder door patiëntgegevens uit de database te halen en de AI te testen met afbeeldingen van verschillende delen van het lichaam. Toch behaalde de machine ondanks al deze beperkingen goede resultaten.
De vraag die overblijft is: hoe zou een machine op zichzelf deze relatie tussen botten en etniciteiten kunnen maken?
De wetenschap weet nog steeds niet hoe ze deze vraag moet beantwoorden. De weddenschap is dat de AI patronen van stoffen zoals melanine in de lichaamsbouw van verschillende etnische groepen kan onderscheiden, wat met het blote oog niet mogelijk is.
Wat zijn de gevaren van de resultaten van dit onderzoek?
Op verschillende momenten in de geschiedenis hebben mensen in machtsposities, meestal van blanke etniciteit, geprobeerd de racisme de... gebruiken biologie als argument daarvoor. Deze "studies" hadden enorme gevolgen voor de samenleving en helaas blijven sommigen aandringen op het blijven gebruiken van raciale rechtvaardigingen voor hun daden van vooroordeel.
Om soortgelijke gebeurtenissen te voorkomen, hebben de onderzoekers al publiekelijk verklaard dat deze gegevens niet als algoritme worden gebruikt. Het doel van het onderzoek was alleen om de nauwkeurigheid van de AI en zijn vermogen om informatie te verzamelen en te organiseren te testen. Je moet dus heel voorzichtig zijn bij het benaderen van dit onderwerp, want kwaadwillenden kunnen deze informatie op een verkeerde manier gebruiken.