Sist lørdag, den 25., sirkulerte et bilde av paven i en hvit frakk, eller rettere sagt en jakke, på sosiale medier.
Imidlertid er bildet, til tross for at det har forårsaket et oppstyr på internett, falskt og laget av en AI. I denne artikkelen forklarer vi bedre om bildet av paven av Kunstig intelligens.
se mer
Dette er de 4 stjernetegnene som elsker ensomhet mest, ifølge...
Det er noen hunderaser som anses som perfekte for mennesker...
Pavens bilde ble laget med kunstig intelligens
Hvis du gikk inn på sosiale medier 25. mars, kom du sannsynligvis over et bilde av paven iført jakke på et tidspunkt.
Bildet forårsaket et stort opprør på sosiale nettverk, da mange Internett-brukere begynte å prise den antatte moderniteten og stilen til pave Frans.
Sannheten er imidlertid at bildet var falskt og ble bygget av en kunstig intelligens.
Bildet var ikke den eneste falske informasjonen som ble spredt takket være kunstig intelligens de siste dagene, vi hadde tross alt også falsk informasjon om den påståtte arrestasjonen av USAs tidligere president, Donald Trump. Trump.
Den kunstige intelligensen som brukes til å bygge disse bildene kalles generativ kunstig intelligens, den er tross alt i stand til å generere nye ting hele tiden.
I tilfelle av denne falske informasjonen som ble avslørt, var det genererte innholdet bilder. Et annet eksempel på generativ kunstig intelligens er imidlertid ChatGPT, som er i stand til å generere nytt innhold gjennom tekster.
Generativ kunstig intelligens
Det finnes ulike typer kunstig intelligens og hovednavnene på feltet er Dall-e (fra samme skaper som GPT), Stable Diffusion og Midjourney. Bildet av paven ble for eksempel laget av Midjourney, som publiserte bildet på sin offisielle Reddit-profil.
Midjourney lover oppdateringer med enda mer realistiske resultater og å generere et nytt bilde er veldig enkelt, bare beskriv bildet du vil generere, for eksempel: «en siamesisk katt som ligger på en hvit sofa i stilen renessanse».
Bildet er realistisk konstruert takket være det "generative motstandsnettverket" som ikke er noe mer enn en kunstig intelligens læringsmodell.
Den fungerer med en andre AI som evaluerer det genererte innholdet, som om en maskin sa til en annen "det var ikke bra, gjør det igjen" til den når et tilfredsstillende resultat.
Faren ved disse bildene
Selv om det er mulig å identifisere at bildet er laget av kunstig intelligens takket være noen feil som maskinen går glipp av ubemerket, for eksempel de forvrengte hendene i pavens bilde, formidler bildet mye troverdighet fordi mange mennesker overser det ubemerket også.
På denne måten blir disse bildene en fare for å bli en potensiell kilde til spredning av dype forfalskninger.
Derimot har DARPA (US Defense Advanced Research Projects Agency) startet arbeidet med en teknologi for å identifisere falske bilder og bekjempe spredningen av dype forfalskninger.