Sidste lørdag den 25. cirkulerede et billede af paven i en hvid frakke eller rettere sagt en jakke på de sociale medier.
Billedet er dog, på trods af at det har skabt tumult på internettet, falsk og lavet af en AI. I denne artikel forklarer vi bedre om billedet af paven af Kunstig intelligens.
se mere
Dette er de 4 stjernetegn, der elsker ensomhed mest, ifølge...
Der er nogle hunderacer, der anses for at være perfekte til mennesker...
Pavens billede er lavet med kunstig intelligens
Hvis du besøgte sociale medier den 25. marts, stødte du sikkert på et billede af paven iført jakke på et tidspunkt.
Billedet forårsagede et stort oprør på sociale netværk, da mange internetbrugere begyndte at prise pave Frans formodede modernitet og stil.
Sandheden er dog, at billedet var falsk og blev bygget af en kunstig intelligens.
Billedet var ikke den eneste falske information, der blev spredt takket være kunstig intelligens i de seneste dage, vi havde jo også falske oplysninger om den påståede anholdelse af USA's tidligere præsident, Donald Trump. Trump.
Den kunstige intelligens, der bruges til at bygge disse billeder, kaldes generativ kunstig intelligens, den er trods alt i stand til at generere nye ting hele tiden.
I tilfælde af disse falske oplysninger afsløret, var det genererede indhold billeder. Et andet eksempel på generativ kunstig intelligens er dog ChatGPT, som er i stand til at generere nyt indhold gennem tekster.
Generativ kunstig intelligens
Der findes forskellige typer kunstige intelligenser og hovednavnene på området er Dall-e (fra samme skaber som GPT), Stable Diffusion og Midjourney. Billedet af paven blev for eksempel skabt af Midjourney, som offentliggjorde billedet på sin officielle Reddit-profil.
Midjourney lover opdateringer med endnu mere realistiske resultater, og at generere et nyt billede er meget enkelt, beskriv blot det billede, du vil generere, for eksempel: "en siameser, der ligger på en hvid sofa i stilen renæssance”.
Billedet er realistisk opbygget takket være det "generative modstridende netværk", som ikke er andet end en kunstig intelligens-læringsmodel.
Det fungerer med en anden AI, der evaluerer det genererede indhold, som om en maskine sagde til en anden "det var ikke godt, gør det igen", indtil det når et tilfredsstillende resultat.
Faren ved disse billeder
Selvom det er muligt at identificere, at billedet er lavet af kunstig intelligens takket være nogle fejl, som maskinen går glip af ubemærket, såsom de forvrængede hænder på pavens foto, formidler billedet en masse troværdighed, fordi mange mennesker overser det også ubemærket.
På denne måde bliver disse billeder en fare for at blive en potentiel kilde til spredning af dybe forfalskninger.
I modsætning hertil har DARPA (US Defense Advanced Research Projects Agency) startet arbejdet med en teknologi til at identificere falske billeder og bekæmpe spredningen af dybe forfalskninger.