בשבת האחרונה, ה-25, הופצה ברשתות החברתיות תמונה של האפיפיור במעיל לבן, או יותר נכון ז'קט.
עם זאת, התמונה, למרות שעוררה סערה באינטרנט, היא מזויפת ויוצרה על ידי AI. במאמר זה אנו מסבירים טוב יותר על התמונה של האפיפיור על ידי בינה מלאכותית.
ראה עוד
אלו הם 4 המזלות שהכי אוהבים בדידות, לפי...
ישנם כמה גזעי כלבים הנחשבים מושלמים עבור אנשים...
תמונתו של האפיפיור נעשתה באמצעות בינה מלאכותית
אם ניגשת לרשתות החברתיות ב-25 במרץ, סביר להניח שנתקלת בתמונה של האפיפיור לובש ז'קט בשלב מסוים.
התמונה עוררה סערה עצומה ברשתות החברתיות, שכן משתמשי אינטרנט רבים החלו לשבח את המודרניות והסגנון כביכול של האפיפיור פרנציסקוס.
עם זאת, האמת היא שהתמונה הייתה מזויפת ונבנתה על ידי בינה מלאכותית.
התמונה לא הייתה המידע השקרי היחיד שהופץ הודות לבינה מלאכותית בימים האחרונים, אחרי הכל, היה לנו גם מידע כוזב על מעצרו לכאורה של נשיא ארצות הברית לשעבר, דונלד טראמפ. חֶברְמַן.
הבינה המלאכותית המשמשת לבניית התמונות הללו נקראת אינטליגנציה מלאכותית גנרטיבית, אחרי הכל היא מסוגלת ליצור דברים חדשים כל הזמן.
במקרה של מידע כוזב זה שנחשף, התוכן שנוצר היה תמונות. עם זאת, דוגמה נוספת לבינה מלאכותית גנרטיבית היא ChatGPT, המסוגלת לייצר תוכן חדש באמצעות טקסטים.
בינה מלאכותית גנרטיבית
ישנם סוגים שונים של אינטליגנציות מלאכותיות והשמות העיקריים בתחום הם Dall-e (מאותו יוצר כמו GPT), Stable Diffusion ו-Midjourney. תמונת האפיפיור, למשל, נוצרה על ידי Midjourney, שפרסמה את התמונה בפרופיל הרדיט שלה.
Midjourney מבטיחה עדכונים עם תוצאות אפילו יותר מציאותיות ויצירת תמונה חדשה היא פשוטה מאוד, פשוט תאר את התמונה שאתה רוצה ליצור, למשל: "חתול סיאמי שוכב על ספה לבנה בסגנון רֵנֵסַנס".
התמונה נבנית בצורה מציאותית הודות ל"רשת היריב הגנרטיבית" שהיא לא יותר ממודל למידה של בינה מלאכותית.
זה עובד עם AI שני שמעריך את התוכן שנוצר, כאילו מכונה אחת אומרת לאחרת "זה לא היה טוב, תעשה את זה שוב" עד שהיא מגיעה לתוצאה משביעת רצון.
הסכנה שבתמונות האלה
למרות שניתן לזהות שהתמונה נוצרה על ידי בינה מלאכותית הודות לכמה שגיאות שהמכונה מפספסת מבלי לשים לב, כמו הידיים המעוותות בתמונת האפיפיור, התמונה משדרת אמינות רבה מכיוון שאנשים רבים מתעלמים ממנה גם בלי לשים לב.
בדרך זו, תמונות אלו הופכות לסכנה להפיכתן למקור פוטנציאלי להפצה של זיופים עמוקים.
לעומת זאת, DARPA (הסוכנות האמריקאית לפרויקטי מחקר מתקדמים של ההגנה האמריקאית) החלה לעבוד על טכנולוגיה לזיהוי תמונות מזויפות ולהילחם בהפצת זיופים עמוקים.