נכנסו לתמונה: הפופולריות של מנועי ה־AI מייצרת אתגרים בזיהוי "פייק ניוז"

הקלות שבה ניתן לייצר כיום תמונות ריאליסטיות באמצעות בינה מלאכותית משפיעה גם על המלחמה במידע כוזב המופץ ברשת • חוקרים כבר מזהירים מפני "אתגרים של ממש לאמת ולדמוקרטיה", אך גם מציינים כי בינתיים עדיין נדרשים משאבים מדינתיים כדי לייצר סכנה אמיתית • המשרוקית של גלובס 

פייק ניוז שנוצרו באמצעות AI
פייק ניוז שנוצרו באמצעות AI

שוטרים מסתערים על נשיא ארה"ב לשעבר, דונלד טראמפ, וכופתים אותו באזיקים ברחובות ניו יורק. ולדימיר פוטין, הנשיא הרוסי, כורע ברך בפני נשיא סין שי ג'ינפינג. והאפיפיור פרנציסקוס נצפה כשהוא מסתובב עם מעיל אופנתי. כל האירועים הללו לא קרו לאחרונה, למרות שברשת מסתובב "תיעוד מצולם" שלהם. ההסבר לכך הוא שימוש הולך וגובר של מפיצי פייק מסוגים שונים ביכולות הגרפיות של תוכנות בינה מלאכותית (AI) כמו DALL-E או Midjourney.

המדריך לגולש: כך תזהו תמונות שנוצרו על ידי AI

אז איך אפשר לדעת שתמונה שנתקלתם בה הופקה על ידי תוכנה כמו DALL-E או Midjourney?

מדריך שעלה באתר ה־BBC מזכיר שני אלמנטים ספציפיים שלפחות כיום עשויים להסגיר די מהר את מקור התמונה: האצבעות והעיניים. מבט על מספר האצבעות של הדמות שנראית בתמונה שנוצרה באופן מלאכותי יכול לחשוף די מהר שיש לה אצבע עודפת או דווקא אצבע אחת חסרה. ומה לגבי העיניים? שימו לב שהן לא תמיד מופנות לכיוון שהייתם מצפים. כך, למשל, באחת התמונות בה טראמפ נראה נמלט משוטרים שרודפים אחריו מבטם של השוטרים לא ממוקד במרדף. גם פנים מטושטשות, או מאידך היפר־ריאליסטיות, יכולות להסגיר שמשהו לא מסתדר כאן.

אלכס מחטבן מפוינטר מציע עוד כמה טיפים, כלליים יותר, כדי להתמודד עם תמונה חשודה. "כשאתם רואים תמונה ברשת תשאלו את עצמכם קודם כל מי עומד מאחוריה? האם היא הופצה על ידי עיתונאי או מקור מהימן? שנית, האם לצד התמונה יש גם הפניה למקור שלה או הקשר כלשהו שיאפשר לבחון אותה? ושלישית, אפשר גם לבדוק מה מקורות אחרים אומרים על התמונה הזו".

ומה לגבי בודקי העובדות עצמם? מחטבן סבור שכעת עליהם "להכיר לעומק איך עובדות התוכנות האלו. ככל שנכיר אותן יותר טוב, ככה נוכל להבין יותר טוב מה צריך כדי לזהות תוכן שיוצר על ידן. וצריך גם להתכונן לאירועים חדשותיים גדולים. נניח לפני כתב האישום נגד טראמפ היינו יכולים להתכונן לזה שיהיו הרבה מאוד פייקים שיסתובבו".

למי שטרם נחשף אליהן, מדובר בתוכנות שמאפשרות למשתמש לכתוב בשפה פשוטה איזו תמונה הוא מבקש לייצר, ולקבל תוך שניות אופציות שונות שעונות על הבקשה הזאת. עד כמה היכולות הללו מוצלחות? במידה רבה הן עשויות לאתגר כבר כיום חלק לא מבוטל מהגולשים, שממילא לא מקפידים על גישה ביקורתית כלפי שלל המידע שבו אנחנו מופצצים. אבל האם בעתיד תוכנות כאלה, או גרסאות מתקדמות יותר שלהן, עלולות להפוך את זיהוי הפייק ניוז לאתגר של ממש, שרק מומחים יוכלו להכריע בעניינו?

"המונח דיפ־פייק (deepfake, בתרגום לעברית 'זיוף עמוק') הוא הלחם המושגים למידה עמוקה (deep learning) וזיוף (fake)", מוסבר במחקר שערכה ד"ר לירן ענתבי, חוקרת בכירה במכון למחקרי ביטחון לאומי (INSS). "הוא מתאר יישום טכנולוגי מבוסס בינה מלאכותית, המאפשר לשנות או לעבד את התוכן של תמונות או סרטונים כך שקשה ולפעמים אף בלתי אפשרי להבחין שמדובר בזיוף".

לטכנולוגיה הזו, מסביר המחקר, יש שימושים חיוביים, אבל ניתן לעשות בה גם שימוש לרעה, למטרות פליליות (לדוגמה, התחזות לבעל חשבון בנק), וכמובן למטרות פוליטיות. "הדבר מציב אתגרים של ממש לאמת ולדמוקרטיה", כותבת ענתבי.

עוד בסדרהלכל הכתבות

הצג עוד

הסרטון הרוסי לא עבד

ובכל זאת, בשיחה שקיימנו איתה היא מסבירה שגם אין סיבה להיכנס לפאניקה. לדבריה, אמנם יצירת דיפ־פייק הפכה זמינה וזולה מאוד בשנים האחרונות, אבל בשביל לייצר פייקים משכנעים - כאלה שיהיה להם פוטנציאל של ממש להשפיע על ביטחונה של מדינה - עדיין יהיה צורך במשאבים משמעותיים.

"כדי להוציא פייק איכותי יש צורך ביכולות עיבוד מאוד גדולות, ולרוב בשבילן יש צורך בגורמים בעלי אמצעים". למשל, היא אומרת, אם רוצים לייצר וידאו אז רצוי שהאדם שעושה את החיקוי הראשוני, שעליו מלבישים את הפייק, יהיה כמה שיותר דומה למי שרוצים לזייף. "צריך גם מאגר נרחב של תמונות או סרטונים של הדמות אותה מזייפים, וכל הדברים האלו דורשים משאבים".

וגם זה לא מספיק. ד"ר ענתבי מוסיפה שהפייק צריך גם מה שמכונה "סביבה תומכת": "הרוסים עשו סרטון של זלנסקי קורא לאוקראינים להניח את נשקם. למה זה לא עבד? כי הסיטואציה לא הייתה אמינה. ההשפעה של פייק היא יותר גדולה כשאין זמן להתחיל לבדוק".

אז לייצר פייק שיטעה לאורך זמן גם גופים מוסדיים ואמצעי תקשורת מבוססים, יישאר כנראה משימה קשה גם בתקופה הקרובה. אבל מה לגבי פייק בדרגה נמוכה יותר? כזה שגולשים ספקניים ובודקי עובדות יוכלו להסביר שהוא אינו אמת, אבל בינתיים יספיק להקיף חצי עולם כמאמר הקלישאה? הרי כבר כיום, ללא שימוש בטכנולוגיה מיוחדת, אנחנו נתקלים שוב ושוב בידיעות מופרכות מסוגים שונים ובדרגות שונות של אמינות שזוכות לתפוצה נרחבת בקרב לא מעט גולשים, ומשפיעות בצורה כזאת או אחרת על השיח הציבורי.

"אני חושב שאנחנו כבר עכשיו מוצפים", אומר לנו על כך אגם רפאלי פרהדיאן, יו"ר הוועד המנהל של הסדנה לידע ציבורי. "גם לפני ה־AI היו תמונות מבוימות. מה שעושה ה־AI זה להנגיש את היכולת לייצר תכנים מזויפים ליותר אנשים. אבל הטכנולוגיה החדשה היא לא הבעיה, והבעיה שכן ישנה היא לא חדשה".

כלומר?
"הגבול פה הוא לא בין שחור ללבן, אלא בין תחומים של אפור. האם תמונה שאכן צולמה אבל היא מבוימת היא אמיתית? האם כשאני מסדר את השיער לפני הצילום אני הופך את התמונה למזויפת? השאלה היא אם התמונה אכן מתעדת את המציאות, הרי בגלל זה אומרים עליה שהיא שווה אלף מילים".

זאת תמונת המצב כרגע. מה עשוי לקרות בעתיד? האם יכול להיות שבקרוב כבר לא נוכל להבדיל בין תמונה אמיתית לבין תמונה שנוצרה על ידי AI? כך, למשל הזהירו מומחים שצוטטו בכתבה שהוקדשה לנושא באתר ה־BBC (ראו מסגרת). מה יקרה אז ומה אפשר יהיה לעשות? "צריך ללמוד לא להאמין לכל תמונה שאנחנו רואים ואנחנו צריכים להיות סקפטיים", אומר רפאלי פרהדיאן, "אבל זה יכול להיות מעייף ולדרוש הרבה זמן. אני לא חושב שזה הולך להיות קל".

המענה: טכנולוגיית נגד

"גם המערכות (המדינתיות) צריכות להיערך להתמודד עם זה", אומרת ד"ר ענתבי. "היום אם תלך למשטרה ותגיד שהופץ עליך דיפ־פייק שפגע בך לא בטוח שידעו מה לעשות עם זה". בנוסף, היא אומרת, "הרבה פעמים המענה לטכנולוגיה הוא טכנולוגיית נגד", למשל, תוכנה שתאפשר לנו להזין אליה תמונה או וידאו ולקבל חיווי אם הם אותנטיים.

אלכס מחטבן, מנהל MediaWise, גוף במכון פוינטר (המכון שייסד את הרשת הבינ"ל לבדיקת עובדות), מציין את ה־AI כטכנולוגיה שתוכל לעבוד גם לטובת בודקי העובדות. "מפתחים כיום כלים של AI כדי לסייע לנו לבצע ביתר יעילות משימות כמו חיפוש טענות או ניטור משתמשים בעייתיים. אני גם יודע שבארה"ב עיתונאים משתמשים ב־Chat GPT כדי להגיש בקשות חופש מידע. אין ספק ש-AI יכול לעזור לבדיקת עובדות להפוך ליותר יעילה".