כלי חדש לזיהוי תמונות וסרטוני Deepfake

ijump_728x90



מיקרוסופט השיקה הלילה (ג’) כלי חדש שמשמש לזיהוי סרטונים ותמונות שעברו מניפולציה המבוססת על טכנולוגיית בינה מלאכותית – Deepfake. על פי הפרסום של מיקרוסופט
התוכנה מנתחת את הסרטונים או התמונות ומעניקה להם “ציון אמינות” שמאפשר להתרשם האם מדובר בתכנים אמיתיים או שעברו סוג של מניפולציה.  

קראו עוד בכלכליסט:

 

היוזמה היא חלק מהמאבק הגלובלי בפרסומים שקריים או מוטים. פייק ניוז. ואולם קצה ההתקדמות של הטכנולוגיות השונות מעמיד בספק את יעילות כלי הניטור, בין אם של מיקרוסופט או של חברות אחרות כגון גוגל או פייסבוק. לשם כך הוסיפו במיקרוסופט יכולת נוספת והודיעו על זמינותה של מערכת מקבילה שתשמש יוצרי תוכן כדי להטמיע קוד שיאפשר לזהות שינויים שנעשו לאחר נעילת הקובץ. סוג של פורמט PDF לסרטונים ותמונות.
דייפ פייק בתנועות פנים צילום: שאטרסטוק

 

מערכות Deepfake מסוגלות תיאורטית לייצר תכנים מזויפים ברמה כזו שקשה מאוד לזהות. בנוסף, הטכנולוגיה התקדמה בצעדי ענק מאז נחשפה לפני קצת יותר משנתיים לצד שימושי AI אחרים. בעבר היא בעיקר איפשרה להשתיל פנים של אחד על גוף של אחר למשל, מה שהפך לסוג של תחביב עבור חובבי אתרי רדיט ופורצ’אן, ואמצעי להדביק את הפנים של השחקנית החביבה עליהם על גופה של שחקנית פורנו. ואולם בשנה שעברה כבר הופצו מספר סרטונים ובהם מניפולציה של פוליטיקאים מצהירים אמירות שקריות ושהוכנסו לסרטונים אמיתיים. כך למשל ברק אובמה, הילארי קלינטון או אחרים עוותו לומר דברים שמעולם לא אמרו.

 

אבל הדאגה העיקרית היא שכלי Deepfake קלים כיום לשימוש מבעבר. אם בשלהי הפיתוח שלה נדרשו היקפים נרחבים של תכנים כדי שהמחשב יוכל לנתח אותם ולייצר סרטון אמין. כיום אפילו מספר תמונות יספיקו כדי להשתיל את הפנים של מישהו על גופו של אחר. בנוסף לכך עוצמת המחשבים הפכה את האפשרות הזו לקלה מאי פעם ואפילו לא דורשת ציוד משוכלל. כל מה שנדרש זה גישה לתוכנה מבוססת קוד פתוח, מחשב ביתי חזק וזמן. מיותר לציין שקל אף יותר לבצע פעולות דיסאינפורמציה כאלה עבור גופים מדינתיים – כגון סוכנויות ביון או פרופגנדה.
טכנולוגיית העתקת הפנים, דיפ פייק צילום: Nvidia

 

מיותר לציין ש-Deepfake אסורה לחלוטין לשימוש בפייסבוק, טוויטר או טיקטוק. הפלטפורמות בחלקן פיתחו כלים כדי לזהות מניפולציות כאלה, אבל הכלי של מיקרוסופט הוא אוניברסלי ולדברי המפתחים יעיל ביותר. הוא מתבסס על ניתוח של סימנים המעידים שהתוכן עבר שינוי מלאכותי לאחר צילומו. סימנים אלו לא ניתנים לזיהוי בעין אנושית לא מאומנת. מדובר למשל בשינויים זעירים בסכימת הצבעים של הפיקסלים שמרכיבים את התמונה או הסרטון, או למשל זיהוי שולי פני הדמויות, שאם עברו מניפולציה יציגו “מריחה” מזערית של הצבעים.

 


עד כה לא זוהה ניסיון אמיתי לבצע שימוש אסור בטכנולוגיה למעט בזיוף סרטוני פורנו, ואולם מומחים שונים מעריכים שבתוך כ-3 עד 5 שנים היא תבשיל מספיק כדי לייצר תכנים שיהיה קשה מאוד לזהות כזיוף. מנגד גם אמצעי הזיהוי מתקדמים, גם אם בקצב איטי יותר.

 

מיקרוסופט מציעה את הכלי דרך ארגון צד שלישי כדי למנוע את האפשרות שיצרני Deepfake ילמדו אותו וינסו להערים עליו. בסופו של דבר המפתחים שירצו להשתמש בו יוכלו למשל לפתח תוסף דפדפן שיוכל לתת ציון לתכנים אליהם אנו גולשים. בנוסף השימוש בקודים
על ידי יוצרי תוכן יאפשר גם להקל על תוכנות כאלה לזהות זיוף על ידי השוואה של המידע הדיגיטלי (מטא-דאטה) לקוד המקורי.




קישור לכתבת המקור

Travazor

אודות המחבר

כתבות נוספות

Travazor