דיפ-פייק

טכנולוגיה לסינתזת דימוי אנושי מבוססת בינה מלאכותית
(הופנה מהדף Deepfake)

Deepfakeעברית: דיפ-פייק או דיפייק) היא טכנולוגיה מבוססת בינה מלאכותית ליצירת סרטוני וידאו, צילומים או קטעי קול מזויפים. דיפ-פייק מאפשר ליצור תוכן מזויף שנראה אמיתי על ידי שילוב תמונות וסרטונים קיימים על פני תמונות וקטעי וידאו מקוריים. בשל יכולות אלו, נעשה בטכנולוגיה שימוש להפקת סרטונים פורנוגרפיים של ידועניות, פורנוגרפיית נקם, פייק ניוז ומתיחות זדוניות (אנ')[1] כמו גם ספינים תקשורתיים להטיית דעת הקהל.

הביטוי הוא הלחם של המילים "Deep learning" (למידה עמוקה) ו-fake ("זיוף")[1] והשתמשו בו לראשונה בשנת 2017 באתר Reddit.

היסטוריה עריכה

התפתחות טכנולוגיית הדיפ-פייק התרחשה במידה רבה בשני מישורים: מחקר במוסדות אקדמאיים ופיתוח על ידי חובבים בקהילות מקוונות.

מחקר אקדמי עריכה

שורשי המחקר האקדמי של טכנולוגיית הדיפ-פייק טמונים בעיקר בתחום הראייה הממוחשבת, תת-תחום של מדעי המחשב המבוסס לעיתים קרובות על בינה מלאכותית, שמתמקד בעיבוד ממוחשב של תמונות וסרטונים דיגיטליים. ציון דרך מוקדם היה תוכנית מחשב לשכתוב וידאו שפורסמה בשנת 1997; התוכנית שינתה קטעי וידאו קיימים של אדם מדבר והתאימה את הדיבור שלו לרצועת אודיו שונה[2]. זו הייתה המערכת הראשונה שביצעה שינויים בהבעות פנים באופן אוטומטי לחלוטין, והיא עשתה זאת באמצעות טכניקות למידת מכונה כדי ליצור קשרים בין הקול שמופק על ידי דמות בווידאו וצורת הפנים שלה.

פרויקטים אקדמאיים עדכניים התמקדו ביצירת סרטוני וידאו מציאותיים יותר והפיכת הטכניקות לפשוטות, מהירות ונגישות יותר. בשנת 2016 פורסמה תוכנית המחשב "Face2Face", שהתאימה קטעי וידאו של פני אדם כך שיחקו הבעות פנים של אדם אחר בזמן אמת[3]. התוכנית התמקדה בחיקוי הבעות פנים בזמן אמת באמצעות מצלמה שלא תופסת עומק שדה ובכך מאפשרת להשתמש בטכנולוגיה במצלמות צרכנים נפוצות. בשנת 2017 פורסמה תוכנית מחשב בשם "Synthesizing Obama", שלקחה קטעי וידאו של נשיא ארצות הברית לשעבר ברק אובמה והתאימה את הדיבור שלו לרצועת אודיו נפרדת[4]. התוכנית התמקדה ביצירת טכניקה פוטו-ריאליסטית לסינתזת צורות פה מאודיו.

פיתוח חובבים עריכה

מקור הביטוי דיפ-פייק לקוח ממשתמש רדיט אנונימי בשם "deepfakes"[5][1]. הוא, כמו אחרים בקהילת r/deepfakes ברדיט, שיתפו סרטוני דיפ-פייק שהם יצרו; סרטונים רבים הטמיעו פנים של ידועניות על גוף של שחקניות פורנו[5], בעוד שתוכן לא-פורנוגרפי כלל סרטונים רבים שבהם הטמיעו את הפנים של השחקן ניקולס קייג' בסרטים שונים[6].

תופעת הדיפ-פייק דווחה לראשונה בדצמבר 2017 במדור המדעי והטכני של מגזין Vice (אנ'), מה שהוביל לסיקור נרחב בכלי תקשורת נוספים. סמנתה קול פרסמה מאמר על קהילת r/deepfakes שיצרה ושיתפה דיפ-פייקים[7], ושישה שבועות לאחר מכן היא כתבה מאמר נוסף על הגידול בפורנוגרפיה מבוססת בינה מלאכותית[5]. בפברואר 2018, קהילת r/deepfakes נסגרה על ידי אתר רדיט בשל שיתוף חומרים פורנוגרפיים ללא הסכמת המשתתפים. אתרים נוספים אסרו הפצה ושיתוף חומרי דיפ-פייק, ביניהם טוויטר ו-Pornhub[8]. קהילות מקוונות שלא משתפות חומרי דיפ-פייק פורנוגרפיים נותרו, כולל קהילת רדיט r/SFWdeepfakes שחולקת חומרים בטוחים לסביבת העבודה (safe for work deepfakes)[9].

שימושים עריכה

פורנוגרפיה עריכה

שימוש ידוע לשמצה בטכנולוגיית דיפ-פייק הוא הטמעת פנים של ידועניות על גוף של שחקניות פורנו ויצירת סרטונים פורנוגרפיים מזויפים. פורנוגרפיית דיפ-פייק הופיעה לראשונה באינטרנט בשנת 2017 כאשר משתמש אנונימי בשם "deepfakes" פרסם מספר סרטונים פורנוגרפיים מזויפים באתר רדיט; הראשון שמשך תשומת לב היה סרטון של השחקנית דייזי רידלי. ידועניות נוספות שפורסמו סרטונים מזויפים שלהן: גל גדות, אמה ווטסון, קייטי פרי, טיילור סוויפט, מייזי ויליאמס וסקרלט ג'והנסון[10]. סרטונים אלו הוסרו זמן קצר לאחר פרסומם.

לאחר שטוויטר ואתר הפורנו Pornhub אסרו הפצת חומרים פורנוגרפיים מבוססי בינה מלאכותית, אתר רדיט עדכן את המדיניות שלו ב-7 בפברואר 2018 ואסר פרסום פורנוגרפיה שנעשתה ללא הסכמת המשתתפים[11]. עם זאת, קהילות מקוונות אחרות ממשיכות לשתף פורנוגרפיית דיפ-פייק בפלטפורמות שבהן לא עדכנו את המדיניות[8].

סקרלט ג'והנסון, שהשתמשו בדמותה לא פעם בסרטי דיפ-פייק פורנוגרפיים, דיברה בפומבי על הנושא במאמר ב"וושינגטון פוסט" בדצמבר 2018. היא הביעה דאגה מהתופעה, אך הצהירה שלא תנסה להסיר את הסרטונים כיוון שמדובר במאבק אבוד בשל אופי תרבות האינטרנט והחוקים השונים בכל מדינה; היא מאמינה שבעוד ידועניות כמותה מוגנות מעצם פרסומן, תופעת הדיפ-פייק מהווה איום כנגד נשים שהמוניטין שלהן עלול להיפגע כתוצאה מפורנוגרפיית נקם[12][13].

בבריטניה ניתן להעמיד לדין מפיקי דיפ-פייק בגין הטרדה, אך יש דרישה לחוקק חוק ספציפי יותר[14]. בארצות הברית הוגשו אישומים מגוונים בדבר גנבת זהות, סייבר-סטוקינג (אנ') ופורנוגרפיית נקם, ונידונה האפשרות לחוקק חוק מקיף יותר[15].

ביוני 2019 יצא לאור יישום מחשב לווינדוס וללינוקס בשם "DeepNude", המשתמש בטכניקת רשת אדברסרית גנרטיבית (GAN) להסרת ביגוד מתמונות של נשים. לאפליקציה הייתה גרסה חינמית וגרסה בתשלום שעלתה 50 דולר[16]. ב-27 ביוני, לאחר חצי מיליון הורדות וקריסה של השרת[17], יוצרי האפליקציה הסירו את התוכנה ונתנו החזר כספי לרוכשים[18].

פוליטיקה עריכה

טכנולוגיית דיפ-פייק משמשת ליצירת ייצוג שקרי ולא הולם של פוליטיקאים. כך למשל הוחלפו פניו של נשיא ארגנטינה מאוריסיו מאקרי בפניו של אדולף היטלר, ופניה של אנגלה מרקל בפניו של דונלד טראמפ. קווין סיסטרום, מייסד אינסטגרם, הביע דאגה מתופעת הדיפ-פייק ואמר "זה נראה קרוב מאוד לאמיתי, בעולם שבו אפשר להפיץ לעולם מידע במהירות רבה ולגרום לו להדהד, מה קורה אם אתה חושב שדמות פוליטית כלשהי אמרה משהו שבעצם לא נאמר?"[19]

ארצות הברית עריכה

במרץ 2018 פיתחה חברת ASI Data Science (אנ') אלגוריתם עבור ועדה של ה-BBC שממיר טקסט כתוב לקול בקולו של טראמפ. בניסוי מקוון הוקראו בקול שישה משפטים על ידי האלגוריתם ועל ידי חקיינים של טראמפ, בהם אלק בולדווין וג'ון די דומניקו (אנ'). מתוך 267 משתתפים, 90% מצאו את הגרסה שנוצרה על ידי האלגוריתם כיותר משכנעת וקרובה למציאות מאשר דגימות הקול האנושיות של החקיינים[20].

באפריל 2018 יצרו הבמאי והקומיקאי ג'ורדן פיל ומנכ"ל באזפיד ג'ונה פרטי סימולציית דיפ-פייק של אובמה שבה הוא מסביר על הסכנה של פייק ניוז[21]. התשדיר הוויראלי נפתח במילים: "We’re entering an era in which our enemies can make it look like anyone is saying anything at any point in time" (בעברית: אנו נכנסים לעידן שבו האויבים שלנו יכולים לגרום לזה להיראות כאילו כל אחד אומר כל דבר בכל נקודה בזמן)[22]. הסרטון נוצר באמצעות אפליקציית החלפת הפנים FakeApp ותוכנת אפטר אפקטס[23].

בספטמבר 2018 שלחו שלושה נציגים מבית הנבחרים של ארצות הברית מכתב לראש המודיעין הלאומי שבו ביקשו ממנו להעריך את האיום שדיפ-פייקים מהווים על הביטחון הלאומי של ארצות הברית. במכתב תיארו את הדיפ-פייק כזיוף דיגיטלי היפר-ריאליסטי והזהירו כי הטכנולוגיה יכולה להוביל לסחיטה ודיסאינפורמציה[1].

ישראל עריכה

תהילה שוורץ אלטשולר, חוקרת במכון הישראלי לדמוקרטיה, אמרה על תופעת הדיפ-פייק "אנחנו בעולם של פוסט אמת, נתקלים בהרבה דיסאינפורמציה, ולתכנים הללו יש נטייה להתפזר ברשתות החברתיות אפילו מהר יותר ממידע אמיתי" והוסיפה בהקשר של מערכות הבחירות בישראל "החשש הוא שניתן יהיה להטות את תוצאות הבחירות על ידי פרסום מידע לא נכון, מידע ערוך, ושזה ישפיע על דעת הקהל. [...] הטכנולוגיה הזאת מערערת את האמון שלנו כחברה בעצם היכולת שלנו לברר את המציאות".[24].

במרץ 2019 יצר המפתח הישראלי בר היללי מודל תלת-ממדי של בנימין נתניהו בשם "Synthesizing Bibi" (פרפרזה לתוכנית המחשב "Synthesizing Obama" משנת 2017)[25]. היללי הודיע כי אין בכוונתו לפרסם את הקוד בגלל "רגישויות של פרויקטים מהסוג הזה"[25].

בספטמבר 2019 שודר עימות טלוויזיוני מזויף בין מועמדים לראשות הממשלה בהנחיית ארז טל וישראל קטורזה בוועידת המשפיעים של חדשות ערוץ 12. העימות נוצר על ידי מפתחים מחברת "Canny AI" הישראלית; הוא משלב חקייני קול עם טכנולוגית דיפ-פייק שמייצרת מחדש את פני הפוליטיקאיים כך שיתאימו לקול המזויף[26].

בנובמבר 2019 נערך ראיון מזויף עם אביגדור ליברמן בתוכנית "מועדון לילה" באמצעות טכנולוגיית Deepfake[27].

טכנולוגיה עריכה

מבחינה טכנולוגית דיפ-פייק מבצעת סינתזת דימוי אנושי (אנ') מבוססת בינה מלאכותית. באמצעות סופראימפוזיציה וטכניקת למידת מכונה הידועה כרשת אדברסרית גנרטיבית (GAN)[28].

תוכנות Deepfake עריכה

בינואר 2018, הושקה תוכנה קניינית (אנ') (להבדיל מתוכנה חופשית) בשם "FakeApp"[29]. האפליקציה מאפשרת למשתמשים ליצור ולשתף בקלות יחסית סרטוני וידאו עם פנים שהוחלפו. האפליקציה משתמשת ברשת עצבית מלאכותית, ודורשת מעבד גרפי ושטח אחסון של בין 3 ל-4 ג'יגה-בייט ליצירת וידאו מזויף. התוכנה זקוקה לחומר ויזואלי רב של האדם שאת פניו רוצים להכניס לווידאו המקורי כדי שאלגוריתם למידה עמוקה ילמד איזה היבטים בתמונה יש להחליף. התוכנה משתמשת בתשתית "TensorFlow" של גוגל.

באוגוסט 2018, חוקרים מאוניברסיטת קליפורניה בברקלי פרסמו מאמר שהציג אפליקציית ריקוד מזויף שיוצרת את הרושם של יכולות ריקוד מקצועי באמצעות בינה מלאכותית[30][31].

החל משנת 2019, "FakeApp" הוחלפה על ידי חלופות קוד פתוח דוגמת DeepFaceLab[32]‏, FaceSwap[33] ו-myFakeApp[34].

חברות עסקיות גדולות החלו להשתמש בטכנולוגית דיפ פייק. חברת "Momo" הסינית יצרה את אפליקציית "Zao" שמאפשרת למשתמשיה לשתול את פניהם על קטעי טלוויזיה וקולנוע באמצעות תמונה אחת. האפליקציה זכתה לפרסום רב בספטמבר 2019, לאחר שמשתמש בטוויטר פרסם סרטון קצר שלו כלאונרדו דיקפריו. הסרטון הויראלי נוצר תוך 8 שניות באמצעות האפליקציה[35].

זיוף קול עריכה

במקביל לפיתוח תוכנות שמייצרות זיופים ויזואליים, פותחו גם תוכנות לעיבוד וזיוף קול.

בסוף שנת 2016, אדובי הכריזה על יצירת אב טיפוס לתוכנה חדשה בשם "VoCo" שתאפשר לקחת הקלטה של קול אנושי ולהוסיף לה בהקלדה מילים ומשפטים חדשים שיישמעו כאילו נאמרו על ידי הדובר המקורי. התוכנה זקוקה לדגימת קול בת 20 דקות[29].

סטארט-אפ קנדי בשם Lyrebird מפתח מוצר שיאפשר ליצור הקלטה מלאכותית על סמך דגימת קול בת 60 שניות[29].

בסוף 2017, חברת באידו הסינית הכריזה על פיתוח Deep Voice, מטקסט לדיבור בזמן אמת, תוכנה לשיבוט קול שזקוקה לדגימת קול מקורית בת שניות אחדות בלבד[29][36].

בשנת 2019 נגנבו כמעט רבע מיליון דולר על ידי זיוף קול[37].

בדיקת אמיתות עריכה

ככל שטכנולוגיית דיפ-פייק מתפתחת נעשה קשה יותר ויותר להבחין בין זיוף למקור. בשל כך, חוקרים החלו לפתח כלים לאימות תוכן ואיתור דיפ-פייק: הסטארט-אפ Truepic פיתח אלגוריתם לאימות תמונות באמצעות אפליקציה[38]; חוקרים מאוניברסיטת אולבני פיתחו גלאי זיופים על סמך דפוסים לא טבעיים של מצמוצים[39]; חוקרים מאוניברסיטת דרום קליפורניה בשיתוף עם המכון לטכנולוגיות יצירתיות בלוס אנג'לס (אנ') בנו אלגוריתם לזיהוי בינה מלאכותית בסרטוני וידאו של פוליטיקאים שעוקב אחר הבעות פנים זעירות הידועות גם כביומטריה רכה (אנ')[39].

דרפ"א - סוכנות המחקר הטכנולוגי של הצבא האמריקאי החלה לפתח טכנולוגיות אוטומטיות לאיתור זיופים ואימות אותנטיות של סרטוני וידאו באמצעות מעבדת מדיה פורנזית[24], דוגמת זיהוי חוסר עקביות בתאורה על פני המשתמש[1] בעוד הוועדה הטרנס-אטלנטית ליושר בבחירות (אנ') מפתחת כלים למניעת התערבות דיפ-פייקים בבחירות לנשיאות[1].

ביקורת עריכה

הטכנולוגיה הגיעה לחשיפה בציבור הרחב בתקופה בה עדיין בוצעו חקירות בארצות הברית בנוגע להשפעתה של חברת קיימברידג' אנליטיקה ולגורמים מרוסיה על הבחירות לנשיאות ארצות הברית של שנת 2016, ועל רקע חשדות להתערבותן של רוסיה ומדינות נוספות בבחירות במדינות דמוקרטיות נוספות[40][41]. בתקופה זו הציבור המערבי היה רגיש במיוחד לתופעות של שימוש במידע כוזב לצרכים פוליטיים, דוגמת השיטות הדיגיטליות להפצת פייק ניוז ברשתות החברתיות. אווירה ציבורית זו גרמה לכך שהדיפ-פייק מלכתחילה נתפס כאיום לא מוכר להטיה אפשרית של תוצאות בחירות במדינות דמוקרטיות, להשפעה על תפיסות ציבוריות של ציבורים רחבים ולזריעת בלבול ומחלוקת בין מדינות יריבות[42].

הלחץ הציבורי על הרשתות החברתיות, שנתפסו בציבור ובקרב פוליטיקאים משני המחנות האמריקאים כאחראיות במידה מסוימת על ניצול הפלטפורמות שלהן לביצוע שיטות התערבות בתוצאות הבחירות, דחף אותן למהר ולחפש פתרונות לנושא, ולשתף פעולה עם חברות טכנולוגיה המציעות פתרונות לנושא. ההנחה טרם הבחירות לנשיאות ארצות הברית של שנת 2020, היא שמדובר בטכנולוגיה לא מוכרת המתפתחת במהירות, כך שמציאת פתרון גורף לתופעה עד לבחירות הוא לא סביר[42].

בשנת 2019 הפכה קליפורניה למדינה הראשונה שחוקקה חוקים נגד הדיפ-פייק, כאשר אושרו במדינה שני חוקים - האחד אוסר על הפצה של סרטונים שעברו מניפולציה במטרה לפגוע בדמותו של מועמד פוליטי, או להשפיע על דעתם הפוליטית של מצביעים בטווח של 60 יום מיום בחירות. השני מעניק לתושבי קליפורניה את הזכות לתבוע אדם שיצר דיפ פייק בו מוטמעת דמותם בחומרי פורנו ללא הסכמתם.[43]

בתרבות הפופולרית עריכה

ראו גם עריכה

קישורים חיצוניים עריכה

  מדיה וקבצים בנושא דיפ-פייק בוויקישיתוף

הערות שוליים עריכה

  1. ^ 1 2 3 4 5 6 אושרית גן-אל, ‏DeepFake: מי יעצור את הדור הבא של הסרטונים המזויפים, באתר גלובס, 9 באוקטובר 2018
  2. ^ Bregler, Christoph; Covell, Michele; Slaney, Malcolm, Video Rewrite: driving visual speech with audio, ACM Digital Library, ‏1997 (באנגלית)
  3. ^ Justus Thies, Michael Zollhöfer, Marc Stamminger, Christian Theobalt, Matthias Nießner, Face2Face: Real-Time Face Capture and Reenactment of RGB Videos, IEEE Xplore, ‏יוני 2016 (באנגלית)
  4. ^ Supasorn Suwajanakorn, Steven M. Seitz, Ira Kemelmacher-Shlizerman, Synthesizing Obama: learning lip sync from audio, ACM Digital Library, ‏יולי 2017 (באנגלית)
  5. ^ 1 2 3 Samantha Cole, We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now, Vice, ‏24 בינואר 2018 (באנגלית)
  6. ^ Sam Haysom, People are using face-swapping tech to add Nicolas Cage to random movies and what is 2018, Mashable, ‏31 בינואר 2018 (באנגלית)
  7. ^ Samantha Cole, AI-Assisted Fake Porn Is Here and We’re All Fucked, Vice, ‏11 בדצמבר 2017 (באנגלית)
  8. ^ 1 2 Jay Hathaway, Here’s where ‘deepfakes,’ the fake celebrity porn, went after the Reddit ban, The Daily Dot, ‏8 בפברואר 2018 (באנגלית)
  9. ^ r/SFWdeepfakes, רדיט (באנגלית)
  10. ^   עודד ירון, העתיד כבר כאן, וכולנו עלולים להיות כוכבי הפורנו הבאים, באתר הארץ, 1 בפברואר 2018
  11. ^   עודד ירון, מולדת ה-Deepfakes אוסרת על פורנו מבוסס בינה מלאכותית, באתר הארץ, 8 בפברואר 2018
  12. ^ אושרית גן-אל, ‏"האינטרנט הוא חור עצום של אפלה": סקרלט ג'והנסון על סרטוני פורנו מזויפים מבוססי בינה מלאכותית, באתר גלובס, 1 בינואר 2019
  13. ^ הגר בוחבוט, סקרלט ג'והנסון: אי אפשר להתגונן מפני דיפ פייק, באתר ynet, 2 בינואר 2019
  14. ^ Dan Sabbagh, Sophia Ankel, Call for upskirting bill to include 'deepfake' pornography ban, The Guardian, ‏21 ביוני 2018 (באנגלית)
  15. ^ Drew Harwell, Fake-porn videos are being weaponized to harass and humiliate women: ‘Everybody is a potential target’, The Washington Post, ‏30 בדצמבר 2018 (באנגלית)
  16. ^ Samantha Cole, This Horrifying App Undresses a Photo of Any Woman With a Single Click, Vice (באנגלית)
  17. ^ פייק ניוז: הדור הבא, תהילה שוורץ אלטשולר, איתי ברון, באתר המכון הישראלי לדמוקרטיה, ‏14 ביולי 2019
  18. ^ deepnudeapp, Here is the brief history, and the end of DeepNude, טוויטר, ‏27 ביוני 2019
  19. ^ הגר בוחבוט, דיפ פייק: לכו תסבירו שזה לא וידאו שלכם, באתר ynet, 23 בנובמבר 2018
  20. ^ Ryan Browne, Anti-election meddling group makes A.I.-powered Trump impersonator to warn about ‘deepfakes’, CNBC, ‏7 בדצמבר 2018 (באנגלית)
  21. ^ גיא לוי, כשאובמה קילל את טראמפ אל מול המצלמות, באתר ynet, 18 באפריל 2018
  22. ^ Aja Romano, Jordan Peele’s simulated Obama PSA is a double-edged warning against fake news, Vox, ‏18 באפריל 2018 (באנגלית)
  23. ^ אובמה קילל את טראמפ? ג'ורדן פיל מדגים כיצד מייצרים פייק ניוז, באתר כלכליסט, 18 באפריל 2018
  24. ^ 1 2   נירית אנדרמן, זהירות, מתחזה דיגיטלי: האם טכנולוגיית "דיפ פייק" תשפיע על הבחירות בישראל, באתר הארץ, 25 בפברואר 2019
  25. ^ 1 2 עידן בן טובים, מפתח ישראלי יצר ”פייק ביבי”, וזה מרשים ומדאיג באותה מידה, באתר גיקטיים, ‏19 במרץ 2019
  26. ^   עידן הדיפייק - כך נראה עימות מזוייף בין נתניהו לליברמן, סרטון בערוץ "חדשות 12", באתר יוטיוב (אורך: 3:35)
  27. ^ מועדון לילה, ‏מה חשב אביגדור ליברמן על הראיון המזוייף ב"מועדון לילה"?, באתר ‏מאקו‏, 6 בנובמבר 2019
  28. ^ Oscar Schwartz, You thought fake news was bad? Deep fakes are where truth goes to die, The Guardian, ‏12 בנובמבר 2018 (באנגלית)
  29. ^ 1 2 3 4 אורי פסובסקי, הכל פייק: איך נראים החיים בעולם שבו אפשר לזייף הכל, כולל הצהרות וידיאו של פוליטיקאים וסרטוני פורנו בכיכובכם, באתר כלכליסט, 30 במרץ 2018
  30. ^ רפאל קאהאן, פיתוח מגניב: בינה מלאכותית שהופכת אתכם לרקדנים מושלמים, באתר כלכליסט, 27 באוגוסט 2018
  31. ^ Peter Farquhar, An AI program will soon be here to help your deepfake dancing - just don't call it deepfake, Business Insider, ‏27 באוגוסט 2018 (באנגלית)
  32. ^ DeepFaceLab, GitHub, ‏יוני 2019 (באנגלית)
  33. ^ faceswap, GitHub, ‏יולי 2019 (באנגלית)
  34. ^ MyFakeApp, Bitbucket, ‏פברואר 2018 (באנגלית)
  35. ^ Allan Xia, Best application of 'Deepfake'-style AI facial replacement I've ever seen, טוויטר, ‏1 בספטמבר 2019 (באנגלית)
  36. ^ TechTalksTV, Deep Voice: Real-time Neural Text-to-Speech, vimeo, ‏31 באוקטובר 2017 (באנגלית)
  37. ^ הכותב=Jesse Damiani A Voice Deepfake Was Used To Scam A CEO Out Of $243,000, Forbes, ‏3 בספטמבר 2019 (באנגלית)
  38. ^ David Axton, Truepic VS Deepfake; a War Against Fake News, TechNadu, ‏21 ביוני 2018 (באנגלית)
  39. ^ 1 2 James Vincent, Deepfake detection algorithms will never be enough, The Verge, ‏27 ביוני 2019 (באנגלית)
  40. ^ עומר כביר, ההצלחה הרוסית עשתה את שלה: צבאות הבוטים בשירות הרודנים, באתר כלכליסט, 29 באוקטובר 2018
  41. ^ התערבות זרה בבחירות בעולם: מאפיינים, מגמות ולקחים לישראל, באתר המכון למחקרי בטחון לאומי
  42. ^ 1 2 עומר כביר, פייק ניוז, הדור הבא: האם תעצור הטכנולוגיה את הסרטונים המזויפים?, באתר כלכליסט, 28 ביולי 2019
  43. ^ קליפורניה יוצאת נגד ה-Deep Fakes, חוקקה שני חוקים נגד התופעה, באתר כלכליסט, 7 באוקטובר 2019