פרטיות זיהוי: האם ניתן להגן על תמונות מקוונות?

אשראי תמונה:
אשראי תמונה
iStock

פרטיות זיהוי: האם ניתן להגן על תמונות מקוונות?

פרטיות זיהוי: האם ניתן להגן על תמונות מקוונות?

טקסט כותרות משנה
חוקרים וחברות מפתחים טכנולוגיות חדשות כדי לעזור לאנשים להגן על התמונות המקוונות שלהם מפני שימוש במערכות זיהוי פנים.
    • מְחַבֵּר:
    • שם היוצר
      Quantumrun Foresight
    • 4 בנובמבר 2022

    סיכום תובנה

    ככל שטכנולוגיית זיהוי הפנים (FRT) הופכת נפוצה, קבוצות שונות ניסו להגביל את יעילותה כדי לשמור על הפרטיות. למרות שניסיון לתמרן על מערכות זיהוי פנים לא תמיד אפשרי, חוקרים החלו להתנסות בדרכים לבלבל אפליקציות מקוונות שמגרדות ואוספות תמונות למנועי זיהוי פנים. שיטות אלו כוללות שימוש בבינה מלאכותית (AI) כדי להוסיף "רעש" לתמונות ותוכנת הסוואה.

    ההקשר של פרטיות הכרה

    טכנולוגיית זיהוי פנים מנוצלת יותר ויותר על ידי מגזרים שונים, כולל אכיפת חוק, חינוך, קמעונאות ותעופה, למטרות החל מזיהוי פושעים ועד למעקב. לדוגמה, בניו יורק, זיהוי פנים סייע לחוקרים לבצע מעצרים רבים ולזהות מקרים של גניבת זהות והונאה, באופן משמעותי מאז 2010. עם זאת, עלייה זו בשימוש מעלה גם שאלות לגבי פרטיות ושימוש אתי בטכנולוגיה כזו. .

    בתחום אבטחת הגבולות וההגירה, המשרד לביטחון המולדת של ארה"ב משתמש בזיהוי פנים כדי לאמת את זהותם של מטיילים הנכנסים ויוצאים מהמדינה. זאת על ידי השוואת תצלומי מטיילים לתמונות קיימות, כמו אלו שנמצאות בדרכונים. באופן דומה, קמעונאים מאמצים זיהוי פנים כדי לזהות גנבים פוטנציאליים על ידי השוואת פרצופים של לקוחות מול מסד נתונים של עבריינים ידועים. 

    למרות היתרונות המעשיים, השימוש המתרחב בטכנולוגיות זיהוי פנים עורר חששות לגבי פרטיות והסכמה. דוגמה בולטת היא המקרה של Clearview AI, חברה שאספה מיליארדי תמונות מפלטפורמות מדיה חברתית ומהאינטרנט, ללא אישור מפורש, כדי לאמן את מערכת זיהוי הפנים שלה. תרגול זה מדגיש את הגבול הדק בין תחום ציבורי לפרטי, מכיוון שלאנשים המשתפים את התמונות שלהם באינטרנט יש לעתים קרובות שליטה מוגבלת על אופן השימוש בתמונות אלו. 

    השפעה משבשת

    בשנת 2020 פותחה תוכנה בשם Fawkes על ידי חוקרים מאוניברסיטת שיקגו. פוקס מציעה שיטה יעילה להגנה על זיהוי פנים על ידי "הסוואה" של תמונות כדי להטעות מערכות למידה עמוקה, כל זאת תוך ביצוע שינויים מינימליים שאינם מורגשים לעין האנושית. הכלי מכוון אך ורק למערכות הקוצרות תמונות אישיות ללא רשות ואינו משפיע על דגמים שנבנו עם תמונות שהושגו באופן לגיטימי, כמו אלה המשמשות את רשויות אכיפת החוק.

    ניתן להוריד את Fawkes מאתר הפרויקט, וכל אחד יכול להשתמש בו על ידי ביצוע מספר שלבים פשוטים. לתוכנת ההסוואה לוקח רק כמה רגעים לעבד את התמונות לפני שהמשתמשים יכולים להמשיך ולפרסם אותן בפומבי. התוכנה זמינה גם עבור מערכות ההפעלה Mac ו-PC.

    בשנת 2021, חברת הטכנולוגיה Adversa AI יצרה אלגוריתם שמוסיף רעש, או שינויים קלים, לתמונות של פנים, מה שגורם למערכות סריקת פנים לזהות פנים שונות לחלוטין. האלגוריתם משנה בהצלחה את התמונה של אדם למישהו אחר שיבחר (למשל, מנכ"ל Adversa AI הצליח לרמות מערכת חיפוש תמונות כדי לזהות אותו כאלון מאסק של טסלה). טכנולוגיה זו היא ייחודית מכיוון שהיא נוצרה ללא ידע מפורט על האלגוריתמים של ה-FRT של המטרה. לפיכך, אדם יכול להשתמש בכלי גם נגד מנועי זיהוי פנים אחרים.

    השלכות של פרטיות הכרה

    השלכות רחבות יותר של פרטיות הכרה עשויות לכלול: 

    • מדיה חברתית ופלטפורמות אחרות מבוססות תוכן המשלבות טכנולוגיות זיהוי פרטיות.
    • סמארטפונים, מחשבים ניידים ומצלמות כולל תוכניות שיכולות להסוות תמונות של משתמשים, ולהגביר את פרטיות המשתמשים.
    • מספר הולך וגדל של סטארטאפים המפתחים הסוואה ביומטרית או תוכניות להגבלת זיהוי FRT. 
    • יותר ממשלות לאומיות ומקומיות מיישמות חוקים המגבילים או אוסרים על FRT במעקב ציבורי.
    • תביעות נוספות נגד מערכות זיהוי פנים המגרדות תמונות פרטיות באופן בלתי חוקי, כולל הפיכת חברות מדיה חברתית אחראיות על היעדר אמצעי אבטחה שלהן.
    • תנועה הולכת וגדלה של אזרחים וארגונים המתאמצים נגד השימוש הגובר ב-FRT.

    שאלות שכדאי לקחת בחשבון

    • מה ניתן לעשות כדי לאזן את השימוש במערכות זיהוי פנים?
    • איך אתה משתמש בזיהוי פנים בעבודה ובחיי היומיום שלך?

    הפניות לתובנות

    הקישורים הפופולריים והמוסדיים הבאים קיבלו התייחסות לתובנה זו: