הטכנולוגיה שלחה אותנו לבידוד והשאירה שובל של בעיות אתיות

שימוש בבינה מלאכותית לקביעת החלטות מדיניות מעלה תמיד שורה של שאלות אתיות • אך מה קורה כשהאלגוריתמים משמשים לקבלת החלטות שמשפיעות על בריאותם של אנשים ומצבם הכלכלי והנפשי? משבר הקורונה לא מאפשר לנו להתעלם מהשאלה הזאת יותר

פקחים מחלקים דוחות בשכונות החרדיות בבני ברק / צילום: Ariel Schalit, Associated Press
פקחים מחלקים דוחות בשכונות החרדיות בבני ברק / צילום: Ariel Schalit, Associated Press

בשנתיים האחרונות נמצאות מדינות רבות בעולם במרוץ חימוש בכל הקשור לבינה מלאכותית, עם תוכניות לאומיות, ועדות אתיקה ודיונים בחקיקה. המרוץ הזה לא פוסח על אף מעצמה, החל מסין וארה"ב, דרך ישראל ועד האיחוד האירופי. התחושה הכללית הייתה שזה רק עניין של זמן עד שמערכות של בינה מלאכותית ישמשו גורם משמעותי בקבלת החלטות יומיומיות ואסטרטגיות בקנה מידה רחב, שישפיעו ישירות על חייהם של אזרחים בכל העולם.

והנה, בחסות משבר הקורונה, המערכות הללו הפכו לחלק בלתי נפרד מהמציאות היומיומית של אזרחים בכל העולם, וגם בישראל. בחודשים האחרונים מבקשים יותר ויותר מקבלי החלטות להיסמך על בינה מלאכותית בבואם לנהל את המשבר. אלגוריתמים של בינה מלאכותית, שעליהם מתבססים למשל מודלים של חיזוי או ניתוח תקשורת כתובה, יכולים להוביל לקבלת החלטה על הכנסה של אדם מסוים לבידוד ואכיפה של חובת הבידוד על אינדיבידואלים, וגם להחלטות רוחביות כמו על איזה שכונה להטיל סגר ואיזה שכונה תוכל לחזור לפעילות מסחרית, איזה בית חולים לתגבר בציוד או בכוח אדם, ואיך תיראה אסטרטגיית היציאה מהסגר.

למערכות כאלו יכולה להיות השפעה רבה על מצבם הבריאותי, הנפשי והכלכלי של אזרחים, אך יש להן גם חסרונות שצריכים להילקח בחשבון. "בינה מלאכותית עוזרת לנתח כמויות דאטה עצומות שאדם לא מסוגל לנתח, ולהגיע למסקנות שעין בלתי מזוינת לא יכולה. אבל, וצריך להבין את זה, בינה מלאכותית מקצינה לפעמים יחסי גומלין שקיימים במערכות החברתיות", אומרת פרופ' קרין נהון, שהובילה את ועדת האתיקה הלאומית בנוגע לבינה מלאכותית שחיברה דוח מעמיק בנושא.

"אם קיים אי שוויון בין קבוצות בחברה, מערכות בינה מלאכותית נוטות לשעתק אותו לתוך המערכת ולהקצין אותו. למשל, אנחנו יודעים שאחוז הנדבקים המאומתים בקורונה הרבה יותר גבוה באוכלוסיות חרדיות מאשר באוכלוסיות חילוניות. המערכת תראה את אי השוויון הזה, ו'תלמד' שכשהיא רואה אדם מאוכלוסייה חרדית, הוא מסוכן לחברה", מסבירה נהון.

לכן, השילוב המהיר של מערכות מבוססות בינה מלאכותית בקביעת צעדי מדיניות מחייב דיון אתי לגבי אופן הפעולה שלהן והשימוש בהן: החל משמירה על פרטיות האזרחים, דרך שקיפות לגבי סוג המידע בו הן משתמשות והאופן בו הן מסיקות ממנו מסקנות, וכלה בשקיפות של מנגנוני השלטון שעושים במערכות הללו שימוש. "הקורונה היא דוגמה טובה לכך שדווקא עכשיו חשוב מתמיד לעשות רגולציה לבינה מלאכותית. כיום, טכנולוגיה כזו יכולה לבחון באמצעות מצלמות מעקב חכמות את המצב הרפואי של אינדיבידואלים, והתוצאה תהיה שלא תינתן לך גישה לתיאטרון, לקניון, או לקולנוע", אומר פטריק ואן אקה, המשמש כיועץ לאו"ם ולאיחוד האירופי בתחומי הרגולציה והטכנולוגיה.

איסוף מידע מכוחן של תקנות חירום

למרות ההשפעה הפוטנציאלית האדירה שיש למערכות כאלה, מצב החירום מביא ממשלות ברחבי העולם לקבל החלטות במהירות ולעתים לבחור בין שיקולים אתיים לבין יעילות. כך יוצא שממשלות מסוימות בוחרות להמתין ולשקול בזהירות את ההשלכות של כל צעד, וממשלות אחרות בוחרות להתקדם מבלי לבחון את הדברים לעומקם. עם זאת, ישנן מדינות כמו טאיוואן ודרום קוריאה שהצליחו לאזן בין שני השיקולים - האתי והמעשי - ולהגיע לצורת עבודה שאפשרה להן להתמודד עם הקורונה, תוך שהן שומרות על עקרונות דמוקרטיים.

באופן כללי ניתן להגיד כי האלגוריתמים של הבינה המלאכותית מבוססים על איסוף מידע ונתונים על אזרחים בקנה מידע רחב שלא נראה עד כה וזאת באמצעות צווי חירום וחקיקת חירום. המשמעות היא שהפיקוח על השימוש באמצעים אלו הוא רופף. כשמידע רב נאסף עם פיקוח מוגבל על רמת הפרטיות ואף משמש למערכות בינה מלאכותית - רבים חושבים שיש סיבה לדאגה.

גם בישראל איסוף המידע מבוצע מכוחן של תקנות שעת חירום ולא חקיקה סדורה. מי שאוסף את המידע הוא השב"כ, והוא מעביר למשרד הבריאות מידע על אזרחים שנמצאים בסכנת הידבקות בקורונה. בדיקה של המכון הישראלי לדמוקרטיה העלתה כי ישראל היא הדמוקרטיה היחידה בעולם שהסמיכה את שירותי הביטחון החשאיים שלה לבצע מעקב רחב היקף אחרי אזרחים במסגרת המאבק בקורונה.

התקנות בישראל יפוגו בעוד כשבועיים ואז המדינה תידרש להתייצב בפני ועדת הכנסת הזמנית לענייני מודיעין ולהציג לה חלופות לצעד הקיצוני של שימוש ביכולות הריגול של השב"כ. אם לא תימצא חלופה, המדינה תצטרך לבקש להאריך את תוקף התקנות המסמיכות את השב"כ לסייע במשבר האזרחי. הוועדה תבחן את ההצעות תוך התחשבות בשיקולים של יעילות, של אתיקה, ושל זכויות אדם ואזרח. כרגע לא ברור מה החלופות שהמדינה תציע, והאפשרויות הידועות כרגע הן מערכת של NSO (פירוט בהמשך) ואפליקציית "מגן" של משרד הבריאות והסטארט-אפ GlobeKeeper, שהיא אפליקציה וולנטרית לחלוטין.

למעשה, הניסיונות לשלב טכנולוגיה במדיניות בישראל נעים על הסקאלה שבין סין, שמרגלת אחר אזרחיה גם בימים כתיקונם, ובין איטליה, שמתוך רצון להגן על פרטיות האזרחים הזניחה בפועל את בריאותם. כך למשל, אחד הניסיונות להעמיד חלופה היא מערכת דירוג אזרחים אותה הציע שר הביטחון נפתלי בנט, שפיתחה חברת הסייבר ההתקפי הישראלית NSO. לפי גורמים שנחשפו למערכת בזמן האחרון, היא לא אוספת מידע אלא מנתחת אותו באמצעות בינה מלאכותית, ואמורה לזהות מוקדי הדבקה גיאוגרפיים. במקביל, היא אמורה לבדוק את המגע שהתקיים בין אנשים שאובחנו כחולים בקורונה לבין אנשים שלא אובחנו, כדי לזהות מדביקים פוטנציאלים שאינם מאובחנים.

כדי לעבוד כראוי, המערכת זקוקה למידע אודות מיקומם של כלל אזרחי המדינה בה היא פועלת בכל רגע נתון, שיכול להגיע ממאגר השב"כ או מחברות הסלולר (עם חקיקה מתאימה), ומידע אודות זהות החולים המאובחנים. המערכת גם יכולה לעשות שימוש בפרמטרים נוספים כמו מידע דמוגרפי, היסטוריה רפואית וכדומה. "איך אנחנו מוודאים שלמערכת כזו אין הטיות? אם המערכת מתאמנת על דאטה קיים, כלומר מי האנשים שכבר נכנסו לבידוד, אז תהיה לה הטיה חזקה על אנשים שנסעו לחו"ל, על חרדים, וכן הלאה. האם היא תשעתק את זה?", שואלת ד"ר תהילה אלטשולר-שוורץ מהמכון הישראלי לדמוקרטיה.

"מערכת שעובדת על כמה וכמה פקטורים ושמקבלת החלטות יכולה להשפיע על הזכויות שלך: אם מותר לך לנסוע ברכבת, ללכת לעבודה או להיות בחדר עם עוד חמישים אנשים. כשבינה מלאכותית משתמשת כדי ליצור מדרג של אנשים ומשפיעה על הזכויות שלהם היא חייבת להיות שקופה, שיהיה אפשר לערער על ההחלטות שלה, ולהבין על איזה דאטה היא התאמנה וכן הלאה. בכל פעם שמכונה לומדת מקבלת החלטות לגבי אזרחים, אנחנו צריכים לשאול את עצמנו למה המערכת קיבלה את ההחלטה שהיא קיבלה", אומרת אלטשולר-שוורץ. אך על מערכת כזו, של חברת סייבר התקפי בשימוש משרד הבטחון, שתקבל מידע מהשב"כ, לא ניתן יהיה לפקח. זאת מכיוון שהגופים המעורבים הם כולם גופים שחובת השקיפות לא חלה עליהם.

הסוגיה של שימוש בבינה מלאכותית לקבלת החלטות תופסת מקום מרכזי בתהליך חקיקה שמתרחש בימים אלה באיחוד האירופי בנוגע לבינה מלאכותית. בספר הלבן שפרסמה השנה ונועד להוות בסיס לחקיקה בנושא הגדירה המועצה האירופית שימושים שונים של בינה מלאכותית בסיכון גבוה, עליהם צריכה לחול רגולציה מחמירה. בין היתר, מדובר במערכות בינה מלאכותית המשמשות גופי ציבור לקבלת החלטות המשפיעות באופן ניכר על חייהם של בני אדם, כמו אלה בהן נעשה שימוש כיום, וכן מערכות בינה מלאכותית בשימושים רפואיים.

המועצה האירופית מציעה כי מערכות חכמות שנמצאות בשימושים אלה יידרשו לספק שקיפות לגבי המידע עליו הן מתבססות והאופן בו הן נסמכות עליו. בנוסף, הן יידרשו לספק אפשרות לערער על החלטותיהן ולבקש "חוות דעת שנייה" של אדם בשר ודם. באופן כללי, בינה מלאכותית נוטה להיות "קופסא שחורה", אליה מכניסים נתונים רבים, והיא מבצעת עליהם חישובים מורכבים שאינם ניתנים להבנה או להסבר, ועל בסיסם מפיקה מסקנה. עם זאת, ניתן לתכנן מערכות מסוג זה כך שיהיו שקופות ויידעו להסביר את התהליך שהן מבצעות.

"מנקודת מבט רגולטורית, הם רוצים להציג את העיקרון של בינה מלאכותית אמינה - בינה מלאכותית שאתה, כמשתמש קצה, יכול לסמוך עליה ולא צריך לפחד ממנה", אומר פרופ' ואן אקה, המכהן כראש החטיבה לאבטחת מידע בפירמת עוה"ד הגלובלית DLA PIPER. בין היתר, הוא שימש כיועץ לאיחוד האירופי בניסוח תקנות ה- GDPR ובהיבטים נוספים של תחום הפרטיות.

האם מותר למדוד חום לעובדים?

מעבר לשאלות ההתמודדות עם המשבר, סוגיות אלה צפויות להשפיע גם אחריו: האופן בו כל ממשלה מתמודדת עם המשבר עכשיו, עשוי להשפיע גם על התמודדותה עם משברים דומים בעתיד, אך גם על האופן בו ייראו חיי האזרחים בעתיד. זאת, מכיוון שהכניסה המהירה של טכנולוגיות תומכות החלטות לצורך התמודדות עם הקורונה עשויה "לזלוג" לשימוש יומיומי במערכות כאלה עם סיום המשבר.

נראה כי באירופה, שם הרגולציה על פרטיות מחמירה, מבינים זאת ונוהגים בהתאם, לפחות נכון לעכשיו. "הרשויות באירופה מתעסקות בשאלות כמו האם מותר לך למדוד חום של העובדים שלך או של מבקרים במלון שלך? האם מותר לך לשאול אנשים היכן היו ואת מי פגשו? האם מותר לך לעקוב אחרי אנשים, או לחייב אותם להוריד אפליקציות שיעקבו אחרי מיקומם", אומר ואן אקה. "לפי הרשויות, השאלות האלו אינן עומדות בתנאי ה- GDPR, שזו חקיקה חשובה שבעיני הרשויות לא ניתן לשים בצד בשל משבר מסוג זה. מבחינתן, הבריאות הפיזית של אנשים שווה לבריאות המידע של אנשים, ולכן אסור להפר את ה- GDPR, וקשה מאוד למצוא איזון טוב".

עם זאת, אומר ואן אקה, "אני יכול לדמיין מצב שבתוך כמה שבועות ישתמשו ב-GDPR בצורה הרבה יותר גמישה, ויאפשרו לרשויות להשתמש באמצעי מעקב, ולדרוש מאנשים לחשוף את מיקומם. ב-GDPR קיימת החרגה שמאפשרת לאסוף מידע רפואי במקרי חירום מסוימים, אך זה צריך להתבסס על חקיקה - שלא קיימת עדיין ברוב המדינות. אנחנו כן הולכים לכיוונים האלו וגם באירופה הממשלות דוחפות את מפעילי התקשורת לספק מידע על מיקום של אנשים, כדי לראות אם אנשים התאספו ביער כדי לעשות פיקניק, למשל. זה נראה כאילו הקורונה היא מקרה הבוחן הראשון גם לנושא פרטיות שלנו וגם לאיך נתמודד עם הטמעה רחבה של בינה מלאכותית".

"בזמן חירום אנחנו צריכים להיות גמישים יותר בקווים האדומים שאותם אנחנו מכתיבים לא בזמן חירום, וגם בקווים האתיים. זה לא אומר שמרימים דגל לבן ומוותרים על הערכים האלה לגמרי", אומרת נהון. בנוסף, היא מציינת, "הקורונה סיפקה לנו פתאום ביטחוניזציה, בכל מיני היבטים כמו המוסד שמשיג לנו מכונות הנשמה, המשטרה שממלאת את הרחובות, משרד הביטחון, מערכות השב"כ ומפא"ת. היא מכניסה אותנו למקומות שנזהרנו מהם בעבר באקוסיסטם האזרחי. אפילו שמדובר בזמן חירום, חשוב לייצר איזונים ובלמים כי זמן החירום הזה מסתיים, ובסופו נחזור לחיים רגילים. הרבה פעמים נוצרים תקדימים בזמן חירום שקשה להחזיר אותם אחורה".

דרוש אמון בין המדינה לאזרחים

לדברי פרופ' מנואל טרכטנברג, כלכלן ולשעבר חבר כנסת וראש המועצה הלאומית לכלכלה, "אחת הבעיות הגדולות במדינת ישראל כיום היא שאנחנו נמצאים במשבר פוליטי שמטיל צל כבד על היכולת שלך כאזרח לדעת אם מי שבשלטון מורה לך לעשות דבר מה לטובתך האישית, או שמא יש פה גם שיקולים אחרים. דרך אגב, יכול להיות שאחת הסיבות שהלכנו לסגר יותר הדוק היא בגלל זה, אבל זו רק השערה".

טרכטנברג מדגיש את החשיבות של אמון האזרחים במדיניות הממשלה, שכוללת בין השאר את השימוש באמצעים טכנולוגיים, ובפרט בבינה מלאכותית ובאיסוף מידע. "אלגוריתמים מאפשרים לעשות סימולציות על מדיניות כזו או אחרת, ולבחון למשל איך אינטראקציות של אנשים משפיעות על התפשטות הנגיף. לצורך זה אוספים נתונים על המיקום שלנו, לעתים מבלי שאנחנו מודעים לכך. אם הדאטה עלי הוא פסיק בתוך טריליון נקודות דאטה שמזינות בינה מלאכותית, אין לי שום בעיה עם זה. הבעיה היא כאשר המידע משמש כדי לעקוב אחריי באופן אישי, כך שהוא ישמש לפעולות שמתבצעות מולי", אומר טרכטנברג.

טרכטנברג נותן את דרום קוריאה כדוגמה למדינה שבה האזרחים ממושמעים באופן טבעי ונותנים את אמונם בשלטונות. "הקומבינציה של משמעת אזרחית ואמון יכולה ללכת דרך ארוכה כדי להביא להתנהגות הרצויה של כלל האוכלוסייה. במדינת ישראל זה הרבה יותר מורכב בגלל ההטרוגניות של החברה הישראלית. מה שקרה לדוגמה בחברה החרדית זה מקרה מאוד ברור של כשל בהעברת אינפורמציה, ולא פחות חשוב - בקבלת הסמכות שמאחורי ההוראות, שלא הגיעו מרב. כדי שמשהו כזה יעבוד באופן וולונטרי, ראשית, המידע חייב לעבור בצורה מאוד אמינה, ושנית, שיהיה בציבור אמון בסמכות של מי שנותן לו את ההוראות".

ומה קורה בעולם: איך איך מדינות אוספות מידע על אזרחים?

סוגיית איסוף המידע לצורך קביעת מדיניות ואלגוריתמים של בינה מלאכותית היא נושא רגיש. סקירה של המכון הישראלי לדמוקרטיה שהתפרסמה בשבוע שעבר, הראתה שלמרבית הדמוקרטיות בעולם כיום ישנם כבר חוקים שמאפשרים לממשלות לאסוף מידע על אזרחים בעת מגפה. הסקירה בחנה מודלים שונים של הטמעה של טכנולוגיות לצורך קבלת החלטות שלטוניות בנוגע לנגיף הקורונה, תוך בחינה של היעילות שלהם מחד ומידת הפגיעה שלהם בזכויות אדם מאידך. לפי הסקירה, ישראל היא הדמוקרטיה היחידה בעולם שהסמיכה את שירותי הביטחון החשאיים שלה לבצע מעקב רחב היקף אחרי אזרחים במסגרת המאבק בקורונה.

"הראינו שבסין כמו בסין, השתמשו בכל אמצעי המעקב כולל מערכת דירוג אזרחים וטכנולוגיית זיהוי פנים. בצד ההפוך יש את גרמניה וגם את איטליה, שלא אספו נתוני מיקום של אנשים ספציפיים אלא רק מידע אגרגטיבי. בגרמניה זה אולי עזר, אבל באיטליה, היכן שיש תרבות של אי ציות לחוק, זה לא הספיק", אומרת ד"ר תהילה אלטשולר-שוורץ מהמכון הישראלי לדמוקרטיה, שחיברה את הסקירה יחד עם עו"ד רחל ארידור הרשקוביץ. איטליה, כמו רבות ממדינות אירופה, וגם ישראל, קבעו צווי חירום להתמודדות עם המגיפה. הצווים נקבעו בלחץ זמן וללא הליך דמוקרטי וביקורתי ומספקים במרביתם פתרון חלקי להתמודדות עם משבר מסוג זה.

"באמצע הסקאלה נמצאות הדמוקרטיות האסייתיות, כמו דרום קוריאה, וטאיוואן. שם אספו דאטה של מיקום על אנשים 14 יום אחורה, והעבירו אותו ישירות מחברות הסלולר לארגוני הבריאות. הם לא עירבו שירות חשאי, לא את הצבא ולא את המשטרה. הם הבינו שאי אפשר לא לעשות כלום אבל שגם לא צריך להיות סין ולהכניס אפליקציות דירוג אזרחים", היא מוסיפה.

דמוקרטיות אלה הן למודות נסיון ממגפת הסארס שהכתה בהן בתחילת המילניום, ויש בהן כבר חקיקה רגילה, ולא תקנות חירום, שמספקות מסגרת רגולטורית להתמודדות עם מגפות גלובליות. מן הדוח עולה כי הניסיון של המדינות הללו פעל לטובתן, והן הצליחו לעצור יחסית מוקדם את התפשטות הנגיף, וכי מדינות נוספות שלא צברו ניסיון בהתמודדות עם מגפות, יכולות ואולי צריכות ללמוד מניסיונן של הדמוקרטיות הללו בבואן לקבוע את אופן ההתמודדות עם מגיפה גלובלית. 

גילוי מלא: תהילה אלטשולר-שוורץ חיברה את הקוד האתי של "גלובס"