בקרוב נתמודד עם דילמות מוסריות טכנולוגיות מורכבות. כשמדובר בבינה מלאכותית ובמכונות שלומדות בעצמן, לפעמים צריך לעצור כדי להבין את ההשלכות. ד”ר ארז, ראש שטח בינת קרב ברפאל, מסביר // לינוי בר-גפן
אינספור סרטונים נלהבים מהשנה האחרונה מתעדים את מבחני השטח שסין החלה לערוך בכמה ערים באוטובוסים אוטונומיים. היעד: לדקור את ארה”ב בעין ולהראות לה ולאירופאים מי יעלה ראשון על הכביש. אלפי דקות שידור שמראות את הדיוק, היעילות והנוחות בלהסיע טונות ברזל ובני אדם ללא התערבות מוח וגוף אנושיים. אפס דקות דיון על אתיקה.
דוח של מכון נאמן הישראלי מצטט את חוקר הבינה המלאכותית הסיני, קאי-פו לי, כמי שטוען שסין תהיה מוכנה במוצהר לשלם בחיי אדם בתקופת הפיתוח והלמידה של הרכבים האוטונומיים, מתוך מטרה להביא את המערכות הללו לערים בהקדם האפשרי. האם סין נוהגת בחוסר מוסריות? אולי בפרמטרים מערביים. הרציונל, לפי קאי-פו, הוא שמהרגע שהרכבים האוטונומיים יהיו בטוחים מספיק, הם יצילו מאות אלפים מתאונות מדי שנה. באירופה, מנגד, הגישה הפוכה לגמרי. ועדה שכונסה מטעם משרד התחבורה בגרמניה המליצה כבר על כללים אתיים שיחולו על מכוניות אוטונומיות מתוך נסיון להדביק את הפער ההולך ונפתח בין הטכנולוגיה לאתיקה שתנחה את מי שמפעיל אותה ואולי אף להקדים תשובות למצבים שיקרו בשטח.
ד”ר ארז, ראש שטח בינת קרב ומערכות קוגניטיביות ב”רפאל” מאמין שהמקרה של הרכבים האוטונומיים מדגים היטב שהדילמות המוסריות מולן אנחנו עומדים עדיין נמצאות בשדה שבו המוסר בידיים האנושיות ולא בידי הטכנולוגיה, קרי: אין עדיין מכונה שהגיעה לדרגה הגבוהה ביותר, זו שבה היא אוטונומית לחלוטין ומסוגלת לקבל החלטות ללא כל מעורבות אנושית. אנחנו כרגע עדיין בתחום שבו נדרשת “בינה מלאכותית ניתנת להסברה” – תחום ההתמחות שלו.
“למה אנחנו צריכים להגיע למצב שבו הבינה המלאכותית מסבירה לבן האנוש את ההחלטות שאליהן היא הגיעה?”, הוא מסביר, “הרי אם היא באמת בינה מלאכותית מושלמת כל החלטה שהיא תקבל תהיה טובה לפחות כמו החלטה אנושית או יותר ממנה. היא תהיה מהירה, מדוייקת ויעילה, ונוכל לסמוך עליה בעיניים עצומות. אבל בארבע הרמות שמשרד ההגנה תיאר של תחכום מערכות, מהנחותה ביותר ועד האוטונומית לחלוטין, אנחנו רק ברמה שתיים או שלוש. יש תהליך של העברת מקל בין האדם למכונה, אבל כרגע אנחנו עדיין רוצים שפעולת ההחלטה של המכונה תהיה גלויה וברורה ושההחלטה הסופית עדיין תשאר אצל בן האנוש. המצב המקורי של המערכות היה man in the loop, כלומר האדם היה מאוד משולב בפעולה ורוב ההחלטות המשמעותיות היו נלקחות על ידו. היום כשאנחנו מכניסים אוטונומיה, הבן אדם הופך להיות on the loop, כלומר עובר יותר לתפקידים של ניטור ובקרה. אני עדיין מרגיש נוח בעת הזו, אבל השאלות יהפכו לקשות יותר”.
שדה הקרב העתידי יהיה טכנולוגיה שעסוקה בהשמדת הטכנולוגיה של הצד השני?
“בשלב הקצה זה צבא רובוטים נגד צבא רובוטים. אנחנו עוד לא שם, אבל גם כשזה יקרה אנחנו צריכים לשאול את עצמנו האם לא פשוט נפעיל מלחמת סייבר שתנטרל את הצד השני ויכולותיו. ברור שכל עולם הלחימה משתנה, אבל מה שלא משתנה הם חוקי הלחימה – השאלה האתית, הפילוסופית, שצריך לדון בה. אני חושב שאם גוף הלחימה הוא מוסרי אז גם שיטות הלחימה שלו יהיו מוסריות”.
אבל גם אתיקה משתנה.
“מי שלא עשה פשעים נגד האנושות לא יבצע “פשעים נגד הרובוטיקה”, אבל יתכן שנצטרך להחיל חוקים חדשים למלחמה רובוטית. אם אני נמצא עכשיו בשדה הקרב והצד השני מרים ידיים אני לא אפגע בו. אבל אם הצד השני הזה הוא רובוט זו כבר שאלה אחרת”.
ובכלל, טוען ארז, השאלות האתיות הכבדות הועתקו משדה הקרב לטכנולוגיה שמפעילות חברות אזרחיות, שבעלות יכולת לגרום נזק כבד לא פחות. ארז, למשל, מחרים את פולקסווגן אחרי שניצלה את טכנולוגיית הבינה המלאכותית שהייתה ברשותה כדי לרמות במבדקים לפליטת מזהמים. ב-2015 נחשף שהחברה הטמיעה ברכביה אלגוריתם שהפעיל בעת המבחן מנגנונים למניעת זיהום שהיו כבויים באופן רגיל, וכך סייע לרכבים לעבור בהצלחה את הבדיקות, שעה שבנסיעות רגילות הרכבים פלטו תחמוצות חנקן וגזי חממה בשיעור הגבוה בעשרות מונים מהמותר בחוק. פולקסווגן לא רק הפסידה את ארז, אלא גם נאלצה לשלם מיליארדי דולרים כפיצויים לממשל האמריקני, ומנכ”ל החברה בארה”ב הואשם ברמאות ובקשירת קשר. המקרה של פולקסווגן הוא אחת הדוגמאות בדו”ח של מכון נאמן ל”אתגר הבינה המלאכותית הרמאית” – בינה מלאכותית שנועדה לעקוף רגולציה שמגבילה אותה.
"האם אדם המשתלט על אביזר מין מרחוק, לפיכך, יכול להיות מואשם באונס? לחלופין, האם אדם המשתלט על רובוט ביתי, יכול להיות מואשם בפריצה? אלו שאלות שהמחוקק יאלץ להתמודד עמן יותר ויותר, ככל שהמכשירים החכמים מתפשטים בחברה"
אתגר נוסף הוא “אתגר הפשיעה המרוחקת”: ניסיונות פשיעה המתבצעים דרך האינטרנט ונסמכים על הבינה המלאכותית המוגבלת של המכשירים המחוברים לרשת. “האם אדם המשתלט על אביזר מין מרחוק, לפיכך, יכול להיות מואשם באונס? לחלופין, האם אדם המשתלט על רובוט ביתי, יכול להיות מואשם בפריצה? אלו שאלות שהמחוקק יאלץ להתמודד עמן יותר ויותר, ככל שהמכשירים החכמים מתפשטים בחברה”, טוען הדו”ח. ארז מאמין שהשאלות האלה רלבנטיות כבר כעת:
“כיום לא בטוח שצריך פצצות הרסניות וטילים מומחים. יש כל כך הרבה ציוד שמחובר לרשת בבתים של אנשים, שאם אנחנו משתלטים על הציוד הזה אנחנו יכולים לעשות נזק שמשבית מדינה שלמה. מלחמה כזו מתנהלת בשקט ובזהירות. החוכמה היא לאתר את הפרצות ולחכות להזדמנות הנכונה. יש הרבה מאוד פרצות – כמעט כל אחד מאיתנו קונה מיקרו חכם או מקרר חכם. היום היצרנים כבר נותנים את הדעת לנושא של חסינות ומעצמות מאוד מתעניינות בפרצות האלו משתי סיבות – כל מעצמה רוצה לדעת שהיא מוגנת ומאידך היא רוצה לדעת שלצד השני יש פרצות שהיא יכולה לנצל”.
כך שבסבך השאלות האתיות ארז מרגיש שדווקא כאיש תעשיית הנשק הוא לא בהכרח יצרן הדילמות המוסריות הגדול ביותר.
“אני מאוד גאה להיות בצד המערבי והשפוי מוסרית. כשאני חושב על הדוגמאות שבהן אני והחברים שלי מעורבים אני יכול לישון עם מצפון שקט. אבל אי אפשר לומר שזה לא גורם לנו לחשוב. בעבר כל נושא האחריות היה מאיתנו והלאה ומי שלקח את האחריות היה המפקד בשטח, הרופא המנתח, השופט. היום יש מערכות שנותנות המלצות בבתי משפט אם הבן אדם אשם או זכאי על סמך פרמטרים ממוחשבים, יש מערכות רפואיות שמגדירות אם אדם חולה במחלה כזו או אחרת וגם בלחימה יש מערכות הגנה שמחליטות אם לשגר טיל או לא. אני צריך להבין שלפעמים מי שיקח את ההחלטה בשטח זה לא הלוחם או השופט או הרופא, אלא דווקא מערכת שפיתחתי וזה משפיע. כמהנדס ומפתח עלי להכשיר את המכונות שלנו להתמודד עם מספר תרחישים גדול ומגוון ככל האפשר. הדוגמאות מאלפות, הן נראות לכאורה מנותקות מהמציאות, אבל חייבים להכניס אותן כתרחיש אפשרי. אם תגגלי למשל את המילה “כלה” התמונות שיופיעו הן בעיקר יהיו היצוג המערבי של כלה – נשים בהירות עור בשמלה לבנה. אבל בתרבויות אחרות כלה בכלל לא נראית ככה. אז לכאורה אני אומר לא נורא, בעיה קטנה. אבל אם לא אקודד מספיק תרחישים לאמצעי לחימה זו עלולה להיות בעיה ענקית. לגוגל, למשל, יש אלגוריתמים שמזהים עצמים בתמונות ולפעמים הם מנתחים תמונות של אנשים כהי עור ומזהות אותם כקופים. זה כבר יותר נורא. עכשיו ניקח את זה לשדה הבטחוני: מערכת כזו כשהיא יושבת בראש של טיל וצריכה להחליט בין מפגע לבין אדם בלתי מעורב – איך היא תעשה את זה והאם היא תעשה את אותן טעויות? הטעויות שהראיתי קודם נובעות מכך שהמערכות האלה מפותחות בחברות מערביות עם אנשים מערביים עם גישה תרבותית מסויימת ובסיסי נתונים שהם מכירים. ולכן יכולה להיווצר הטיה. כשאני כמפתח צריך להתמודד עם תרחיש מבצעי אני עלול לחטוא לתמונה הרחבה יותר ולהכין את המערכת על בסיס נתונים צר מדי. עצם זה שאני מכיר את ההטייה הזו זה כבר מקום שהוא יותר טוב”.
אבל כמות ההטיות היא אדירה, וכך גם כמות התרחישים.
“גם האדם הוא מערכת לומדת. האתגר הוא באמת להביא בסיס נתונים עשיר וכל הזמן ללמד את המערכת עוד. אנחנו היום בעידן שבו אנחנו חייבים לעצמנו את הבדיקה הנוספת הזו”.
מה מהאתגרים האלה עלול להפיל אותנו?
“אני פחות חושש. יש סיפורי אימים על בינה מלאכותית שתתחיל לתכנת את עצמה והגולם יקום על יוצרו, אבל אני עדיין יותר חושש מאיך בני האדם ישתמשו בטכנולוגיה. אנחנו גם כעם וכצבא משתדלים להפעיל את הכלים בצורה כירורגית ומדוייקת, אבל זה לא תמיד קורה בצד השני. האם תמיד נדע לתת מענה לצד שכנגד? הדרכים שלו להלחם נעשות יותר פשוטות, זמינות וקלות ומתחילים לחשוב על כל מני איומים שנמצאים במערכה שבין המלחמות. הרי יכולים לקחת כלי מדף זולים ולייצר מערכות שעד לא מזמן היו מאוד יקרות וניתן היה להשיג אותן רק דרך גופים צבאיים ואז הסיפור הוא מי עוצר באדום. בסוף מישהו צריך להגיד כאן אני עוצר, כי מכאן אני כבר עובר על כל כלל מוסרי”.
This website uses cookies to ensure you get the best experience possible קרא עוד