Quantcast
Channel: מגזין אפוק
Viewing all articles
Browse latest Browse all 1459

רובוטים שיורים מהמותן –תיבת פנדורה או החלטה חכמה?

$
0
0
רובוט אוטומטי שהורג | תמונה: Kim Dong-Joo/AFP/Getty Images

רובוט אוטומטי שהורג | תמונה: Kim Dong-Joo/AFP/Getty Images

הרובוטים מפטרלים ברחובות לסריקה שגרתית, סורקים אדם אחרי אדם ומחפשים איומים. "זרוק את הנשק", קוראת המכונה אל עבר חשוד האוחז סכין בידו. החשוד לא נענה לדרישה, והרובוט פותח באש ומחסל אותו.

האם זה עדיין מדע בדיוני? רובוטים חמושים קטלניים כבר נמצאים בפעולה, ומדענים ברחבי העולם עובדים על פיתוח רובוטים עם אלגוריתמים מתקדמים שיוכלו לקבל הכרעות בסוגיות אתיות, כמו האם לפתוח באש באופן אוטונומי. כעת צריכה להיפתר רק הסוגיה האתית – האם אנחנו צריכים לאפשר לרובוטים להחליט החלטות של חיים ומוות?

 רובוט בעל בינה מלאכותית החושש שיכבו אותו, עשוי למנוע זאת מהמדען. אם הוא חמוש, הוא עלול לחסל אותו

באוגוסט 2017, החליטו כ-116 מנהלי חברות הרובוטיקה והאינטליגנציה המלאכותית הגדולות בעולם, לכתוב מכתב פתוח לאו"ם בו הם דורשים לבחון את סוגיית כלי נשק האוטונומיים הקטלניים. במכתבם הם השוו את שילוב הרובוטים ההורגים לתיבת פנדורה, שאם פותחים אותה ללא מחשבה עמוקה מספיק, הנזקים יהיו בלתי הפיכים ויהיה קשה לחזור לאחור. על המכתב חתומים, בין היתר, אילון מאסק מייסד "טסלה"; ומוסטפה סולימן, מייסד ומנהל "דיפ מיינד" בגוגל.

מדען הרובוטים רונלד ארקין דווקא מאמין שמערכות אוטונומיות יוכלו לא רק לשפר ביצועים בשדה הקרב, אלא גם למנוע פשעי מלחמה והרג של קורבנות חפים מפשע. "אני מאמין שיישום זהיר, בטוח ומבוקר של מערכות כאלה עשוי להביא תועלת הומניטרית והפחתה של מספר מקרי המוות בקרב אזרחים", הוא אמר בראיון טלפוני לאפוק טיימס ב-2014.

רובוט אוטומטי שהורג | תמונה: Kim Dong-Joo/AFP/Getty Images

רובוט אוטומטי שהורג | תמונה: Kim Dong-Joo/AFP/Getty Images

ארקין כתב במאמר שפרסם ביולי 2013, כי "למרבה הצער, לאנושות היה עבר לא מזהיר של התנהגות אתית בשדה הקרב". ארקין מסביר שבני אדם מחפשים נקמה, מושפעים מדה-הומניזציה של האויב, מאימונים בלתי מספקים, מתסכול ואף מההנאה שבתחושת הכוח. רובוטים, לעומת זאת, אינם מושפעים מקשת הרגשות והתחושות האנושיים. "ניתן לתכנן אותם ללא רגשות שיערפלו את השיפוט שלהם או יובילו לכעס ולתסכול בשדה הקרב", הוא כותב.

ארקין גם מצביע על כך שאחד הגורמים לפשעי מלחמה ולפעילות לא אתית בשדה הקרב הוא פחד והיסטריה. לא רק שלרובוטים אין הבעיה הזאת, אלא שניתן לתכנן אותם כך שלא יתנו עדיפות להגנה עצמית, בניגוד ללוחמים אנושיים. אם הם אינם בטוחים בזיהוי המטרה הם יכולים לסכן את עצמם למען החיילים באופן שלא ניתן לדרוש מחייל אנושי.

אולם ארגוני זכויות אדם אינם חולקים עם ארקין את השקפת העולם הזאת. הם קוראים לאיסור מוחלט על כלי נשק אוטונומיים קטלניים עוד לפני שפותחו, ודורשים לאסור אפילו את המחקר שמטרתו להוביל לפיתוח אמצעי לחימה כאלה. "ההבחנה בין אזרח מפוחד לבין אויב מאיים דורשת מחייל להבין את הכוונות מאחורי פעולותיו של האדם, משהו שרובוט לא יהיה מסוגל לעשות", נכתב בדו"ח של Human Rights Watch ב-2012. "רובוטים לא ירוסנו על ידי רגשות וחמלה, שיכולים להוות בלם חשוב להרג של אזרחים. רובוטים חסרי רגש יוכלו לפיכך לשמש ככלים לדיקטטורים מדכאים המעוניינים לדכא את עמיהם שלהם, מבלי חשש לכך שהחיילים יתקוממו נגדם״.

חשש נוסף שמעלים ארגוני זכויות האדם הוא ממקרים של תקלות תוכנה ומתקפות סייבר. אבל יש גם מי שמעלה חשש אחר. המדען האמריקני סטיב אומוהונדרו, מחלוצי חקר הבינה המלאכותית, טוען שאם לא יתכננו היטב מערכות אוטונומיות, קרוב לוודאי שהן יתנהגו באופן הפוגע בחברה. "למתכננים תהיה מוטיבציה לייצר מערכות הפועלות באופן רציונלי כמה שיותר, ומערכות רציונליות מפגינות שאיפה להגנה עצמית", הוא כותב.

"כששואלים מדעני רובוטים לגבי בטיחות [הרובוטים], תשובה נפוצה היא ש'אנחנו תמיד יכולים לכבות אותם!'" אבל מנקודת מבט של רובוט המתוכנת למקסם את התועלת שלו, הוא מסביר, מדובר בתרחיש שיש למנוע. לכן, רובוט שחושש מהאפשרות שיכבו אותו, עשוי לפתח מטרה לעצור את המדען. לכן, לפי אומוהונדרו, רובוט חמוש עם בינה מלאכותית מתקדמת עלול לחסל את יוצרו אם לא יתוכנן היטב.


Viewing all articles
Browse latest Browse all 1459