
הרובוט האן (מימין) של חברת האנסון רובוטיקס במהלך דיון על עתיד האנושות ביולי 2017 | תמונה: Isaac Lawrence/AFP/Getty Images
כשאליס ובוב, שני רובוטי שיחה – צ'טבוטים (Chatbots) – שבנו מהנדסי תוכנה של פייסבוק, שוחחו עם בני אדם, לא התעוררו בעיות מיוחדות. אבל כשהם החלו לשוחח זה עם זו, קרה דבר בלתי צפוי. המטרה הייתה לגרום לאליס ובוב לנהל משא ומתן ולסחור בכדורים, בכובעים ובספרים. אם בהתחלה הם הצליחו לסגור עסקאות סבירות זה עם זה, בשלב מתקדם יותר, איך לומר, הם יצאו מאיפוס. הם התחילו לדבר זה עם זו בשפה שרק הם מבינים וכל הניסיונות ל"תרגם" אותה לאנגלית לא צלחו.
פייסבוק אינה החברה הראשונה שנאלצת לעצור ניסוי על צ'טבוטים כבר בתחילתו. מיקרוסופט, למשל, נאלצה להשתיק את טיי (Tay) הצ'טבוט שלה 16 שעות לאחר שעלה לאוויר, במארס 2016, לאחר שזה החל לפרסם הצהרות גזעניות כנגד הציבור האפרו-אמריקני, ויצא בקריאות תמיכה בהיטלר. החברה הסינית Tencent נאלצה להשתיק את הצ'טבוט שהעלתה לפורטל QQ.com, לאחר שזה עורר את תשומת הלב של הציבור כשתיאר את המפלגה הקומוניסטית הסינית כמושחתת וכחסרת יכולות.
עד כאן מדובר ברובוטים שמעוררים מבוכה, אבל מה לגבי רובוטים וכלי בינה מלאכותית אחרים שהולכים ומחלחלים לעוד ועוד היבטים בחיינו? האם כדאי לתת להם יד חופשית ולקבל עבורנו החלטות? כיום כבר מדובר על בינה מלאכותית שמשתלבת בשירותי הרפואה ומפענחת את בדיקות ה-MRI כדי לאתר גידולים סרטניים, ואפילו ברובוטים שלוקחים חלק בפעילות המודיעין האמריקנית.
ההתלבטות הזו חדשה יחסית. עד לא מזמן הגדירו ליישומי הבינה המלאכותית אוסף כללים והנחיות מוכתב מראש – בעצם את האלגוריתם שלפיו עבדו המערכות. כלי בינה מלאכותית מסוג זה היו מוגבלים למדי. רק בשנים האחרונות, טכנולוגית ה"למידה העמוקה" (Deep Learning) הצליחה לעשות מהפך. בזכותה, מחשבים מצליחים להבין את מה שאנחנו אומרים להם בשפתינו, וגם לפענח לפרטי פרטים את התמונות שמציגים להם – וזאת רק ההתחלה.
אז מה מחדשת הלמידה העמוקה? מערכות ה"למידה העמוקה" מחקות את פעולת המוח שלנו ולא עובדות על פי אוסף כללים והנחיות, או הוראות הפעלה מפורטות. הן מורכבות משכבות על גבי שכבות של "נוירונים" וירטואליים המגיבים לקלט שהם מקבלים, ואלו לומדים באופן סטטיסטי, מתוך הדוגמאות, איך הם אמורים לפרש את הנתונים וכיצד כדאי להגיב להם. ביחד, "המוח המלאכותי" הזה מלמד את עצמו, מתוך הניסיון, כיצד עליו להבין את הסביבה.
הלמידה העמוקה פתחה אפשרויות טכנולוגיות חדשות שקודם יכולנו רק לחלום עליהן, אבל בדיוק כאן עולה הבעיה שמטרידה רבים. בטכנולוגיות הישנות, במקרה של תקלה אפשר היה לבחון היכן הוראות ההפעלה לא היו מספקות. במערכות הסטטיסטיות והעצמאיות של הלמידה העמוקה כבר אין לנו אפשרות לעשות ניתוח שכזה, כיוון שלא מדובר באלגוריתמים מסודרים ומובנים. כלומר, קיבלנו "קופסה שחורה".
דוגמה למורכבות הזו עולה מסיפורו של ג'ושוע בראון בן ה-40 מאוהיו שבארה"ב. הוא אהב מאוד את המכונית האוטונומית שלו, מודל S של טסלה. אבל ב-7 במאי 2016 קרה הנורא ביותר. כשנסע בכביש המהיר בפלורידה, הרכב לא הצליח להבחין אל מול השמים הבהירים במשאית גדולה ולבנה שנסעה לידו, כך שהוא התנגש בה במהירות של כמעט 120 קמ"ש. ג'ושוע לא שרד את התאונה. כשחוקרי "המועצה הלאומית לבטיחות בתעבורה" האמריקנית ניסו לפענח את שורש התאונה, חברת טסלה מסרה להם פרטים לגבי פעולותיו של הרכב האוטונומי ברגעי התאונה, אך לא לגבי תהליכי קבלת ההחלטות של הרכב.
וכעת, כשכלים אוטונומיים כאלו צפויים להחליט בעתיד הלא רחוק מי ראוי להתקבל למשרה מסוימת ולמי כדאי לבנק לאשר הלוואה, האם אנחנו רוצים לאפשר לקופסאות שחורות שכאלו לקבל את ההחלטות החשובות שלנו במקומנו?