בינה מלאכותית ידידותית

מתוך המכלול, האנציקלופדיה היהודית
קפיצה לניווט קפיצה לחיפוש

בינה מלאכותית ידידותית (באנגלית: Friendly AI או FAI) היא בינה מלאכותית כללית (AGI) היפותטית, אשר תהיה לה השפעה חיובית על האנושות, או שלפחות תהיה מתואמת עם האינטרסים האנושיים, כמו שיפור המין האנושי. זהו חלק מתחום האתיקה של הבינה המלאכותית וקשור קשר הדוק לאתיקה של מכונות. בעוד שאתיקה של מכונות עוסקת בשאלה כיצד סוכן בעל בינה מלאכותית צריך להתנהג, מחקר הבינה המלאכותית הידידותית מתמקד בשאלה כיצד לממש התנהגות זו בפועל ולהבטיח שהיא תהיה מוגבלת כראוי.

אטימולוגיה ושימוש

אליעזר יודקובסקי, חוקר בינה מלאכותית וטובע המונח.

המונח נטבע על ידי אליעזר יודקובסקי,[1] שידוע בעיקר בזכות הנגשה של הרעיון לציבור הרחב, כדי לדון בסוכנים מלאכותיים בעלי אינטליגנציית-על (אנ') המיישמים באופן אמין ערכים אנושיים. ספר הלימוד המוביל בתחום הבינה המלאכותית, בינה מלאכותית: גישה מודרנית מאת סטיוארט ראסל ופיטר נורוויג, מתאר את הרעיון כך:[2]

יודקובסקי (2008) מפרט יותר כיצד לתכנן בינה מלאכותית ידידותית. הוא טוען שידידותיות (הרצון לא להזיק לבני אדם) צריכה להיות מתוכננת מההתחלה, אך שהמתכננים צריכים להכיר בכך שעיצוביהם עלולים להיות פגומים, ושהרובוט ילמד ויתפתח עם הזמן. לפיכך, האתגר הוא אתגר של עיצוב מנגנון – להגדיר מנגנון לפיתוח מערכות בינה מלאכותית תחת מערכת של איזונים ובלמים, ולתת למערכות פונקציות תועלת שיישארו ידידותיות מול שינויים כאלה.

"ידידותי" משמש בהקשר זה כמונח טכני, ומציין סוכנים בטוחים ומועילים, לאו דווקא כאלה שהם "ידידותיים" במובן המקובל. המושג מוזכר בעיקר בהקשר של דיונים על סוכנים מלאכותיים המשפרים את עצמם באופן רקורסיבי ומקיימים התפוצצות אינטליגנציה במהירות, מתוך הנחה שלטכנולוגיה היפותטית זו תהיה השפעה גדולה, מהירה וקשה לשליטה על החברה האנושית.[3]

סיכונים מבינה מלאכותית לא ידידותית

ערך מורחב – סכנה קיומית מבינה מלאכותית כללית

שורשי הדאגה מבינה מלאכותית עתיקים מאוד. קווין לה-גרנדור הצביע על כך שניתן לראות את הסכנות הספציפיות לבינה מלאכותית כבר בספרות העתיקה הנוגעת למשרתים אנושיים מלאכותיים כמו הגולם, או הפרוטו-רובוטים של גרברט מאוריאק ורוג'ר בייקון. בסיפורים אלה, האינטליגנציה והכוח הקיצוניים של יצירות אנושיות אלו מתנגשים עם מעמדם כעבדים, וגורמים לעימות הרסני.[4] עד 1942, נושאים אלה הניעו את אייזק אסימוב ליצור את "שלושת חוקי הרובוטיקה" – עקרונות המוטמעים בכל הרובוטים בסיפוריו, שנועדו למנוע מהם לפנות נגד יוצריהם.[5]

כיום, כשהאפשרות של אינטליגנציית-על קרובה יותר מאי פעם, אומר הפילוסוף ניק בוסטרום שמערכות בינה מלאכותית בעלות אינטליגנציית-על עם מטרות שאינן תואמות את האתיקה האנושית, הן מסוכנות מטבען. הוא ניסח זאת כך:

בעצם עלינו להניח ש'אינטליגנציית-על' תוכל להשיג כל מטרה שתהיה לה. לכן, חשוב ביותר שהמטרות שאנו מקנים לה, וכל מערכת המוטיבציה שלה, יהיו 'ידידותיות לאדם'.

בשנת 2008, קרא אליעזר יודקובסקי ליצירת "בינה מלאכותית ידידותית" כדי להפחית את הסכנה הקיומית מבינה מלאכותית כללית. הוא הסביר כי: "הבינה המלאכותית אינה שונאת אותך ואינה אוהבת אותך, מבחינתה אתה בסך הכל עשוי מאטומים שהיא יכולה להשתמש בהם למשהו אחר".[6]

רצון קוהרנטי מופשט

יודקובסקי מקדם את מודל הרצון הקוהרנטי המופשט (אנ') (CEV). לדבריו, הרצון הקוהרנטי המופשט שלנו הוא "משאלתנו אילו ידענו יותר, חשבנו מהר יותר, והיינו יותר האנשים שרצינו להיות...".[7]

במקום שבינה מלאכותית ידידותית תתוכנן ישירות על ידי מתכנתים אנושיים, היא תתוכנן על ידי "בינת זרע" (seed AI) שתתוכנת ללמוד תחילה את הטבע האנושי, ולאחר מכן לייצר את הבינה המלאכותית שהאנושות הייתה רוצה.[7]

גישות אחרות

סטיב אומוהונדרו (אנ') הציע גישת "פיגומים" לבטיחות בינה מלאכותית (אנ'), שבה דור אחד של בינה מלאכותית בטוחה באופן מוכח, מסייע בבניית הדור הבא אשר בתורו יהיה בטוח באופן מוכח.[8]

בספרו "Human Compatible", מפרט חוקר הבינה המלאכותית סטיוארט ראסל שלושה עקרונות להנחיית פיתוח מכונות מועילות. הוא מדגיש שעקרונות אלו אינם מיועדים לקידוד מפורש במכונות; אלא למפתחים האנושיים. העקרונות הם כדלקמן:[9]

  1. מטרתה היחידה של המכונה היא למקסם את מימוש ההעדפות האנושיות.
  2. המכונה אינה בטוחה בתחילה מהן העדפות אלו.
  3. המקור האולטימטיבי למידע על העדפות אנושיות הוא התנהגות אנושית.

ביקורת

עמוד ראשי
ראו גם – סינגולריות טכנולוגית

מבקרים מסוימים סבורים כי גם בינה מלאכותית ברמה אנושית וגם אינטליגנציית-על אינן סבירות, ועל כן בינה מלאכותית ידידותית אינה סבירה. אלן ווינפילד, בכתבתו בגרדיאן, משווה את הקושי בפיתוח בינה מלאכותית ברמה אנושית לתנועה במהירות גבוהה ממהירות האור.[10]

פילוסופים אחרים טוענים כי כל סוכן "רציונלי" באמת, בין אם הוא מלאכותי ובין אם הוא אנושי, יהיה מיטיב מטבעו; לפי השקפה זו, אמצעי הגנה מוכוונים שנועדו ליצור בינה מלאכותית ידידותית עשויים להיות מיותרים או אף מזיקים.[11]

לקריאה נוספת

קישורים חיצוניים

ראו גם

הערות שוליים

  1. מקס טגמרק, היקום המתמטי שלנו: מסעי אחר טבעה הסופי של המציאות, Knopf Doubleday Publishing, 2014, מסת"ב 9780307744258
  2. סטיוארט ראסל ופיטר נורביג, בינה מלאכותית: גישה מודרנית, Prentice Hall, 2009
  3. ונדל וולך וקולין אלן, מכונות מוסריות: ללמד רובוטים להבחין בין טוב לרע, Oxford University Press, Inc., 2009, מסת"ב 978-0-19-537404-9
  4. קווין לה-גרנדור, הסכנה המתמדת של העבד המלאכותי, באתר Science Fiction Studies, ‏2011
  5. אייזק אסימוב, The Rest of the Robots, Doubleday, 1964, מסת"ב 0-385-09041-2
  6. אליעזר יודקובסקי, ניק בוסטרום ומילאן מ. צ'ירקוביץ' (ע), סיכונים קטסטרופליים גלובליים, 2008
  7. ^ 7.0 7.1 אליעזר יודקובסקי, רצון קוהרנטי מופשט, באתר Singularity Institute for Artificial Intelligence, ‏2004
  8. אריקה הנדרי, מה קורה כשבינה מלאכותית פונה נגדנו?, באתר מגזין סמית'סוניאן, ‏21 בינואר 2014
  9. סטיוארט ראסל, Human Compatible: Artificial Intelligence and the Problem of Control, ארצות הברית: Viking, 2019, מסת"ב 978-0-525-55861-3
  10. אלן ווינפילד, בינה מלאכותית לא תהפוך למפלצת של פרנקנשטיין, באתר הגרדיאן, ‏9 באוגוסט 2014
  11. אנדרש קורנאי, Bounding the impact of AGI, Journal of Experimental & Theoretical Artificial Intelligence, ‏15 במאי 2014
הערך באדיבות ויקיפדיה העברית, קרדיט,
רשימת התורמים
רישיון cc-by-sa 3.0

בינה מלאכותית ידידותית41672268Q4168796