הטיית האוטומציה
הטיית האוטומציה (באנגלית: Automation bias) היא הנטייה של בני אדם להעדיף הצעות ממערכות החלטה אוטומטיות ולהתעלם ממידע סותר שהתקבל ממקור ללא אוטומציה, גם אם הוא נכון[1]. מקור המושג הטיית האוטומציה הוא בפסיכולוגיה החברתית שמצאה הטיה באינטראקציות בין אישיות שהראתה שאנשים מייחסים הערכות חיוביות יותר להחלטות שהתקבלו על ידי בני אדם מאשר לאובייקט נייטרלי[2]. אותו סוג של הטיית חיוביות נמצאה עבור אינטראקציה בין אדם לאוטומציה[3], כאשר ההחלטות האוטומטיות מדורגות בצורה יותר חיובית מאשר נייטרלית[4]. הטיה זו הפכה בעשרות השנים האחרונות לבעיה הולכת וגוברת בתחום הנקרא "קבלת החלטות" מכיוון שיחידות טיפול נמרץ, תחנות כוח גרעיניות ותאי הטייס משלבים יותר ויותר צגי מערכות ממוחשבות ועזרי החלטה אוטומטיים כדי להימנע מטעויות אנוש. שגיאות של הטיית האוטומציה נוטות להתרחש כאשר ההחלטה תלויה במחשבים או בעזרים אוטומטיים אחרים והאדם נמצא בתפקיד מנטר, אך עודנו בעל סמכות החלטה. דוגמאות להטיית האוטומציה נעות החל מעיסוקים קריטיים כמו הטסת מטוס בטייס אוטומטי וכלה בעניינים יומיומיים כמו שימוש בתוכניות בדיקת איות[5].
חוסר שימוש ושימוש לרעה
אמון של מפעיל במערכת יכול להוביל לאינטראקציות שונות עם המערכת, לרבות שימוש במערכת, חוסר שימוש ושימוש לרעה[6].
הנטייה להסתמכות יתר על עזרים אוטומטיים ידועה בשם "שימוש לרעה באוטומציה"[6][7]. ניתן לראות שימוש לרעה באוטומציה כאשר משתמש אינו מצליח לנטר כראוי מערכת אוטומטית, או כאשר נעשה שימוש במערכת האוטומטית כאשר לא אמורים לעשות זאת. תופעה זאת עומדת בניגוד לתופעת חוסר השימוש, שבה המשתמש אינו מנצל כראוי את האוטומציה על ידי כיבויה או התעלמות ממנה. הן שימוש לרעה והן חוסר שימוש עלולים להיות בעייתיים, אך הטיית האוטומציה קשורה ישירות לשימוש לרעה באוטומציה באמצעות אמון רב מדי ביכולות המערכת, או לנטייה להיוריסטיקות. שימוש לרעה עלול להוביל לחוסר ניטור של המערכת האוטומטית או להסכמה עיוורת עם הצעת אוטומציה, המסווגת לפי שני סוגי שגיאות, טעויות השמטה וטעויות הוספה, בהתאמה[8][9][6].
לדוגמה, רכישת מידע הוא השלב הראשון בעיבוד מידע, שבמהלכו המשתמש האנושי רושם קלט באמצעות החושים[10]. מד מנוע אוטומטי עשוי לסייע למשתמש ברכישת מידע באמצעות תכונות ממשק פשוטות, כגון הדגשת שינויים בביצועי המנוע, על מנת להפנות את תשומת הלב הסלקטיבית של המשתמש. אולם, כאשר מדובר בהטסת כלי טיס, טייסים עלולים להפנות קשב יתר על המידה למדדי המנוע של המטוס וכך להחמיץ תקלות אפשריות אחרות שאינן קשורות למנוע. כשל מסוג זה נקרא שאננות אוטומציה ושימוש שגוי. עם זאת, אם הטייס יקדיש זמן לפרש את מד המנוע ולתפעל את המטוס בהתאם, אך פעולות אלה לא יביאו לשיפור במצב הטיסה, הטייס עלול להתעלם מהמלצות עתידיות מצד מד המנוע, כשל אשר נקרא שאננות אוטומציה המובילה לחוסר שימוש.
טעויות השמטה והוספה
הטיית האוטומציה יכולה להתבטא בטעויות הוספה, אשר מתרחשות כאשר משתמשים מבצעים הנחיה אוטומטית מבלי לקחת בחשבון מקורות מידע אחרים. לעומת זאת, טעויות השמטה מתרחשות כאשר מכשירים אוטומטיים לא מצליחים לזהות בעיות או מצביעים עליהן והמשתמש לא שם לב, מאחר שהוא אינו מפקח כראוי על המערכת[11].
נמצא שטעויות של השמטה נובעות מירידה במידת הערנות הקוגניטיבית, בעוד שטעויות של הוספה נובעות משילוב של חוסר התחשבות במידע ואמון מופרז באמינות העזרים האוטומטיים[5]. טעויות הוספה מתרחשות משלוש סיבות: (1) חוסר תשומת לב לעזרה האוטומטית; (2) תשומת לב מופחתת לעזרה האוטומטית; (3) זילזול במידע שנוגד את המלצות העזרה האוטומטית[12]. טעויות השמטה מתרחשות כאשר האדם אינו מבחין בכשל האוטומציה, בין אם עקב ערנות נמוכה או עקב אמון יתר במערכת[5]. לדוגמה, תוכנית בדיקת איות אשר מסמנת באופן שגוי מלה כאיות שגויה ומציעה חלופה (טעות הוספה), או תוכנת בדיקת איות שלא מבחינה במלה שגויה (טעות השמטה). במקרים אלה, הטיית האוטומציה מתרחשת כאשר משתמש מקבל את המילה החלופית מבלי לעיין במילון, או משתמש שאינו מבחין במילה שגויה באיות ומניח שכל המילים נכונות מבלי לעיין בהן.
הכשרה שמתמקדת בהפחתת הטיית אוטומציה ובעיות נלוות הוכחה כמפחיתה את שיעור טעויות ההוספה, אך לא את שיעור טעויות ההשמטה[5].
גורמים משפיעים
חוקרים טוענים שנוכחותם של עזרים אוטומטיים "מפחיתה את הסבירות שמקבלי ההחלטות יעשו את המאמץ הקוגניטיבי לחפש מידע אבחוני אחר או יעבדו את כל המידע הזמין בדרכים מורכבות מבחינה קוגניטיבית". נוכחות האוטומציה מעודדת את המשתמשים בנוסף לסיים את הערכת המצב בחופזה רבה מדי לאחר שהתבקשו על ידי מכשיר אוטומטי לנקוט בדרך פעולה מסוימת[7].
שלושה גורמים עיקריים מובילים להטיית האוטומציה. ראשית, הנטייה האנושית לבחור בגישה הכי פחות מעמיסה קוגניטיבית, המכונה השערת הקמצן הקוגניטיבי. שנית, הנטייה של בני אדם לראות בעזרים אוטומטיים כבעלי יכולת אנליטית עדיפה על שלהם. שלישית, הנטייה של בני אדם לשאוף להפחתת המאמץ שלהם כאשר הם מבצעים משימות באופן משותף עם אדם אחר או עם עזר אוטומטי[12].
גורמים נוספים אשר מובילים להסתמכות יתר על אוטומציה ובכך להטיית האוטומציה כוללים חוסר ניסיון במשימה (אם כי משתמשים חסרי ניסיון נוטים להפיק תועלת רבה ממערכות תומכות החלטות אוטומטיות), חוסר אמון של האדם ביכולותיו, היעדר חלופה זמינה ומידע, כמו גם רצון לחסוך זמן ומאמץ במשימות מורכבות או תחת עומסי עבודה גבוהים[13][14][15][8]. נמצא שאנשים שיש להם אמון רב יותר ביכולותיהם להחליט באופן מיטבי נוטים להיות פחות תלויים בתמיכה אוטומטית חיצונית, בעוד שאלו עם אמון רב יותר במערכות תומכות החלטות היו תלויים בהן יותר[13].
תכנון ועיצוב מסך
נמצא כי המיקום וְהַבּוֹלְטוּת של עצות על מסך יכולות להשפיע על הסבירות של הטיית אוטומציה. לעצות אשר הוצגו בצורה בולטת היה סיכוי גבוה יותר להתקבל, בין אם היו נכונות ובין אם שגויות[13]. עם זאת, כמות גדולה יותר של פרטים על המסך יכולה להפוך את המשתמשים לשמרניים פחות ובכך להגביר את הסבירות להטיית האוטומציה. מחקר אחר הראה שאנשים שהרגישו אחריות על דיוק ההחלטות שלהם הפגינו פחות את הטיית האוטומציה[5].
זמינות
נמצא כי הזמינות של עזרי החלטה אוטומטיים עשויה להזין את הנטייה האנושית הכללית להשקעה של מאמץ קוגניטיבי מינימלי[5].
מוּדָעוּת לתהליך
נמצא שכאשר משתמשים מודעים לתהליך החשיבה המופעל על ידי מערכת תומכת החלטות (ראו גם הסברתיות בינה מלאכותית), הם צפויים להתאים את ההסתמכות שלהם בהתאם ובכך להפחית את הטיית האוטומציה[13].
רמת הצוות ורמת הפרט
ביצוע מטלות על ידי צוותים במקום יחידים אשר פועלים לבד אינו מבטל בהכרח את הטיית האוטומציה[11][16]. נמצא שכאשר מכשירים אוטומטיים לא הצליחו לזהות אי-סדרים במערכת, הצוותים לא הצליחו יותר ממפעילים בודדים להגיב כנדרש לאי-סדרים אלו[5].
אימון
הכשרה אשר מתמקדת בהטיית האוטומציה בתעופה הצליחה לצמצם טעויות השמטה של צוערי טייס[11][16].
כשל האוטומציה ו"חוסר זהירות נלמד"
נמצא כי כישלון של אוטומציה מלווה בירידה באמון המפעיל באוטומציה, אשר ממשיכה בהתאוששות איטית של אמון זה[12]. בהתאם, אם עזרים אוטומטיים מתבררים כאמינים ביותר לאורך זמן, התוצאה צפויה להיות רמה מוגברת של הטיית האוטומציה. תופעה זו נקראת "חוסר זהירות נלמד"[12].
שיקוף רמת האמון במערכת
במקרים שבהם מידע על רמת האמון של המפעילים במערכת מסופק למשתמשים, מידע זה כשלעצמו עשוי להפוך לגורם בהטיית האוטומציה[12].
לחץ חיצוני
נמצא שככל שמופעלים יותר לחצים חיצוניים על היכולת הקוגניטיבית של האדם, כך הוא עשוי להסתמך יותר על תמיכה חיצונית[13].
בעיות בהגדרה
למרות שמחקרים רבים עוסקים בסוגיית הטיית האוטומציה, ישנן תלונות על כך שהטיית האוטומציה נותרה ללא הגדרה מניחה את הדעת וכי הדיווח על אירועים אשר כוללים הטיית אוטומציה אינו שיטתי[8][13].
בסקירה של מחקרים שונים אודות הטיית האוטומציה סווגו המשימות השונות שבהן נעשה שימוש בעזרים אוטומטיים וכן סווגו מטרות העזרים האוטומטיים. המשימות סווגו כמשימות ניטור, משימות אבחון או משימות טיפול. סוגים של סיוע אוטומטי נרשמו כאוטומציה מתריעה, אשר עוקבת אחר שינויים חשובים ומתריעה בפני המשתמש, אוטומציה תומכת החלטה, שעשויה לספק אבחנה או המלצה, או אוטומציה של פעולה, כאשר העזר האוטומטי מבצע משימה מוגדרת[8].
שאננות אוטומציה
הרעיון של הטיית האוטומציה נתפס כבעל חפיפה למושג "שאננות הנגרמת על ידי אוטומציה", אשר ידוע גם בשם "שאננות אוטומציה". כמו הטיית האוטומציה, שאננות אוטומציה היא תוצאה של שימוש לרעה באוטומציה וכרוכה בבעיות של תשומת לב. בעוד שהטיית האוטומציה כרוכה בנטייה לסמוך על מערכות תומכות החלטה, שאננות אוטומציה כרוכה בחוסר תשומת לב ובהיעדר ניטור של פלט של אוטומציה, בדרך כלל משום שפלט זה נתפס כאמין[13]. על פי חוקרים בתחום, למרות שהמושגים של שאננות והטיית האוטומציה נדונים בנפרד, הם חולקים מספר מאפיינים משותפים, דבר אשר מרמז על כך שהם משקפים היבטים שונים של אותו סוג של שימוש לרעה באוטומציה. הוצע כי המושגים שאננות אוטומציה והטיית האוטומציה ישולבו למושג אינטגרטיבי אחד[12].
שאננות האוטומציה הוגדרה כזיהוי גרוע של תקלות במערכת עם אוטומציה בהשוואה לשליטה ידנית. מערכת הדיווח על בטיחות תעופה (ASRS) של נאס"א מגדירה שאננות כ"שביעות רצון עצמית שעלולה לגרום לחוסר-ערנות בהתבסס על הנחה לא מוצדקת של מצב מערכת משביע רצון". מספר מחקרים הצביעו על כך שהתופעה מתרחשת לרוב כאשר מפעילים עוסקים במשימות ידניות ואוטומטיות בו-זמנית. תפיסת המפעילים לגבי מהימנות המערכת האוטומטית יכולה להשפיע על האופן שבו המפעיל מתקשר עם המערכת. נמצא כי אמינות מערכת גבוהה יכולה להוביל את המשתמשים להתנתק ממערכות הניטור ובכך להגביר את שגיאות הניטור, להפחית את המודעות המצבית ולהפריע ליכולת של המפעיל לקבל מחדש את השליטה במערכת במקרה שזו חרגה ממגבלות הביצועים[17]. ניתן להפחית את שאננות זו כאשר אמינות האוטומציה משתנה לאורך זמן במקום להישאר קבועה, אך היא אינה מצטמצמת על ידי ניסיון ותרגול. משתתפים מומחים ובלתי מומחים עשויים להפגין את הטיית האוטומציה כמו גם שאננות באוטומציה. לא ניתן להתגבר בקלות על אף אחת מהבעיות הללו על ידי אימון[12].
המונח "שאננות אוטומציה" שימש לראשונה בהקשר לתאונות תעופה או תקריות שבהן טייסים, פקחי טיסה או עובדים אחרים לא בדקו מערכות אוטומטיות באופן מספק, בעודם מניחים שהמצב תקין, כאשר במציאות עמדה להתרחש תאונה. שאננות של מפעיל, בין אם היא קשורה לאוטומציה או לא, הוכרה זה מכבר כגורם מוביל בתאונות אוויריות[12].
תפיסות של מהימנות, באופן כללי, יכולות לגרום לסוג של אירוניה באוטומציה, שבה יותר אוטומציה יכולה להפחית את עומס העבודה הקוגניטיבי אך להגדיל את ההזדמנות לניטור שגיאות. לעומת זאת, אוטומציה נמוכה יכולה להגביר את עומס העבודה אך להקטין את ההזדמנות לטעויות ניטור[18]. ניתן לקחת כדוגמה מקרה שבו טייס מטיס במזג אוויר סוער, שבו רעמים מתמשכים מפריעים ליכולתו להבין מידע המועבר אליו על ידי פקח הטיסה. למרות המאמץ המושקע להבנת המידע המועבר על ידי הפקח, ביצועי הטייס תלויים במקורות המידע הדרושים להשלמת המשימה. לפיכך על הטייס להסתמך על חיוויים ממכשירים אוטומטיים בתא הטייס כדי לקבל מידע על נתיב הטיסה. אם הטייס תופס את החיוויים האוטומטיים כאמינים ביותר, מידת המאמץ שהוא משקיע להבנת הפקח עלולה לרדת. יתרה מכך, אם חיוויים אלה ייתפסו כאמינים ביותר, הוא עלול להתעלם מהם כדי להקדיש את מלוא משאבי הקשב שלו לפענוח המידע המשודר על ידי הפקח. בכך, הטייס יהפוך למְנַטֵּר שאנן ובכך יסתכן בהחמצת מידע קריטי שיועבר על ידי חיוויי המכשירים האוטומטיים. עם זאת, אם הטייס יראה שחיוויי המכשירים האוטומטיים אינם אמינים, הוא יאלץ לפרש מידע מהפקח ומהחיוויים האוטומטיים בו-זמנית. אילוץ זה יוצר תרחישים שבהם המפעיל עשוי להשקיע משאבים קוגניטיביים מיותרים כאשר האוטומציה למעשה אמינה, אך גם מגדיל את הסיכויים לזהות שגיאות פוטנציאליות במכשירים אלה במקרה שהן מתרחשות. כדי לכייל את תפיסת האמינות של הטייס, האוטומציה צריכה להיות מתוכננת כך שתשמור על עומס העבודה ברמות המתאימות תוך הבטחה שהמפעיל יישאר מעורב במשימות ניטור. למפעיל יש סיכוי נמוך יותר להתנתק מהניטור כאשר מהימנות המערכת יכולה להשתנות בהשוואה למערכת בעלת מהימנות עקבית[19].
במידה מסוימת, שאננות המשתמש מקזזת את היתרונות של אוטומציה, כך שכאשר רמת האמינות של מערכת אוטומטית יורדת מתחת לרמה מסוימת, אז האוטומציה כבר אינה תורמת לשיפור הביצועים. נמצא ששאננות האוטומציה מתרחשת כאשר רמת האמינות של האוטומציה מגיעה לכ-70%. מאידך, מחקרים אחרים מצאו שאוטומציה עם רמת מהימנות מתחת ל-70% יכולה להועיל לאנשים עם גישה למקורות המידע הגולמיים, שאותם ניתן לשלב עם תפוקת האוטומציה כדי לשפר את הביצועים[12].
מוות באמצעות GPS, שבו מותם של אנשים נגרם בחלקו על ידי ביצוע הנחיות לא מדויקות שהתקבלו ממכשיר GPS, הוא דוגמה נוספת לשאננות אוטומציה.
תחומי השפעה
הטיית האוטומציה נבחנה בתחומי מחקר רבים[13]. תופעה זו היא גורם משמעותי במיוחד בתעופה, ברפואה, בבקרת תהליכים ובמבצעים צבאיים[12].
תעופה
הדיון על הטיית האוטומציה התמקד במקור בעיקר בתחום התעופה. עזרים אוטומטיים החלו למלא יותר ויותר תפקידים בתא הטייס ונטלו תפקיד הולך וגובר בשליטה במשימות הטסה כגון קביעת הנתיבים החסכוניים ביותר בדלק, ניווט ואיתור ואבחון תקלות במערכות המטוס. אולם השימוש בעזרים אלו עלול להוביל לירידה בחיפוש ועיבוד מידע מצד בני אדם. במקרים מסוימים, בני אדם עשויים לתת אמון רב יותר במידע השגוי שמספקים מחשבי טיסה מאשר בכישורים שלהם[7].
גורם חשוב בהטיית האוטומציה הקשורה לתעופה הוא המידה שבה הטייסים תופסים את עצמם כאחראים למשימות אשר מבוצעות על ידי עזרים אוטומטיים. נמצא שנוכחות של איש צוות שני בתא הטייס לא השפיעה על הטיית אוטומציה בקרב טייסים. מחקר משנת 1994 השווה את ההשפעה של רמות נמוכות וגבוהות של אוטומציה על ביצועי הטייס, כשהמסקנה הייתה שטייסים שעבדו בתנאי אוטומציה גבוהה השקיעו פחות זמן בחשיבה עצמאית על החלטות טיסה[12].
נמצא שטייסים שקיבלו התרעות שוא אוטומטיות שהורו להם לכבות מנוע עשו זאת, למרות שאותם טייסים התעקשו בראיון שהם לא הגיבו להתרעה כזו בכיבוי מנוע, ובמקום זאת העבירו את המנוע למצב סרק. במחקר משנת 1998 נמצא שטייסים עם ניסיון של כ-440 שעות טיסה זיהו יותר כשלי אוטומציה מאשר נבדקים שאינם טייסים, למרות ששתי הקבוצות הראו השפעות של שאננות. מחקר משנת 2001 עם טייסים שהשתמשו במערכת אוטומציה שכללה חיווי מנוע והתרעה לצוות (EICAS), הראה עדות לשאננות. הטייסים זיהו פחות תקלות מנוע בעת השימוש במערכת מאשר בעת ביצוע המשימה באופן ידני[12].
במחקר משנת 2005, פקחי טיסה מנוסים השתמשו בהדמיה של תרחיש במגדל פיקוח, שכלל זיהוי של קונפליקטים בין מטוסים. לפקחים הייתה גישה למכשיר אוטומטי שזיהה התנגשויות פוטנציאליות מספר דקות לפני הזמן. כשהמכשיר כשל לקראת סוף תהליך הסימולציה, פחות בקרים זיהו את הקונפליקט מאשר כשהמצב טופל באופן ידני. מחקרים אחרים העלו ממצאים דומים[12].
מחקרים על הטיית האוטומציה בתעופה גילו שיעור גבוה יותר של טעויות הוספה מאשר טעויות השמטה, בעוד שמחקר אחר בתחום התעופה מצא 55% שיעורי השמטה ו-0% שיעורי הוספה[13]. טעויות השמטה שקשורות לאוטומציה שכיחות במיוחד בשלב טיסת השיוט. כאשר טיסת צ'יינה איירליינס איבדה כוח במנוע אחד, הטייס האוטומטי ניסה לתקן את הבעיה על ידי הורדת הכנף השמאלית, פעולה שמנעה מהצוות לגלות את הבעיה. כאשר הטייס האוטומטי נותק, המטוס התגלגל ימינה וירד בתלילות, פעולה שגרמה לנזק רב. ההפלה של מטוס 747 של קוריאן איירליינס ב-1983 מעל המרחב האווירי של ברית המועצות התרחשה משום שעל פי התחקיר הצוות הקוריאני הסתמך על אוטומציה שהוגדרה בצורה לא מתאימה והם מעולם לא בדקו את התקדמותם באופן ידני[7].
רפואה
מערכות תמיכה להחלטות קליניות (CDSS) נועדו לסייע בהחלטות קליניות ברפואה. מערכות אלה עשויות לחולל שיפור גדול בהקשר זה ולהביא לשיפור במצב המטופלים. עם זאת, למרות הפוטנציאל הגלום בהן, מערכות תמיכה להחלטות קליניות עלולות להביא למצב שבו לא יזוהו שגיאות שלהן עקב הטיית האוטומציה. אחת הסכנות היא שהייעוץ השגוי שעלולות לספק מערכות אלו עלול לגרום למשתמשים לשנות החלטה נכונה שהם החליטו בעצמם. בהתחשב באופי החמור ביותר של חלק מההשלכות האפשריות של הטיית האוטומציה בתחום הבריאות, חשוב במיוחד להיות מודעים לבעיה זו כאשר היא מתרחשת במסגרות קליניות[13].
במקרים מסוימים הטיית האוטומציה במסגרות קליניות היא בעיה מרכזית, שפוגעת ביעילותן של מערכות התמיכה להחלטות קליניות. הבעיה אינה חמורה כשהיתרונות עולים על הנזק שנגרם. מחקרים מצביעים על כך שהיכרות עם מערכות תמיכה להחלטות קליניות מובילה לעיתים קרובות לחוסר רגישות באיבחונים. למרות שהטיית האוטומציה מתרחשת לעיתים קרובות יותר בקרב אנשים שאינם מנוסים במשימה מסוימת, משתמשים לא מנוסים מציגים את השיפור הגדול ביותר בביצועים כאשר הם משתמשים במערכות תמיכה להחלטות קליניות. במחקר אחד, השימוש במערכות אלו שיפר את תשובות הרופאים ב-21%, מ-29% ל-50%, כאשר 7% מהתשובות הנכונות שמקורן אינו במערכת שונו באופן שגוי[13].
במחקר משנת 2005 נמצא שכאשר רופאי משפחה השתמשו במקורות אלקטרוניים כמו PubMed, Medline ו-Google, הייתה עלייה "קטנה עד בינונית" בתשובות הנכונות, בעוד שבשיעור דומה של המקרים הרופאים הוטעו על ידי השימוש באותם מקורות, כשהם משנים תשובות נכונות לתשובות שגויות[12].
מחקרים בשנים 2004 ו-2008 שבחנו את ההשפעה של עזרים אוטומטיים על אבחון סרטן השד מצאו עדויות ברורות להטיית האוטומציה הכרוכה בטעויות השמטה. סרטן שאובחנו ב-46% מהמקרים ללא עזרים אוטומטיים התגלה רק ב-21% מהמקרים עם עזרים אוטומטיים שלא הצליחו לזהות את הסרטן[12].
ביטחון
הטיית האוטומציה יכולה להוות גורם מכריע בשימוש במערכות תומכות החלטה חכמות עבור פעולות שליטה ובקרה צבאיות. במחקר משנת 2004 נמצא כי השפעות הטיית האוטומציה תרמו למספר החלטות צבאיות קטלניות, כולל תקריות ירי דו צדדי במהלך מלחמת עיראק. החוקרים הדגישו את חשיבות הגדרת רמת האוטומציה המתאימה עבור מערכות תומכות החלטות בתחום זה[12].
תחבורה
שאננות אוטומציה מהווה אתגר גם עבור מערכות נהיגה אוטומטיות, שבהן האדם נדרש רק לפקח על המערכת או לשמש כנהג חלופי בעת הצורך. התופעה נדונה בדו"ח המועצה הלאומית לבטיחות בתחבורה על התאונה הקטלנית בין רכב ניסוי של UBER להולכת הרגל איליין הרצברג[20].
דרכי התמודדות
ניתן למתן את הטיית האוטומציה על ידי תכנון מחדש של מערכות אוטומטיות, תוך הפחתת בולטות התצוגה ומורכבות המידע או על ידי מתן סיוע בסגנון של מידע תומך ולא מנחה[13]. הכשרת משתמשים באמצעות מערכות אוטומטיות שמציגות שגיאות מכוונות מפחיתה את הטיית האוטומציה בצורה יעילה יותר מאשר הדרכה מילולית שבה מצהירים כי המערכת עלולה לשגות[21]. בדיקה עודפת ותשאול יתר של מערכות סיוע אוטומטי עלולים להגביר את לחץ הזמן ומורכבות המשימות ובכך להפחית את התועלת מהשימוש במערכות אלו[14].
ראו גם
קישורים חיצוניים
- התוכן בקישור, באתר (שם האתר)
הערות שוליים
- ^ Mary Cummings, Automation Bias in Intelligent Time Critical Decision Support Systems, American Institute of Aeronautics and Astronautics, 2004-09-20 doi: 10.2514/6.2004-6313
- ^ JEROME S. BRUNER, RENATO TAGIURI, THE PERCEPTION OF PEOPLE, 1954-09-30
- ^ P. Madhavan, D. A. Wiegmann, Similarities and differences between human–human and human–automation trust: an integrative review, Theoretical Issues in Ergonomics Science 8, 2007-07, עמ' 277–301 doi: 10.1080/14639220500337708
- ^ Mary T. Dzindolet, Scott A. Peterson, Regina A. Pomranky, Linda G. Pierce, Hall P. Beck, The role of trust in automation reliance, International Journal of Human-Computer Studies 58, 2003-06, עמ' 697–718 doi: 10.1016/S1071-5819(03)00038-7
- ^ 5.0 5.1 5.2 5.3 5.4 5.5 5.6 Automation bias, Linda J. Skitka, Ph.D. (באנגלית)
- ^ 6.0 6.1 6.2 Raja Parasuraman, Victor Riley, Humans and Automation: Use, Misuse, Disuse, Abuse, Human Factors: The Journal of the Human Factors and Ergonomics Society 39, 1997-06, עמ' 230–253 doi: 10.1518/001872097778543886
- ^ 7.0 7.1 7.2 7.3 Kathleen L. Mosier, Linda J. Skitka, Susan Heers, Mark Burdick, Automation Bias: Decision Making and Performance in High-Tech Cockpits, The International Journal of Aviation Psychology 8, 1998-01, עמ' 47–63 doi: 10.1207/s15327108ijap0801_3
- ^ 8.0 8.1 8.2 8.3 David Lyell, Enrico Coiera, Automation bias and verification complexity: a systematic review, Journal of the American Medical Informatics Association 24, 2017-03-01, עמ' 423–431 doi: 10.1093/jamia/ocw105
- ^ Amos Tversky, Daniel Kahneman, Judgment under Uncertainty: Heuristics and Biases: Biases in judgments reveal some heuristics of thinking under uncertainty., Science 185, 1974-09-27, עמ' 1124–1131 doi: 10.1126/science.185.4157.1124
- ^ Christopher D. Wickens, Justin G. Hollands, Simon Banbury, Raja Parasuraman, Engineering Psychology and Human Performance, 2015-08-20 doi: 10.4324/9781315665177
- ^ 11.0 11.1 11.2 Kathleen L. Mosier, Melisa Dunbar, Lori McDonnell, Linda J. Skitka, Mark Burdick, Bonnie Rosenblatt, Automation Bias and Errors: Are Teams Better than Individuals?, Proceedings of the Human Factors and Ergonomics Society Annual Meeting 42, 1998-10, עמ' 201–205 doi: 10.1177/154193129804200304
- ^ 12.00 12.01 12.02 12.03 12.04 12.05 12.06 12.07 12.08 12.09 12.10 12.11 12.12 12.13 12.14 12.15 Raja Parasuraman, Dietrich H. Manzey, Complacency and Bias in Human Use of Automation: An Attentional Integration, Human Factors: The Journal of the Human Factors and Ergonomics Society 52, 2010-06, עמ' 381–410 doi: 10.1177/0018720810376055
- ^ 13.00 13.01 13.02 13.03 13.04 13.05 13.06 13.07 13.08 13.09 13.10 13.11 Kate Goddard, Abdul Roudsari, Jeremy C Wyatt, Automation bias: a systematic review of frequency, effect mediators, and mitigators, Journal of the American Medical Informatics Association 19, 2012-01, עמ' 121–127 doi: 10.1136/amiajnl-2011-000089
- ^ 14.0 14.1 Eugenio Alberdi, Lorenzo Strigini, Andrey A. Povyakalo, Peter Ayton, כרך 5775, Why Are People’s Decisions Sometimes Worse with Computer Support?, Berlin, Heidelberg: Springer Berlin Heidelberg, 2009, עמ' 18–31, מסת"ב 978-3-642-04467-0
- ^ Kate Goddard, Abdul Roudsari, Jeremy C. Wyatt, Automation bias: Empirical results assessing influencing factors, International Journal of Medical Informatics 83, 2014-05, עמ' 368–375 doi: 10.1016/j.ijmedinf.2014.01.001
- ^ 16.0 16.1 Kathleen L. Mosier, Linda J. Skitka, Melisa Dunbar, Lori McDonnell, Aircrews and Automation Bias: The Advantages of Teamwork?, The International Journal of Aviation Psychology 11, 2001-01, עמ' 1–14 doi: 10.1207/S15327108IJAP1101_1
- ^ Mica R. Endsley, From Here to Autonomy: Lessons Learned From Human–Automation Research, Human Factors: The Journal of the Human Factors and Ergonomics Society 59, 2017-02, עמ' 5–27 doi: 10.1177/0018720816681350
- ^ Lisanne Bainbridge, Ironies of automation, Automatica 19, 1983-11, עמ' 775–779 doi: 10.1016/0005-1098(83)90046-8
- ^ Raja Parasuraman, Robert Molloy, Indramani L. Singh, Performance Consequences of Automation-Induced 'Complacency', The International Journal of Aviation Psychology 3, 1993-01, עמ' 1–23 doi: 10.1207/s15327108ijap0301_1
- ^ Collision Between Vehicle Controlled by Developmental Automated Driving System and Pedestrian, www.ntsb.gov
- ^ J. Elin Bahner, Anke-Dorothea Hüper, Dietrich Manzey, Misuse of automated decision aids: Complacency, automation bias and the impact of training experience, International Journal of Human-Computer Studies 66, 2008-09, עמ' 688–699 doi: 10.1016/j.ijhcs.2008.06.001
37855624הטיית האוטומציה