השפעות בינה מלאכותית על העבודה
ערך ללא מקורות
| ||
| ערך ללא מקורות | |
השפעות בינה מלאכותית על העבודה כוללות יישומים לשיפור בטיחות ובריאות העובדים, וכן סיכונים פוטנציאליים שיש לשלוט בהם. יישום פוטנציאלי אחד הוא שימוש בבינה מלאכותית (AI) לסילוק סיכונים באמצעות הוצאת בני אדם ממצבים מסוכנים הכרוכים בסיכון ללחץ, עומס עבודה, או פציעות שריר-שלד. ניתן גם להשתמש בניתוח חזוי (Predictive Analytics) כדי לזהות תנאים שעלולים להוביל לסיכונים כגון עייפות, פציעות מאמץ חוזרני או חשיפה לחומרים רעילים, מה שמאפשר התערבות מוקדמת יותר. יישום נוסף הוא ייעול זרימת העבודה של בטיחות ובריאות במקום העבודה על ידי אוטומציה של משימות חוזרות, שיפור תוכניות הדרכה בטיחות באמצעות מציאות מדומה, או גילוי ודיווח על "כמעט תאונות".
אולם בינה מלאכותית מציגה גם אפשרות לסיכונים חדשים במקום העבודה. אלה עלולים לנבוע מטכניקות למידת מכונה המובילות להתנהגות בלתי צפויה ואי-פתיחות (Inscrutability) בקבלת ההחלטות שלהן, או מבעיות של אבטחת סייבר ופרטיות מידע. רבים מהסיכונים של בינה מלאכותית הם פסיכוסוציאליים בשל הפוטנציאל שלה לגרום לשינויים בארגון העבודה. אלה כוללים שינויים בכישורים הנדרשים מהעובדים, הגברת הניטור שמובילה למיקרו-ניהול, אלגוריתמים המחקים באופן לא מכוון או מכוון הטיות אנושיות בלתי רצויות, והטלת אשמה על תקלות מכונה על המפעיל האנושי במקום זאת. בינה מלאכותית עלולה להוביל גם לסיכונים פיזיים בצורת התנגשויות בין אדם לרובוט, וסיכונים ארגונומיים בממשקי בקרה ואינטראקציות בין אדם למכונה. אמצעי בקרת סיכונים כוללים צעדי אבטחת סייבר ופרטיות מידע, תקשורת ושקיפות עם עובדים בנוגע לשימוש בנתונים, והגבלות על רובוטים שיתופיים. טכנולוגיות דיגיטליות מסוימות צפויות לגרום לאובדן מקומות עבודה. החל משנות ה-2020, אימוץ רובוטיקה מודרנית הוביל לצמיחת תעסוקה נטו. עם זאת, עסקים רבים צופים כי אוטומציה, או העסקת רובוטים, יגרמו לאובדן משרות בעתיד. הדבר נכון במיוחד עבור חברות במרכז ובמזרח אירופה. טכנולוגיות דיגיטליות אחרות, כגון פלטפורמות או ביג דאטה, צפויות להשפיע באופן נייטרלי יותר על התעסוקה. מספר רב של עובדי טכנולוגיה פוטרו החל משנת 2023, וקיצוצי משרות רבים יוחסו לבינה מלאכותית.
יישומי בריאות ובטיחות
כדי שכל יישום פוטנציאלי של בינה מלאכותית לבריאות ובטיחות יאומץ, נדרשת קבלה הן על ידי מנהלים והן על ידי עובדים. לדוגמה, קבלת העובדים עלולה להיפגע מחששות לגבי פרטיות המידע, או מחוסר אמון וקבלה של הטכנולוגיה החדשה, שעלול לנבוע מחוסר שקיפות או הכשרה נאותה. לחלופין, מנהלים עשויים לשים דגש על עלייה בפרודוקטיביות כלכלית במקום על רווחים בבטיחות ובריאות העובדים בעת יישום מערכות מבוססות בינה מלאכותית.
סילוק משימות מסוכנות
בינה מלאכותית עשויה להרחיב את היקף משימות העבודה שבהן ניתן להוציא עובד ממצב הכרוך בסיכון. בעוד שאוטומציה מסורתית יכולה להחליף את תפקודי גופו של עובד באמצעות רובוט, בינה מלאכותית מחליפה למעשה את תפקודי מוחו באמצעות מחשב. סיכונים שניתן להימנע מהם כוללים לחץ, עומס יתר, פציעות שריר-שלד ושעמום. זה יכול להרחיב את טווח המגזרים המושפעים למשרות צווארון לבן ומגזר שירותים כגון רפואה, פיננסים וטכנולוגיית מידע. לדוגמה, עובדי מוקדי שירות מתמודדים עם סיכוני בריאות וגיהות נרחבים בשל אופייה החוזרני והתובעני ושיעורי המיקרו-מעקב הגבוהים שבה. צ'אטבוטים המופעלים על ידי בינה מלאכותית מפחיתים את הצורך בבני אדם לביצוע משימות בסיסיות של מוקדי השירות הטלפוניים.
ניתוח להפחתת סיכון
למידת מכונה מיושמת בתחום ניתוח אנשים (People Analytics) על מנת לחזות דפוסי התנהגות של עובדים. תחזיות אלו נועדו לתמוך בהחלטות ניהוליות קריטיות, כגון תהליכי גיוס והערכת ביצועים. שימוש נוסף טמון בשיפור בריאות העובדים ובטיחותם. הניתוח מסתמך על מגוון נתונים, הכוללים פעילות מקוונת, ניטור תקשורת, מעקב אחר מיקום, וכן ניתוח קולי ושפת גוף מתוך ראיונות מצולמים. לדוגמה, ניתוח סנטימנטים יכול לזהות סימני עייפות ובכך לסייע במניעת עומס קוגניטיבי בעבודה. מערכי הנתונים הגדולים שנוצרים על ידי טכנולוגיות אלו משפרים באופן מהותי את מעקב הבריאות במקום העבודה, הערכת הסיכונים והמחקר הארגונומי והתעסוקתי.
מערכות תומכות החלטה מציגות יכולת דומה ליישום, לדוגמה, לצורך מניעת אסונות תעשייתיים או לייעול תגובה לאסונות. למשל, בתחום הטיפול הידני בחומרים, ניתוח חזוי בשילוב עם בינה מלאכותית יכול לתרום להפחתה משמעותית של פציעות שריר-שלד. בעוד שהנחיות מסורתיות מתבססות על ממוצעים סטטיסטיים ומכוונות לעובד הטיפוסי מבחינה אנתרופומטרית, ניתוח כמויות גדולות של נתונים הנאספים באמצעות חיישנים לבישים מאפשר חישוב סיכון ארגונומי אישי ומדויק יותר בזמן אמת. שימוש זה בנתונים מביא ליכולת ניהול עייפות אישית ואפקטיבית יותר, וכן לניתוח מעמיק יותר של הסיכונים הייחודיים לתפקידי עבודה ספציפיים. החיישנים הלבישים גם מאפשרים התערבות מוקדמת יותר כנגד חשיפה לחומרים רעילים, בהשוואה לבדיקות אזוריות או בדיקות אזור הנשימה המתבצעות באופן תקופתי.
ייעול זרימות עבודה של בטיחות ובריאות
ניתן להשתמש ב-AI גם כדי להפוך את זרימת העבודה של בטיחות ובריאות במקום העבודה ליעילה יותר. דוגמה אחת היא קידוד של תביעות פיצויים לעובדים, המוגשות בצורת נרטיב פרוזה ויש להקצות להן קודים סטנדרטיים באופן ידני. AI נחקרת לביצוע משימה זו מהר יותר, בזול יותר ועם פחות שגיאות. מערכות מציאות מדומה המופעלות על ידי בינה מלאכותית עשויות להיות שימושיות להדרכה בטיחותית לזיהוי סיכונים. בינה מלאכותית עשויה לשמש לגילוי יעיל יותר של כמעט תאונות. דיווח וניתוח של כמעט תאונות חשובים בהפחתת שיעורי תאונות, אך לעיתים קרובות הם אינם מדווחים מספיק מכיוון שבני אדם אינם מבחינים בהם, או שעובדים אינם מדווחים עליהם עקב גורמים חברתיים.
סיכונים
ישנם מספר היבטים רחבים של בינה מלאכותית שעלולים להוביל לסיכונים ספציפיים. הסיכונים תלויים ביישום ולא בעצם נוכחות הבינה המלאכותית. מערכות המשתמשות ב-AI תת-סמלית כגון למידת מכונה עלולות להתנהג באופן בלתי צפוי ונוטות יותר לאי-פתיחות בקבלת ההחלטות שלהן. זה נכון במיוחד אם נתקלים במצב שלא היה חלק ממערך האימון של ה-AI, ומחמיר בסביבות פחות מובנות. התנהגות בלתי רצויה עלולה לנבוע גם מפגמים בתפיסה של המערכת (הנובעים מהתוכנה או מהתדרדרות חיישנים), ייצוג ידע והיגיון, או מבאגים בתוכנה. הם עלולים לנבוע מהכשרה לא נכונה, כגון משתמש המחיל את אותו אלגוריתם על שתי בעיות שאין להן אותן דרישות. למידת מכונה המיושמת בשלב התכנון עשויה להיות בעלת השלכות שונות מזו המיושמת בזמן ריצה. מערכות המשתמשות בבינה מלאכותית סמלית נוטות פחות להתנהגות בלתי צפויה. השימוש ב-AI גם מגביר את סיכוני אבטחת סייבר בהשוואה לפלטפורמות שאינן משתמשות ב-AI, וחששות פרטיות מידע לגבי נתונים שנאספו עלולים להוות סיכון לעובדים.
פסיכוסוציאליים
סיכונים פסיכוסוציאליים הם אלה הנובעים מהאופן שבו העבודה מתוכננת, מאורגנת ומנוהלת, או מההקשרים הכלכליים והחברתיים שלה, ולא מחומר או אובייקט פיזי. הם גורמים לא רק לתוצאות פסיכיאטריות ופסיכולוגיות כגון שחיקה תעסוקתית, הפרעות חרדה ודיכאון, אלא הם יכולים לגרום גם לפציעה או מחלה פיזית כגון מחלות לב וכלי דם או פציעות שריר-שלד. רבים מהסיכונים של בינה מלאכותית הם בעלי אופי פסיכוסוציאלי בשל הפוטנציאל שלה לגרום לשינויים בארגון העבודה, מבחינת הגברת המורכבות והאינטראקציה בין גורמים ארגוניים שונים. עם זאת, סיכונים פסיכוסוציאליים נעלמים לעיתים קרובות מעיני מעצבי מערכות ייצור מתקדמות.
שינויים בשיטות העבודה
בינה מלאכותית צפויה להוביל לשינויים בכישורים הנדרשים מהעובדים, הדורשים הכשרה מחדש של עובדים קיימים, גמישות ופתיחות לשינוי. הדרישה לשלב מומחיות קונבנציונלית עם כישורי מחשב עשויה להיות מאתגרת עבור עובדים קיימים. הסתמכות יתר על כלי בינה מלאכותית עלולה להוביל לדה-מיומנות של מקצועות מסוימים. בעוד AI מציעה נוחות ואינטראקציה נטולת שיפוט, הסתמכות מוגברת – במיוחד בקרב דור ה-Z – עלולה להפחית את התקשורת הבין-אישית במקום העבודה ולהשפיע על הלכידות החברתית. ככל שבינה מלאכותית הופכת לתחליף לשיתוף פעולה ומנטורינג מסורתיים בין עמיתים, קיים סיכון של הפחתת הזדמנויות לפיתוח מיומנויות בין-אישיות ולמידה מבוססת צוות. שינוי זה עלול לתרום לבידוד במקום העבודה ולשינויים בדינמיקה הצוותית.
ניטור מוגבר עלול להוביל למיקרו-ניהול ובכך ללחץ וחרדה. תפיסה של מעקב עלולה גם להוביל ללחץ. אמצעי בקרה לכך כוללים התייעצות עם קבוצות עובדים, בדיקות מקיפות ותשומת לב להטיה מוכנסת. חיישנים לבישים, מכשירי מעקב פעילות ומציאות רבודה עלולים גם להוביל ללחץ ממיקרו-ניהול, הן עבור עובדי פס ייצור והן עבור עובדי כלכלה שיתופית (Gig Workers). לעובדי כלכלה שיתופית חסרות גם ההגנות והזכויות המשפטיות של עובדים רשמיים. קיים גם סיכון שאנשים יוכרחו לעבוד בקצב של רובוט, או לנטר את ביצועי הרובוט בשעות לא סטנדרטיות.
הטיה
אלגוריתמים שאומנו על החלטות עבר עלולים לחקות הטיות אנושיות בלתי רצויות, לדוגמה, נוהלי גיוס ופיטורים מפלים בעבר. אסימטריה במידע בין הנהלה לעובדים עלולה להוביל ללחץ, אם לעובדים אין גישה לנתונים או לאלגוריתמים שהם הבסיס לקבלת ההחלטות. בנוסף לבניית מודל עם מאפיינים מפלים שלא בכוונה, אפליה מכוונת עשויה להתרחש באמצעות תכנון מדדים שתוצאתם הסמויה היא אפליה דרך משתנים מתואמים באופן לא ברור. באינטראקציות מורכבות בין אדם למכונה, גישות מסוימות לניתוח תאונות עשויות להיות מוטות כדי לשמור על מערכת טכנולוגית ומפתחיה על ידי הטלת אשמה על המפעיל האנושי במקום זאת.
פיזיים
סיכונים פיזיים בצורת התנגשויות בין אדם לרובוט עלולים לנבוע מרובוטים המשתמשים בבינה מלאכותית, במיוחד רובוטים שיתופיים (Cobots). קובוטים נועדו לפעול בקרבה הדוקה לבני אדם, מה שהופך את אמצעי בקרת הסיכונים הנפוץ של בידוד הרובוט באמצעות גדרות או מחסומים אחרים לבלתי אפשרי, אמצעי שנמצא בשימוש נרחב עבור רובוטים תעשייתיים מסורתיים. כלי רכב מונחים אוטומטית (AGVs) הם סוג של קובוט שנמצא בשימוש נפוץ, לעיתים קרובות כמלגזות או מסיעי משטחים במחסנים או מפעלים. עבור קובוטים, תקלות בחיישנים או תנאי סביבת עבודה בלתי צפויים עלולים להוביל להתנהגות רובוט בלתי צפויה ובכך להתנגשויות בין אדם לרובוט. מכוניות בנהיגה עצמית הן דוגמה נוספת לרובוטים המופעלים על ידי בינה מלאכותית. בנוסף, הארגונומיה של ממשקי בקרה ואינטראקציות בין אדם למכונה עלולה להוביל לסיכונים.
בקרת סיכונים
AI, בדומה לטכנולוגיות חישוביות אחרות, דורשת אמצעי אבטחת סייבר כדי לעצור פריצות וחדירות תוכנה, וכן אמצעי פרטיות מידע. תקשורת ושקיפות עם עובדים לגבי השימוש בנתונים היא אמצעי בקרה לסיכונים פסיכוסוציאליים הנובעים מבעיות אבטחה ופרטיות. שיטות עבודה מומלצות מוצעות לתוכניות ניטור עובדים בחסות המעסיק כוללות שימוש רק בטכנולוגיות חיישנים מאומתות; הבטחת השתתפות עובדים מרצון; הפסקת איסוף נתונים מחוץ למקום העבודה; גילוי כל שימושי הנתונים; והבטחת אחסון נתונים מאובטח. עבור קובוטים תעשייתיים המצוידים בחיישני בינה מלאכותית, ארגון התקינה הבינלאומי (ISO) המליץ על: (א) בקרות עצירה מנוטרות הקשורות לבטיחות; (ב) הנחיית יד אנושית של הקובוט; (ג) בקרות ניטור מהירות והפרדה; ו-(ד) מגבלות כוח ועוצמה. קובוטים מחוברים ברשת המופעלים על ידי בינה מלאכותיתעשויים לחלוק שיפורי בטיחות זה עם זה. השגחה אנושית היא אמצעי בקרת סיכונים כללי נוסף לבינה מלאכותית.
ניהול סיכונים
ניתן להתייחס הן ליישומים והן לסיכונים הנובעים מבינה מלאכותית כחלק ממסגרות קיימות לניהול סיכוני בריאות ובטיחות תעסוקתית. כמו בכל הסיכונים, זיהוי סיכונים הוא היעיל והפחות יקר ביותר כאשר הוא נעשה בשלב התכנון. מעקב בריאותי במקום העבודה, איסוף וניתוח נתוני בריאות על עובדים, מאתגר עבור בינה מלאכותית מכיוון שנתוני עבודה מדווחים לעיתים קרובות במצטבר ואינם מספקים פירוט בין סוגי עבודה שונים, ומתמקדים בנתונים כלכליים כגון שכר ושיעורי תעסוקה במקום בתוכן הכישורים של משרות. מיומנויות תחליפיות לתוכן כוללות דרישות השכלה וסיווגים של משימות שגרתיות לעומת לא שגרתיות, ומשימות קוגניטיביות לעומת פיזיות. עם זאת, ייתכן שאלה עדיין אינן ספציפיות מספיק כדי להבחין בעיסוקים ספציפיים שיש להם השפעות מובהקות מבינה מלאכותית. רשת המידע התעסוקתי של משרד העבודה של ארצות הברית היא דוגמה למאגר נתונים עם טקסונומיה מפורטת של מיומנויות. בנוסף, נתונים מדווחים לעיתים קרובות ברמה הלאומית, בעוד שיש שונות גאוגרפית רבה, במיוחד בין אזורים עירוניים וכפריים. מערכות בינה מלאכותית במקום העבודה מעלות חששות אתיים הקשורים לפרטיות, הגינות, כבוד האדם ושקיפות. על פי ה-OECD, יש לטפל בסיכונים אלה באמצעות מסגרות ממשל חזקות ומנגנוני אחריות. יישום אתי של בינה מלאכותית דורש מדיניות ברורה בנוגע לשימוש בנתונים, יכולת הסבר של אלגוריתמים ושמירה מפני אפליה ומעקב.
תקנים ורגולציה
נכון לשנת 2019, ISO פיתח תקן בנוגע לשימוש במדדים ולוחות מחוונים (Dashboards), תצוגות מידע המציגות מדדי חברה למנהלים, במקומות עבודה. התקן מתוכנן לכלול הנחיות הן לאיסוף נתונים והן להצגתם בצורה נראית ושימושית. באיחוד האירופי, תקנת הגנת הנתונים הכללית (GDPR), על אף שהיא מכוונת לנתוני צרכנים, רלוונטית גם לאיסוף נתונים במקום העבודה. לנושאי הנתונים, כולל עובדים, יש "הזכות שלא להיות כפופים להחלטה המבוססת אך ורק על עיבוד אוטומטי". דירקטיבות רלוונטיות נוספות של האיחוד האירופי כוללות את דירקטיבת המכונות (2006/42/EC), דירקטיבת ציוד הרדיו (2014/53/EU), ודירקטיבת בטיחות המוצר הכללית (2001/95/EC).
השפעות בינה מלאכותית על העבודה42358990Q65273055