בינה מלאכותית
יש לשכתב ערך זה. הסיבה היא: לא מקיף, הבחנה לא טובה בין עיקר לטפל.
| ||
| יש לשכתב ערך זה. הסיבה היא: לא מקיף, הבחנה לא טובה בין עיקר לטפל. | |
בינה מלאכותית (באנגלית: Artificial Intelligence; בקיצור: AI) היא יכולתן של מערכות טכנולוגיות ומחשבים לדמות היבטים של תבונה אנושית, ובכלל זה למידה, הסקת מסקנות, פתרון בעיות ותפיסה חזותית או לשונית. בניגוד לתוכנות מחשב מסורתיות הפועלות לפי סדרת הוראות קבועה מראש, מערכות בינה מלאכותית מבוססות על אלגוריתמים המסוגלים לזהות דפוסים בתוך כמויות אדירות של נתונים, להסתגל למצבים משתנים ולבצע משימות המצריכות יכולת ניתוח מורכבת ושיקול דעת.
בעשורים הראשונים של המאה ה-21 הפכה הבינה המלאכותית לאחת הטכנולוגיות המעצבות ביותר של האנושות. היא נחשבת לטכנולוגיה רב-תכליתית, בדומה למנוע הקיטור או לחשמל, המהווה תשתית לשינויים עמוקים בכלכלה, בתרבות ובחברה. השפעתה ניכרת במגוון רחב של תחומים: החל משיפור האבחון ברפואה והאצת מחקר מדעי, דרך אוטומיזציה של שוק העבודה, ועד לפיתוחה של בינה מלאכותית יוצרת המטשטשת את הגבולות המסורתיים בין יצירה אנושית למעשה ידי מכונה.
לצד השפעתה האזרחית, הבינה המלאכותית מהווה מוקד מרכזי במאבק על עוצמה גיאופוליטית. השליטה בטכנולוגיה זו, הכוללת את כוח העיבוד (שבבים), מאגרי הנתונים וההון האנושי – הפכה למדד לעוצמה לאומית ולריבונות דיגיטלית. בעולם המודרני הולכים ומתגבשים שני מוקדי כוח עיקריים השולטים בתשתית הטכנולוגית העולמית, ארצות הברית וסין. מדינות וגושים פוליטיים (כגון האיחוד האירופי) שואפים להבטיח את עצמאותם הטכנולוגית כדי למנוע תלות מוחלטת בתשתיות ובאלגוריתמים של המעצמות הדומיננטיות. למאבק זה השלכות ישירות על הביטחון לאומי, על יציבותן של מערכות דמוקרטיות מול מערכות אוטוקרטיות, ועל היכולת של מדינות לעצב את הערכים המוסריים והאתיים המוטמעים בטכנולוגיה שתנהל את חיי אזרחיהן בעתיד.
היסטוריה
התפתחות הבינה המלאכותית התעצבה לאורך השנים סביב הפער המובנה שבין מודלים מתמטיים מוקדמים לבין היכולת הטכנית לממשם בפועל.[1][2] פער זה נבע מכך שבעוד שחלוצי התחום הגדירו כבר במחצית המאה ה-20 תיאוריות המסוגלות לדמות היבטים של תבונה אנושית, היישום המעשי שלהן נאלץ להמתין עשורים רבים לעלייה משמעותית בכוח המחשוב ובזמינות הנתונים. המכשול לא היה רק יכולת העיבוד המוגבלת של המחשבים באותה עת, אלא גם הקושי בניסוח תוכניות המנצלות אותה לביצוע פעולות קוגניטיביות מורכבות.[3] מצב זה הוביל לתנודות חריפות בתולדות התחום, בין גלי אופטימיות והשקעות מאסיביות לבין תקופות של אכזבה וצמצום משאבים, המכונות "חורפי בינה מלאכותית".
שורשים תיאורטיים ולידת ה"מכונה החושבת" (1943–1956)
עוד בטרם נבנו המחשבים הדיגיטליים הראשונים, הונחו היסודות ליצירת בינה סינתטית מתוך ניסיון לחקות את המבנה הביולוגי של המוח. בשנת 1943, הנוירופיזיולוג האמריקאי וורן מקולוק והלוגיקן וולטר פיטס פרסמו מודל מתמטי המדמה פעילות של נוירון ביולוגי. המודל התבסס על "לוגיקה בוליאנית", שיטה מתמטית המייצגת מידע באמצעות ערכים של "אמת" או "שקר" (0 או 1). היה זה הניסיון המדעי הראשון להוכיח כי תהליכים מוחיים ניתנים לתרגום לשפה של חישוב לוגי.[4]
בשנת 1950, המתמטיקאי הבריטי ומחלוצי מדעי המחשב, אלן טיורינג, פרסם את מאמרו המכונן "מחשוב ותבונה" (Computing Machinery and Intelligence). טיורינג, שהתפרסם בזכות תרומתו לפיצוח קוד ה"אניגמה" הגרמני, הציע להסיט את הדיון מהשאלה הפילוסופית המופשטת "האם מכונות חושבות?" לעבר מבחן התנהגותי מעשי, מבחן טיורינג (המוכר במקור כ"משחק החיקוי").[5] הוא חזה כי עד סוף המאה ה-20, הטכנולוגיה תאפשר למחשבים להחזיק בנפח זיכרון של כ- ביטים, נפח שיאפשר להם להטעות בני אדם בשיחה חופשית, כלומר לגרום להם לחשוב שהם משוחחים עם אדם אחר ולא עם מכונה.[6]
נקודת המפנה שהפכה את הרעיונות הללו לתחום מחקר רשמי התרחשה בקיץ 1956, בכינוס אקדמי שנערך במכללת דארטמות'. בסדנה זו, שאורגנה על ידי מדען המחשב ג'ון מקארתי יחד עם דמויות מפתח כגון מרווין מינסקי וקלוד שאנון, נטבע לראשונה המונח "בינה מלאכותית". הנחת היסוד של המשתתפים הייתה מרחיקת לכת, ולפיה האינטליגנציה איננה תכונה ביולוגית מסתורית, אלא תהליך שניתן לפירוק לוגי. הם האמינו כי כל היבט של למידה או יצירתיות ניתן לניסוח כסדרת פעולות מתמטיות מדויקות, שאותן ניתן יהיה לתכנת אל תוך מכונה.[7]
עידן הסמלים ומשבר הציפיות (1956–1990)
בעשורים הראשונים שלאחר ועידת דארטמות' שלטה בקהילה המדעית הגישה ה"סמלית" (Symbolic AI). גישה זו, שכונתה לימים "בינה מלאכותית קלאסית", התבססה על ההנחה כי המוח האנושי פועל כמערכת המעבדת סמלים לפי חוקים לוגיים קבועים. החוקרים האמינו כי אם יצליחו לנסח את הידע האנושי כשורות קוד של "אם-אז" (If-Then), המחשב יפגין תבונה. ההתלהבות בקהילה הייתה כה רבה, עד שחתן פרס נובל, הרברט סיימון, חזה בשנת 1965 כי "תוך עשרים שנה מכונות יוכלו לבצע כל עבודה שאדם מסוגל לעשות".[8]
אולם, ככל שהמחשבים השתפרו בביצוע משימות לוגיות מורכבות, נתקלו החוקרים בתופעה מתסכלת: פעולות שנחשבות קשות לבני אדם ודורשות אינטליגנציה גבוהה (כגון שחמט או הוכחת משפטים), התגלו כקלות למחשב; לעומת זאת, פעולות שנראות לנו פשוטות וחסרות מאמץ (כגון זיהוי פנים, הליכה בחדר או קיפול כביסה), התגלו כאתגר חישובי כמעט בלתי אפשרי. הפרדוקס הזה, שלימים כונה "הפרדוקס של מורבק" (Moravec's paradox), נובע מכך שהמיומנויות ה"פשוטות" שלנו מבוצעות באופן לא-מודע, בעוד שהחשיבה הלוגית היא יכולת חדשה יחסית הדורשת מאמץ מודע, ולכן קל יותר לנסח אותה כאלגוריתם.[9]
במקביל לגישה הסמלית, התפתח ערוץ מחקר אלטרנטיבי שניסה לחקות את המבנה הביולוגי של המוח: "רשתות עצביות". בשנת 1958 פיתח הפסיכולוג האמריקאי פרנק רוזנבלט את פרספטרון, המודל הראשון של מכונה המסוגלת ללמוד בעצמה מדוגמאות, במקום לפעול לפי חוקים שתוכנתו מראש.[10] אולם, ההבטחה הגדולה התנפצה ב-1969, כאשר חוקרי הבינה המלאכותית מרווין מינסקי וסימור פאפרט פרסמו ספר ובו הוכיחו מתמטית כי במתכונתו הנוכחית, המודל מוגבל מאוד ואינו מסוגל אף לפתור בעיות לוגיות בסיסיות (כגון בעיית ה-XOR).[11] הביקורת הובילה לייבוש כמעט מוחלט של תקציבי המחקר בתחום הרשתות העצביות למשך כשני עשורים.
הפער העצום בין ההבטחות הגרנדיוזיות לבין המציאות המוגבלת הוביל למשבר אמון עמוק בקרב הממשלות וגופי המימון. בשנת 1984, בכנס של האגודה האמריקאית לבינה מלאכותית (AAAI), הזהירו החוקרים מפני "חורף הבינה המלאכותית", תקופה של קיצוצים נרחבים וסגירת מעבדות מחקר. במבט לאחור, התברר כי החסם העיקרי באותה עת לא היה רק האלגוריתמיקה, אלא המחסור בכוח גולמי, מחשבי המאה ה-20 היו חלשים מכדי לבצע את כמות החישובים העצומה הנדרשת ללמידה אמיתית, תובנה שנוסחה לימים כ"הלקח המר" (Bitter lesson) של התחום[12][13].
מהפכת הלמידה העמוקה והטרנספורמרים (1990–2022)
בשנות ה-90 התרחש מעבר הדרגתי מניסיון לתכנת את המחשב באמצעות חוקי לוגיקה נוקשים, לשימוש בסטטיסטיקה והסתברות. מדען המחשב יהודה פרל הניח את היסודות למערכות שמסוגלות לפעול גם בתנאי אי-ודאות, אך הפריצה האמיתית בחיקוי המוח הגיעה מכיוון אחר: "רשתות נוירונים". רשת כזו היא למעשה מערכת של שכבות חישוביות, המעבירות מידע זו לזו בדומה לתאים במוח. כדי שהרשת תלמד, פיתחו חוקרים ובהם ג'פרי הינטון את אלגוריתם ה"פעפוע לאחור" (Backpropagation). שיטה זו מאפשרת למערכת להשוות את התשובה שלה לתשובה הנכונה, לחשב את גודל הטעות, ולחזור אחורה כדי לתקן בעדינות את עוצמת הקשרים בין הנוירונים, כך שבפעם הבאה הטעות תהיה קטנה יותר.[14]
על אף שהתיאוריה הייתה קיימת, היא הבשילה רק בשנת 2012, בזכות התכנסות של שני תנאים חדשים: ראשית, מהפכת האינטרנט יצרה מאגרי מידע עצומים ("ביג דאטה"), כמו מיליוני תמונות מתויגות שנדרשו לאימון הרשתות; שנית, החוקרים גילו שמעבדים גרפיים (GPU), שפותחו במקור עבור משחקי מחשב, מסוגלים לבצע את החישובים המתמטיים הנדרשים במהירות עצומה. השילוב הזה הוליד את AlexNet, מודל של "למידה עמוקה" (רשת נוירונים רבת-שכבות) שהוצג בתחרות זיהוי תמונות. בניגוד למודלים הקודמים, שניסו לזהות אובייקטים לפי חוקים ידניים שהוגדרו מראש (כמו "חפש צורה עגולה"), AlexNet למד את המאפיינים בעצמו מתוך הדוגמאות, והתעלה על המתחרים בפער עצום ששינה את התחום[15].
בשנת 2017 חלה קפיצת מדרגה נוספת, הפעם בתחום השפה. חוקרים מחברת גוגל הציגו ארכיטקטורה (מבנה תוכנה) חדשה בשם טרנספורמר. עד אז, מחשבים קראו טקסט כמו בני אדם, מילה אחר מילה – ולכן נטו "לשכוח" את תחילת המשפט כשהגיעו לסופו. הטרנספורמר הציג מנגנון "קשב" (Attention), המאפשר למודל להסתכל על כל המילים במשפט בבת אחת ולזהות קשרים סמויים בין מילים רחוקות (למשל, להבין שהמילה "הוא" בסוף פסקה מתייחסת לאדם שהוזכר בתחילתה)[16]. יכולת זו אפשרה את בנייתם של מודלי שפה גדולים (LLMs), מערכות ענק שלמדו את הסטטיסטיקה של השפה מתוך קריאת כמות טקסטים אדירה הקיימת באינטרנט.
עידן הבינה היוצרת והחתירה לבינה כללית (2022–הווה)
החל משנת 2022, חלה תפנית משמעותית בתחום ומערכות הבינה המלאכותית עברו משלבי מחקר במעבדות סגורות לשימוש נרחב בציבור. התקדמות זו נבעה מההבנה כי הגדלת מודלי השפה בלבד אינה מבטיחה את יכולתם למלא אחר כוונת המשתמש באופן מדויק או בטוח.[17] החוקרים נעזרו בבני אדם כדי לדרג את תשובות המחשב - "למידת חיזוק ממשוב אנושי" (RLHF). תהליך זה "אילף" את המודלים להעדיף תגובות מועילות ובטוחות על פני תשובות סתמיות.[17] המודל הראשון שהדגים הצלחה זו היה InstructGPT, שהצליח לבצע "מטלות שפה" מגוונות, כגון כתיבת קוד תוכנה, סיכום טקסטים ויצירה ספרותית, ברמה שהפתיעה את קהילת המחקר וסללה את הדרך להשקת מודלי שיחה נגישים לכול.[17]
במקביל לעולם השפה, התחוללה פריצת דרך משמעותית בתחום הראייה הממוחשבת עם פיתוח מודלים של "דיפוזיה לטנטית". כדי לייצר תמונה ריאליסטית מבלי לצרוך כוח מחשוב אדיר ויקר, המערכות החדשות החלו לפעול בתוך "מרחב ייצוג דחוס" – ייצוג מתמטי המכיל רק את המידע המהותי על המבנה והצורות של התמונה, במקום לעבד כל פיקסל ופיקסל בנפרד. מודלים אלו הפכו במהרה ל"רב-מודאליים" (Multimodal), כלומר מערכות המסוגלות לגשר בין "חושים" שונים, כמו קבלת הנחיה בטקסט והפיכתה לתמונה תואמת באופן מיידי.[18]
שלב נוסף בהתפתחות היה שכלול יכולות ה"חשיבה" (Reasoning) של המכונה. באמצעות טכניקה המכונה "שרשרת מחשבה" (Chain-of-Thought), למדו המודלים לפתור בעיות מורכבות על ידי פירוקן לסדרה של שלבי ביניים לוגיים, בדומה לאדם הכותב את שלבי הפתרון של תרגיל מתמטי מורכב כדי לא לטעות[19]. יכולת זו אינה משמשת רק להסבר התוצאה למשתמש, אלא הכרחית לאלגוריתם עצמו כדי להגיע למסקנה נכונה.[19] התפתחויות אלו נתפסות כצעדים משמעותיים לקראת היעד של "בינה מלאכותית כללית" (AGI), השאיפה ליצור מערכת המסוגלת לבצע כל משימה אינטלקטואלית שהאדם מסוגל לה.
גיאופוליטיקה ורגולציה: העידן האסטרטגי
העליונות הטכנולוגית של הבינה המלאכותית הפכה אותה לנכס אסטרטגי המגדיר מחדש את יחסי הכוחות העולמיים. במוקד המאבק ניצבים ה"מוליכים למחצה", החומרים המרכיבים את שבבי המחשב המתקדמים, המהווים את התשתית הפיזית ההכרחית להרצת החישובים העצומים של הבינה המלאכותית. הממשל האמריקאי החל להטיל מגבלות ייצוא חריפות שנועדו למנוע מסין גישה ל"נקודות חנק" טכנולוגיות, מתוך הבנה כי השליטה בשבבים היא המפתח לעליונות כלכלית וצבאית בעשורים הקרובים.[20]
מהלכים אלו העניקו משמעות מחודשת למושג ריבונות דיגיטלית. בעוד שבעבר התמקד המונח בשליטה במידע וברשתות תקשורת, כעת הוא מבטא את שאיפתן של מדינות להבטיח בעלות על מלוא שרשרת הערך' החל מייצור שבבים עצמאי, דרך ריכוז הון אנושי מיומן ועד לפיתוח מודלי שפה שאינם תלויים במעצמות זרות[20]. במקביל למרוץ החימוש הטכנולוגי, האיחוד האירופי אישר בשנת 2024 את "חוק הבינה המלאכותית" (EU AI Act). חוק זה הוא הרגולציה המקיפה הראשונה בעולם המדרגת מערכות לפי רמת הסיכון שהן מציבות לזכויות אדם, ואוסרת על שימושים בעלי "סיכון בלתי מתקבל על הדעת", כגון מערכות המבצעות דירוג חברתי של אזרחים[21].
מושגי יסוד וטכנולוגיה
מלוגיקה ללמידה: יסודות למידת המכונה (Machine Learning)

במשך עשורים, הפרדיגמה השלטת בפיתוח תוכנה התבססה על הגדרה מפורשת של חוקים. בגישה זו, המכונה "תכנות מפורש" (Explicit Programming), המתכנת נדרש לתרגם את הפתרון לבעיה לסדרה של הוראות לוגיות מדויקות ("אם מתקיים תנאי X, בצע פעולה Y"). גישה זו יעילה למשימות דטרמיניסטיות ומוגדרות היטב, אך היא נתקלת בקושי מהותי כאשר היא מנסה להתמודד עם בעיות המערבות עמימות או מורכבות גבוהה, שבהן הידע האנושי הוא אינטואיטיבי וקשה לניסוח פורמלי. כפי שציין חלוץ התחום ארתור סמואל, הצורך לפרט את שיטת הפתרון ל"פרטי פרטים מדויקים" הופך משימות רבות ליקרות או בלתי אפשריות למימוש[22].
למידת מכונה מציעה פרדיגמה שונה: במקום להזין למחשב את החוקים, מזינים לו נתונים, ומאפשרים לו לגזור את המודל המתמטי בעצמו מתוך הניסיון שנצבר. בשנת 1997 ניסח המדען טום מיטשל את ההגדרה הפורמלית לתהליך זה: תוכנית מחשב "לומדת" אם ביצועיה במשימה מסוימת משתפרים ככל שהיא צוברת יותר ניסיון[23].
המנגנון התיאורטי: כיצד מכונה "לומדת"?
תהליך הלמידה אינו מתבצע בבת אחת, אלא כתהליך איטרטיבי של שיפור עצמי. לשם כך נדרשים מספר רכיבי ליבה:
- סט האימון (Training Set)
זהו חומר הגלם של הלמידה. הוא מורכב מאוסף דוגמאות היסטוריות שבהן ה"תשובה" ידועה מראש (למשל, נתונים של אלפי דירות ומחיר המכירה שלהן). המערכת סורקת את הנתונים הללו כדי לזהות דפוסים סטטיסטיים סמויים.
- המודל והמשקולות (Model & Weights)
המנגנון של המערכת הוא מודל מתמטי, פונקציה שנועדה לחקות את המציאות ולספק תחזיות. המודל מורכב מפרמטרים ברי-כוונון הנקראים משקולות (Weights, מסומנים לרוב ב-). המשקולות מייצגות את החשיבות היחסית שהמערכת מעניקה לכל מאפיין בנתונים. לדוגמה, במודל ליניארי פשוט, הציון () נקבע על ידי סכום המכפלות של המאפיינים במשקולות שלהם:
כאשר הם המאפיינים (כגון גודל הדירה) ו- הם המשקולות. זוהי דוגמה פשוטה בלבד; מודלים מודרניים של למידה עמוקה משתמשים לעתים בפונקציות לא-ליניאריות מורכבות בהרבה כדי למפות קשרים מסובכים. המטרה המשותפת לכולם היא למצוא אלגוריתמית את ערכי המשקולות האופטימליים.
- פונקציית העלות (Cost Function)
כדי שהמערכת תוכל להשתפר, עליה להיות מסוגלת למדוד את טעויותיה. לשם כך משתמשים בפונקציית עלות, המודדת את הפער המספרי בין התחזית שהמודל הפיק () לבין המציאות (); פער זה מכונה כדלתא ()[24]. הדלתא מספקת למערכת משוב כמותי: ערך גבוה מעיד על סטייה גדולה, וערך נמוך מעיד על דיוק. אחת הפונקציות הנפוצות למדידת הסטייה היא טעות ריבועית ממוצעת (MSE), המסכמת את ריבועי ההפרשים:
אופטימיזציה: הניווט במרחב הטעויות
משהוגדרה פונקציית העלות, משימת הלמידה מתורגמת לבעיית אופטימיזציה מתמטית: איתור ערכי המשקולות שימזערו את הפונקציה לערכה המינימלי. פתרון זה נשען על מיפוי המרחב הגיאומטרי הקושר בין הפרמטרים המשתנים של המודל לבין שיעור השגיאה המתקבל.
נניח לשם המחשה שפונקציית העלות היא מפה טופוגרפית של רכס הרים תלת-ממדי. במפה דמיונית זו:
- המיקומים (צירי ה-X וה-Y): מייצגים את המשקולות השונות (). כל נקודה על המפה היא קואורדינטה המייצגת שילוב ספציפי של משקולות (למשל: נקודה אחת מייצגת נוסחה שבה גודל הדירה מקבל משקל גבוה והמיקום משקל נמוך, ונקודה אחרת מייצגת את ההפך).
- הגובה (ציר ה-Z): מייצג את גודל הטעות (העלות) עבור אותו שילוב משקולות. "פסגה" גבוהה מייצגת שילוב גרוע של משקולות שמוביל לטעויות גדולות בחיזוי, ואילו ה"עמק" העמוק ביותר מייצג את השילוב המושלם שבו הטעות היא מינימלית.

המטרה של המחשב היא למצוא את הנקודה הנמוכה ביותר בשטח, המינימום הגלובלי של הפונקציה. הבעיה היא שהמחשב "עיוור"; הוא אינו רואה את המפה כולה. הוא מכיר רק את המיקום הנוכחי שלו ואת השיפוע המקומי מתחת לרגליו.
כאן נכנס לפעולה האלגוריתם ירידה בגרדיאנט (Gradient Descent). המחשב מחשב את הנגזרת (השיפוע) בנקודה שבה הוא עומד. אם הקרקע משתפלת ימינה, המחשב מבין שכדי לרדת בגובה (כלומר, להקטין את הטעות), עליו לצעוד צעד קטן ימינה. משמעות ה"צעד" היא שינוי מזערי בערך המספרי של המשקולות בכיוון הירידה.
ארתור סמואל תיאר את האתגר כניסיון למצוא את הנקודה האופטימלית בתוך "מרחב ניקוד רב-ממדי" (Multidimensional scoring space). אף על פי שסמואל דיבר במונחים של מקסום ניקוד ("טיפוס לפסגה") בעוד מודלים מודרניים מתמקדים במיזעור שגיאה ("ירידה לעמק"), האתגר הטופולוגי נותר זהה: המערכת מנסה להיחלץ מפתרונות מדומים ("אופטימום מקומי") ולהגיע לפתרון הטוב ביותר הכולל.[25] בעוד שבדוגמה הפשוטה השתמשנו בשני ממדים (שתי משקולות) כדי שנוכל לדמיין זאת ויזואלית, מודלים מודרניים פועלים במרחב רב-ממדי (High-dimensional space) הכולל לעיתים מיליארדי משתנים. במרחב כזה לא ניתן להסתמך על אינטואיציה ויזואלית, אך העיקרון המתמטי נותר זהה: גלישה במורד הפונקציה באמצעות חישוב נגזרות, עד למציאת הסט המדויק של המשקולות שממזער את הפער בין המודל למציאות.[26]
המחשה: מקרה הבוחן של הדמקה
דוגמה היסטורית ליישום עקרונות אלו היא תוכנית הדמקה של ארתור סמואל (1959). במקום לתכנת את המחשב עם אסטרטגיות משחק מוכנות, סמואל הגדיר מודל עם משקולות עבור מאפיינים שונים של הלוח, כגון יתרון במספר הכלים () או יכולת התנועה (). בתחילה, המשקולות היו אקראיות והמחשב שיחק ברמה נמוכה. אולם, לאחר כל משחק, המערכת חישבה את הדלתא – הפער בין הערכת המצב שלה לבין תוצאת המשחק בפועל. באמצעות תהליך האופטימיזציה, המחשב עדכן את המשקולות באופן עצמאי: הוא למד, למשל, להעניק משקל נמוך יותר ליתרון חומרי רגעי אם זה מוביל למלכודת בטווח הארוך. כתוצאה מכך, המערכת הצליחה ללמוד לשחק ברמה גבוהה מתוך הניסיון בלבד, ללא התערבות אנושית בהגדרת האסטרטגיה[27].
סוגי למידה עיקריים

נהוג לסווג את אלגוריתמי הלמידה לשלוש פרדיגמות מרכזיות, הנבדלות זו מזו באופי המידע המוגש למערכת ובסוג המשוב שהיא מקבלת במהלך האימון[28]:
- 1. למידה מונחית (Supervised Learning)
זוהי הגישה הנפוצה ביותר כיום ביישומים מסחריים. בשיטה זו, המערכת לומדת בדומה לתלמיד הנעזר במורה שמחזיק את "התשובות הנכונות".
המחשב מקבל סט נתונים שבו כל דוגמה (קלט) כבר מקושרת לתשובה הרצויה (פלט או "תגית"). המטרה של האלגוריתם היא ללמוד את המיפוי בין הקלט לפלט, כך שיוכל לחזות את התשובה הנכונה גם עבור נתונים חדשים שלא ראה מעולם. למידה מונחית מתחלקת לרוב לשני סוגים של בעיות:
- סיווג (Classification): כאשר התשובה היא קטגוריה בדידה (למשל: האם המייל הוא "ספאם" או "רגיל"? האם בתמונה מופיע "חתול" או "כלב"?).
- רגרסיה (Regression): כאשר התשובה היא מספר רציף (למשל: חיזוי מחיר של דירה או טמפרטורה מחר).
- 2. למידה בלתי מונחית (Unsupervised Learning)

בגישה זו, המחשב פועל כחוקר עצמאי. הוא מקבל הררי נתונים גולמיים ללא שום תיוג, הסבר או "תשובות נכונות". המטרה שלו היא למצוא בכוחות עצמו מבנה פנימי, חוקיות או דפוסים נסתרים בתוך המידע. היישום הקלאסי של שיטה זו הוא קיבוץ (Clustering): האלגוריתם מקבל אוסף של פריטים ומחלק אותם לקבוצות על בסיס דמיון סטטיסטי. דוגמה נפוצה היא במערכות שיווק: המחשב מקבל היסטוריית רכישות של מיליוני לקוחות, ומחלק אותם לפלחים שונים ("חובבי טכנולוגיה", "הורים צעירים") מבלי שהמתכנת הגדיר לו מראש את הפרופילים הללו.
- 3. למידה מחיזוקים (Reinforcement Learning - RL)
גישה זו שונה מהותית מהקודמות, שכן היא אינה עוסקת בניתוח נתונים סטטיים אלא בקבלת החלטות דינמית. כאן המחשב הוא סוכן (Agent) הפועל בתוך סביבה (כמו לוח משחק או כביש אמיתי). הלמידה מתבצעת בשיטה של ניסוי וטעייה: הסוכן מבצע פעולה, ובתגובה מקבל מהסביבה משוב המכונה חיזוק, ניקוד חיובי על פעולה רצויה או שלילי ("עונש") על טעות. המטרה אינה לנצח בצעד בודד, אלא ללמוד "מדיניות" שתמקסם את סך הניקוד לאורך זמן. דוגמה חלוצית לכך היא כאמור תוכנית הדמקה של ארתור סמואל (1959). התוכנה לא קיבלה מאגר של מהלכים מנצחים, אלא שיחקה שוב ושוב נגד עצמה. כשהפסידה, היא קיבלה "עונש" ולמדה להימנע מהרצף שהוביל להפסד; כשהרוויחה כלי או ניצחה, היא קיבלה "חיזוק". כך, ללא ידע מוקדם, היא פיתחה אסטרטגיות מורכבות שהתחרו באלופי עולם אנושיים[29].
המנוע העמוק: רשתות עצביות מלאכותיות (Neural Networks)
בעוד שלמידת מכונה קלאסית נשענת לרוב על מודלים שבהם המאפיינים (Features) מוגדרים ידנית על ידי מהנדסים, רשתות עצביות מלאכותיות (Artificial Neural Networks - ANN) מהוות שינוי פרדיגמה: הן מערכות המסוגלות ללמוד באופן עצמאי את הייצוגים הפנימיים של המידע מתוך נתונים גולמיים. המבנה שואב השראה ביולוגית מרשתות הנוירונים במוח האנושי, אך בבסיסו הוא מערכת מתמטית היררכית המבוססת על אלגברה ליניארית וחשבון דיפרנציאלי.[30] כפי שהסבירו חלוצי התחום, שיטות אלו מאפשרות למכונה לפענח את המבניות הסבוכה ללא צורך בהנדסת מאפיינים ידנית ומפרכת.[31]
ארכיטקטורה: מבנה הרשת

רשת עצבית מורכבת מאוסף של יחידות עיבוד ("נוירונים") המאורגנות בשכבות:
- שכבת קלט (Input Layer): השכבה הראשונה הקולטת את המידע הגולמי. לדוגמה, בראייה ממוחשבת, כל נוירון בשכבה זו מייצג את ערך הבהירות של פיקסל בודד בתמונה.
- שכבות נסתרות (Hidden Layers): שכבות הביניים שבהן מתבצע עיבוד המידע. ברשתות "עמוקות" (Deep Learning) קיימות עשרות או מאות שכבות כאלו. תפקידן לשנות את המידע לרמה מופשטת יותר ויותר[31].
- שכבת פלט (Output Layer): השכבה הסופית המתרגמת את החישובים לתוצאה מוחשית, כגון סבירות שהתמונה מכילה "חתול" או "כלב".
המנגנון המתמטי: כיצד הנוירון מחליט?
ה"אטום" הבסיסי של הרשת הוא הנוירון המלאכותי. ניתן לחשוב עליו כעל שער חכם המקבל פיסות מידע שונות, משקלל את חשיבותן, ומחליט איזה איתות (אם בכלל) להעביר הלאה לשכבה הבאה. לפי המודל המקובל, כל נוירון מורכב משלושה רכיבים פונקציונליים:[32]
- הסינפסות (המשקולות): המייצגות את עוצמת הקשר לכניסות השונות.
- המסכם (Adder): שמבצע סכום ליניארי של הקלטים המשוקללים.
- פונקציית האקטיבציה: שמכריעה מה יהיה הפלט הסופי.
תהליך זה מתואר בנוסחה הבאה:
כאשר:
- (הקלט): הנתונים הנכנסים לנוירון (למשל, פיקסלים של תמונה או פלט של נוירונים מהשכבה הקודמת).
- (המשקולת - Weight): מספר הקובע את חשיבות הקלט. אם המשקל גבוה, לקלט תהיה השפעה דרמטית על ההחלטה; אם הוא אפס, הקלט יתעלם. זהו הפרמטר שהרשת "לומדת" ומשנה במהלך האימון.
- (הסכום הליניארי): הנוירון מסכם את כל המכפלות (קלט משקל). תוצאה זו מייצגת את "סך כל העדויות" בעד או נגד ההחלטה.
- (הטיה - Bias): ערך סף המאפשר לנוירון להזיז את נקודת ההפעלה שלו. הוא קובע כמה גבוה צריך להיות הסכום כדי שהנוירון יהיה "פעיל".
פונקציית האקטיבציה והאי-ליניאריות

לאחר חישוב הסכום, התוצאה עוברת דרך פונקציית האקטיבציה (). זהו הרכיב הקריטי ביותר ברשת, המכניס למערכת תכונה הנקראת אי-ליניאריות.
מהי אי-ליניאריות ומדוע היא הכרחית? אם הנוירונים היו מבצעים רק פעולות חיבור וכפל (פעולות ליניאריות), הרשת כולה – לא משנה כמה שכבות עמוקות היו לה – הייתה שקולה למערכת שטוחה ופשוטה של רגרסיה ליניארית (קו ישר). מערכת כזו יכולה ללמוד יחסים פשוטים (כמו המרה בין מטבעות), אך היא אינה מסוגלת לתפוס מורכבות של העולם האמיתי, כמו ההבדל הוויזואלי המפותל שבין חתול לכלב.
פונקציית האקטיבציה (כגון ReLU או סיגמואיד) מעקמת את המרחב ומאפשרת לרשת ליצור גבולות החלטה מורכבים ולא ישרים. תכונה זו הוכחה מתמטית ב"משפט הקירוב האוניברסלי" (Universal Approximation Theorem), הקובע כי רק באמצעות רכיב לא-ליניארי זה, רשת עצבית מסוגלת לקרב כל פונקציה מתמטית בטבע, מסובכת ככל שתהיה[33].
למידה עמוקה ויכולת הפשטה

הכוח הייחודי של למידה עמוקה טמון ביכולת לבנות היררכיה של מושגים. ככל שמתקדמים בשכבות הרשת, המידע הופך מפיזיקלי למושגי. מחקרים שהשתמשו בויזואליזציה של רשתות (Deconvolutional Networks) הדגימו תהליך זה בבירור:[34]
- שכבות ראשונות: מזהות מאפיינים גרפיים פשוטים כמו קווים, פינות וניגודיות צבע.
- שכבות אמצעיות: מצרפות את הקווים לתבניות מורכבות יותר, כגון טקסטורות, עיגולים או חלקי אובייקטים (כמו עין או גלגל).
- שכבות עמוקות: מזהות אובייקטים שלמים ומושגים מופשטים, ומסוגלות להבדיל בין סוגים שונים של כלבים או מכוניות, ללא תלות בזווית הצילום.
פרדוקס "הקופסה השחורה"
למרות ביצועיהן המרשימים, רשתות עמוקות נחשבות לרוב ל"קופסאות שחורות" (Black Boxes) בשל המבנה הסבוך והלא-ליניארי שלהן, המקשה על בני אדם להבין את הסיבה לקבלת החלטה ספציפית.[35] כדי להתמודד עם אתגר זה, פותחו שיטות ל"בינה מלאכותית מוסברת" (XAI). אחת הטכניקות הפופולריות היא יצירת מפות חום (כגון Grad-CAM), המסמנות אילו אזורים בתמונה השפיעו ביותר על החלטת הרשת. כך למשל, אם הרשת סיווגה תמונה כ"רופא", מפת החום יכולה להראות שההחלטה התבססה על הסטטוסקופ והחלוק הלבן, ובכך לאשש שהרשת למדה מאפיינים רלוונטיים ולא הטיות רקע.[36]
המהפכה הלשונית: טרנספורמרים ומודלי שפה גדולים (LLMs)
בעשור השלישי של המאה ה-21, מודלי שפה גדולים (LLMs) הפכו ממושג אקדמי תיאורטי לטכנולוגיה המשנה את שוק העבודה והמחקר. אם בעבר מחשבים ידעו רק "לשלוף" מידע קיים (כמו מנוע חיפוש), המודלים החדשים מסוגלים ליצור תוכן חדש לחלוטין: החל מכתיבת שירת הייקו, דרך תכנות קוד מורכב ועד ניתוח דוחות פיננסיים.
הציבור הרחב נחשף לטכנולוגיה זו בעיקר דרך ממשקי שיחה מתקדמים, המבוססים על מודלי יסוד:
- ChatGPT (של חברת OpenAI): המבוסס על ארכיטקטורת GPT, שהפגין לראשונה יכולות שיחה, כתיבה ופתרון בעיות ברמה אנושית[37].
- Gemini (של חברת גוגל) ו-Claude (של חברת Anthropic): מודלים שהציגו יכולות מתקדמות בעיבוד כמויות אדירות של טקסט ("חלון הקשר" רחב) ובהבנה רב-תחומית.[38]
מעבר לשימושים כלליים, הטכנולוגיה מיושמת במערכות מומחה ייעודיות. דוגמה בולטת היא בתחום הרפואה, שם מודלים כמו Med-PaLM הצליחו לעבור מבחני רישוי רפואיים ולספק תשובות קליניות מדויקות, לעיתים ברמה המשתווה לרופאים מומחים[39]. היכולת של מכונה "להבין" הקשרים מורכבים, לנהל דו-שיח ולייצר ידע חדש, נשענת על ארכיטקטורה מהפכנית שפותחה בשנת 2017.
עד לשנה זו, מודלים לעיבוד שפה טבעית (כגון RNN) קראו טקסט באופן סדרתי, מילה אחר מילה. שיטה זו הגבילה את יכולתם לזכור הקשרים ארוכי-טווח ואת מהירות האימון שלהם. נקודת המפנה התרחשה עם פיתוח ארכיטקטורה חדשה בשם טרנספורמר (Transformer). החידוש המרכזי היה ויתור מוחלט על העיבוד הסדרתי (Recurrence) והחלפתו במנגנון המבוסס כולו על "קשב" (Attention), המאפשר למודל לעבד את כל המילים במשפט במקביל.[40]
מנגנון הקשב העצמי (Self-Attention)
בליבו של הטרנספורמר פועל מנגנון הקשב העצמי. מנגנון זה מאפשר למודל לנתח את הקשרים בין כל המילים במשפט במקביל, ולקבוע איזו מילה רלוונטית לשנייה, ללא תלות במרחק הפיזי ביניהן בטקסט[41].
כדי לבצע את הקישור, המודל יוצר עבור כל מילה שלושה ייצוגים וקטוריים (רשימות מספרים) שונים, המגדירים את התפקיד שלה באינטראקציה:
- השאילתה ( - Query): וקטור המייצג את "מה המילה מחפשת". לדוגמה, המילה "הוא" מחפשת שם עצם ממין זכר שהוזכר קודם לכן.
- המפתח ( - Key): וקטור המייצג את המאפיינים המזהים של המילה לצורך חיפוש. לדוגמה, המילה "בנק" משדרת שהיא שם עצם, זכר, דומם וכו'.
- הערך ( - Value): וקטור המכיל את התוכן הסמנטי הממשי של המילה, שיועבר הלאה במידה ותימצא התאמה.
המחשב משתמש בפעולה מתמטית הנקראת מכפלה סקלרית. פעולה זו מודדת את מידת הדמיון הכיווני בין וקטור השאילתה של מילה אחת לבין וקטור המפתח של מילה אחרת.
כאשר המכפלה הסקלרית גבוהה, זהו סימן להתאמה חזקה. במצב זה, המודל מעניק למילה שנמצאה "משקל" (Attention Weight) גבוה, ומערבב את הערך () שלה לתוך הייצוג של המילה המקורית. כך, המילה "הוא" סופגת לתוכה את המשמעות של המילה "בנק", והמודל מבין את ההקשר המדויק[41].
יחידת הבסיס: הטוקן (Token)
המחשב אינו קורא מילים שלמות במובן האנושי, אלא מפרק את הטקסט ליחידות הנקראות טוקנים (Tokens). טוקן יכול להיות מילה שלמה, חלק ממילה (הברה), או אפילו תו בודד. במודלים מודרניים כמו הטרנספורמר, נעשה שימוש בשיטות דחיסה כגון Byte Pair Encoding (BPE), המחלקות מילים נפוצות לטוקן יחיד, ומילים נדירות לכמה טוקנים. שיטה זו מאפשרת למודל להתמודד ביעילות עם אוצר מילים פתוח, עם הטיות דקדוקיות מורכבות ועם שפות רבות, תוך שמירה על יעילות חישובית[42].
המנוע: חיזוי הטוקן הבא (Next Token Prediction)
מודלי השפה גדולים אינם "מבינים" את השפה, אלא פועלים כמנועים סטטיסטיים משוכללים. המשימה המרכזית שלהם היא חיזוי הטוקן הבא: בהינתן רצף של טוקנים (Prompt), המודל מחשב את ההסתברות הסטטיסטית של הטוקן הבא בתור. במאמר המנתח את GPT-3, החוקרים פלורידי וקיריאטי מסבירים כי המודל הוא "מנוע להשלמה אוטומטית" בקנה מידה עצום. הוא לומד תבניות לשוניות מתוך מאגרי מידע אינסופיים, אך נעדר הבנה סמנטית אמיתית או כוונה. כל פלט שהוא מייצר הוא תוצאה של חישוב הסתברותי שנועד למצוא את ההמשך הסביר ביותר לרצף הטוקנים שהוזן לו.[43]
אתגרים ומגבלות: הזיות (Hallucinations)
האופי ההסתברותי של המודל מוביל לאחת התופעות המוכרות והבעייתיות בתחום: יצירת תוכן שנשמע משכנע ורהוט, אך הוא שגוי עובדתית או מומצא לחלוטין. בספרות המקצועית, תופעה זו מכונה הזיה (AI Hallucination). בסקירה שיטתית של התחום, התופעה מוגדרת כיצירת טקסט שנראה נאמן למציאות או לקלט, אך למעשה מכיל מידע שקרי שאינו נתמך על ידי הנתונים.[44] חשוב להבין כי תופעה זו איננה באג כי אם תכונה הנובעת מכך שהמודל לא נועד לשלוף עובדות מתוך מסד נתונים, אלא לייצר את רצף הטוקנים הסביר ביותר סטטיסטית. כתוצאה מכך, המודל עשוי לחבר שברי מידע אמיתיים לכדי "עובדה" חדשה שלא התרחשה מעולם.[45]
המהפכה הוויזואלית: מודלי דיפוזיה ובינה מלאכותית יוצרת (Generative AI)

בעוד שמהפכת השפה התמקדה בחיזוי סדרתי של טקסט, המהפכה הוויזואלית בבינה מלאכותית נדרשה לפתור בעיה מתמטית מסוג שונה לחלוטין: יצירת אובייקט רב-ממדי מורכב, כגון תמונה פוטוריאליסטית (דמוית-צילום), מתוך "דף חלק". עד תחילת שנות ה-20 של המאה ה-21, הניסיונות ליצור תמונות באמצעות מחשב נשענו בעיקר על רשתות יריבות (GANs). בשיטה זו, מודל אחד ניסה לייצר תמונה ומודל שני ניסה לזהות אם היא מזויפת. למרות הצלחות מסוימות, מודלים אלו סבלו מחוסר יציבות ומנטייה לייצר שוב ושוב את אותן תמונות. המעבר למודלי דיפוזיה (Diffusion Models) שינה את הפרדיגמה מיצירה ישירה לתהליך של שחזור הדרגתי, והוביל לתוצאות איכותיות בהרבה הן בנאמנות למקור והן במגוון[46].
מודלי דיפוזיה: פיזיקה בשירות האלגוריתם
המונח "דיפוזיה" (פעפוע) שאול מתחום הפיזיקה והתרמודינמיקה. בטבע, דיפוזיה מתארת תהליך שבו חלקיקים מתפזרים מאזור של ריכוז גבוה לאזור של ריכוז נמוך עד להגעה לשיווי משקל. דוגמה לכך היא טיפת דיו המטפטפת לכוס מים: בתחילה הדיו מרוכז בנקודה אחת (מצב של סדר), ולאט לאט הוא מתפזר עד שהמים נצבעים בגוון אחיד ועכור (מצב של אי-סדר או במונחים פיזיקליים יותר, אנטרופיה גבוהה).
מודלי דיפוזיה בבינה מלאכותית מחקים תהליך זה, אך לומדים לבצע אותו גם בכיוון ההפוך, נגד ציר הזמן. המודל מבוסס על שרשרת תהליכים הסתברותית בהשראת תרמודינמיקה של אי-שיווי משקל:[47]
- התהליך הקדמי (הוספת רעש): המערכת לוקחת תמונה ברורה ומוסיפה לה בהדרגה רעש גאוסיאני (הפרעות אקראיות לערכי הפיקסלים), עד שהתמונה הופכת למשטח של רעש אקראי מוחלט, חסר כל משמעות ויזואלית.
- התהליך ההפוך (היצירה): המודל לומד לבצע את הפעולה ההפוכה, "ניקוי רעשים". הוא מקבל תמונה רועשת ומנסה לחזות כיצד היא נראתה רגע אחד לפני שהוסף לה הרעש.
כאשר המודל נדרש ליצור תמונה חדשה, הוא מתחיל מתבנית של רעש אקראי. באמצעות ביצוע חוזר ונשנה של פעולת הניקוי, המודל מחלץ מתוך הרעש את המבנה הרצוי, שכבה אחר שכבה, עד לקבלת תמונה חדה.
יעילות חישובית: המרחב הלטנטי (Latent Space)

עבודה ישירה על כל הפיקסלים של תמונה ברזולוציה גבוהה דורשת כוח חישוב עצום. כדי להתגבר על כך, פותחו מודלים הפועלים במרחב לטנטי (Latent Diffusion Models - LDMs). בשיטה זו, המחשב לא עובד על התמונה המקורית, אלא על ייצוג דחוס ומתמטי שלה. רשת מקדימה (Autoencoder) "דוחסת" את התמונה לקוד מתמטי המכיל רק את המידע הסמנטי החשוב (כמו קומפוזיציה וצבעים) ומשמיטה פרטים מיותרים. תהליך הדיפוזיה מתבצע על הייצוג הדחוס הזה, מה שמאפשר חיסכון דרמטי במשאבים וגישה למחשבים אישיים רגילים, תוך שמירה על איכות ויזואלית גבוהה[48].
הגישור הסמנטי: משפה לראייה (CLIP)
כדי לשלוט בתהליך הדיפוזיה ולכוון אותו ליצירת תמונה התואמת בקשה מילולית, נדרש רכיב המתרגם שפה טבעית לייצוג מתמטי שהמודל הוויזואלי מבין. פריצת הדרך בתחום זה הגיעה עם פיתוח מודל CLIP על ידי חברת OpenAI. המודל אינו מנסה לחזות את המילה הבאה כמו מודל שפה רגיל, אלא לומד מרחב משותף (Shared Embedding Space) לטקסט ולתמונות. המודל אומן על מאגר עצום של 400 מיליון זוגות של תמונות והכיתובים שלהן מהאינטרנט. במהלך האימון, הוא לומד לייצר ייצוג וקטורי עבור תמונה, וייצוג וקטורי עבור טקסט, כך שאם התמונה והטקסט מתארים את אותו הדבר – הווקטורים שלהם יהיו דומים מאוד מתמטית.[49] כך, כאשר משתמש מקליד "כלב", המערכת מתרגמת את המילה לווקטור, ומנחה את מודל הדיפוזיה לייצר תמונה שהייצוג המתמטי שלה תואם את אותו וקטור.
מחזור החיים של מודל בינה מלאכותית
פיתוח של מודל בינה מלאכותית מודרני אינו מסתכם בכתיבת קוד, אלא מורכב מרצף של שלבי עיבוד נתונים, אופטימיזציה מתמטית וכיול אנושי. תהליך זה נועד להפוך מאגרי מידע עצומים לישות המסוגלת לבצע משימות מורכבות, תוך שמירה על בטיחות ודיוק.
1. אימון מקדים (Pre-training): רכישת הידע הגולמי
זהו השלב היקר והאינטנסיבי ביותר במחזור החיים. בשלב זה, המודל נחשף לכמויות אדירות של נתונים לא מסווגים מהאינטרנט (טקסט, תמונות או קוד) במטרה ללמוד את החוקיות הסטטיסטית של העולם. כאמור במודלי שפה, המטרה היא "חיזוי הטוקן הבא", ובמודלים ויזואליים, למידת קשרים בין טקסט לתמונה במרחב משותף[50]. התוצר של שלב זה נקרא מודל בסיס. המודל אמנם מחזיק ב"ידע" נרחב, אך הוא אינו יודע לציית להוראות ועשוי לייצר פלטים שקריים או פוגעניים, שכן הוא רק מחקה את דפוסי הטקסט עליהם אומן.[51]
2. כוונון עדין ויישור ערכים (Alignment)
כדי להפוך את המודל הגולמי לעוזר שימושי (כמו ChatGPT), עליו לעבור תהליך של כוונון עדין (Fine-tuning) ויישור ערכי (Alignment). שלב זה מתחלק לשלושה מרכיבים מרכזיים:
- כוונון להוראות (Instruction Tuning): אימון המודל על קובצי נתונים שבהם המשימות מנוסחות כהוראות מפורשות. תהליך זה משפר דרמטית את יכולת המודל לבצע משימות חדשות שלא ראה קודם.[52]
- למידת חיזוק ממשוב אנושי (RLHF): בני אדם מדרגים פלטים שונים של המודל לפי רמת הדיוק והבטיחות שלהם. המידע משמש לבניית "מודל תגמול" (Reward Model), המאמן את ה-AI למקסם את שביעות הרצון האנושית. הוכח כי תהליך זה מאפשר למודלים קטנים יחסית לנצח מודלי ענק גולמיים במבחני איכות.[53]
- בינה מלאכותית חוקתית (Constitutional AI): גישה מתקדמת שבה המודל מאמן את עצמו על בסיס קבוצת עקרונות (חוקה) שהגדירו בני אדם, ללא צורך במשוב אנושי רציף לכל שאלה. המטרה היא להשיג מודל שהוא גם מועיל וגם בלתי-מזיק בו-זמנית.[54]
3. שלב ההסקה (Inference): המודל בפעולה
שלב זה הוא המפגש של המודל המאומן עם המשתמש הסופי. בתהליך ההסקה, המודל אינו לומד יותר, אלא מחשב את הפלט הסביר ביותר עבור הקלט שקיבל (ה-Prompt). האתגר המרכזי בשלב זה הוא יעילות: מודלים גדולים דורשים משאבי מחשוב כבדים כדי לענות בזמן אמת. שימוש בטכניקות של עבודה במרחב לטנטי מאפשר למחשב לבצע את החישובים על ייצוג מתמטי דחוס במקום על נתוני המקור (כמו פיקסלים), ובכך להאיץ את התגובה ולאפשר הרצה של בינה מלאכותית גם על חומרה ביתית.[55]
ביקורת והתייחסויות לבינה מלאכותית
ערכים מורחבים – סיכוני בינה מלאכותית, סכנה קיומית מבינה מלאכותית כללית
בשנות ה־60 של המאה ה־20, מספר מחקרים דחו את האפשרות של בינת מכונה מסיבות פילוסופיות או לוגיות, כגון "השכל, המכונה וגדל" (1961) מאת ג'ון לוקאס. עם ההתפתחות של טכניקות פרקטיות המבוססות על מחקר הבינה המלאכותית, עלו טענות כי המתנגדים לבינה מלאכותית שינו כל הזמן את עמדתם ביחס למשימות כמו שחמט ממוחשב או הבנת שפה שקודם נחשבו כ"תבוניות", על מנת להכחיש את ההצלחות של הבינה המלאכותית. דאגלס הופשטטר בספרו "גדל, אשר, באך" (Gödel, Escher, Bach) אומר, כי הזזת היעדים הזו היא למעשה אמירה ש"תבונה" היא "כל מה שאדם יכול לעשות ומחשבים לא יכולים". מדען המחשב א.וו. דייקסטרה לא התלהב מייחוס יכולת חשיבה למחשב, וטען כי "השאלה האם מחשב יודע לחשוב דומה לשאלה האם צוללת יודעת לשחות". היינו שמעשה מכונה מכח תיכנות, אינו מעשה תבוני, ששייך להגדירו כידיעה.[56]
נכון ל־2017, ישנם מדענים הטוענים, כי הכינוי "בינה מלאכותית" הוא "הקבוצה של הבעיות במדעי המחשב שאין להן פתרונות טובים כרגע".[דרוש מקור] כלומר, ברגע שתת־תחום כלשהו מגיע לתוצאה מוצלחת, הוא מוצא מתחום הבינה המלאכותית וניתן לו שם אחר. דוגמאות לזה הן זיהוי תבניות, עיבוד תמונה, רשתות נוירונים, עיבוד שפה טבעית, רובוטיקה ותורת המשחקים. אם כי השורשים של כל אחת מהדיסציפלינות האלה בבינה המלאכותית, בהדרגה הפכו לתחומים נפרדים.
ביקורת נוספת טוענת שהטמעת AI באופן שגוי עלולה לגרום לבעיות בטיחות מידע[57].
רגולציה
בסוף העשור השני של המאה ה-21 החלו להופיע התייחסויות ראשוניות לבינה מלאכותית גם בחוקים ותקנות. בהסכמי הסחר שנחתמו בין ארצות הברית, קנדה ומקסיקו, הייתה התייחסות גם לקיום זרימת נתונים חוצת גבולות של בינה מלאכותית, לצד התחייבות להגנה על זכות הפרטיות של אזרחים מפני טכנולוגיות בינה מלאכותית. אזכורים אחרים היו גם בהסכמי סחר נוספים.[58]
השימוש של סין בבינה מלאכותית נחשב במערב לכזה שאינו תואם את ערכי החירות של הדמוקרטיות הליברליות.[58] אף על פי כן, בשנת 2021 הייתה סין למדינה הראשונה בעולם שפרסמה תקנות אתיקה הנוגעות לשימוש בבינה מלאכותית, שמטרתן לאפשר לגולשים, בכל פעם שאמורה לפעול מולם מערכת של בינה מלאכותית, לבחור באופן אקטיבי האם להפעיל או לבטל אותה. כלומר, על ספק השירות להציע במקביל גם אפשרות שאינה מבוססת על בינה מלאכותית שתהייה נגישה לגולשים שיבחרו בכך.[59] עם זאת, נושא האתיקה בסין מורכב, מכיוון שבמקרים שונים גישתה של סין, שבאופן כללי אינה נוטה לכבד את זכותם לפרטיות של אזרחיה, סייעה להתפתחות תחום הבינה במלאכותית במדינה תוך גישה להיקפי מידע שאין בנמצא במדינות אחרות, דוגמת מסד נתונים רחב של צילומי וידאו עם טכנולוגיה של זיהוי תווי פנים,[60] ותוך שימוש במערכת אשראי חברתי המנוגדת למתווים הבינלאומיים העוסקים באתיקה של בינה מלאכותית.[61]
בשנת 2023, בייג'ינג ריככה את ההנחיות לחברות המפתחות מודלים של בינה מלאכותית, אך היא עדיין דרשה שצ'אטבוטים יעברו תהליך של הערכה ביטחונית וידבקו בסוציאליזם. מנגד הרגולציה במדינה גרמה לכך שחברות הטכנולוגיה הסיניות לא מיהרו להשיק את צ'אטבוטים שלהן.[62]
שבוע אחרי הסינים, הממשל האמריקאי הודיע על כך שהצליח להוציא התחייבויות וולונטריות משבע חברות טכנולוגיה אמריקניות בכל הנוגע לניהול סיכונים הנשקפים מבינה מלאכותית. למשל, יפותחו מנגנונים כמו "סימון מים כדי לעזור למשתמשים להבחין מתי תוכן אודיו או ויז'ואל נוצר בעזרת בינה מלאכותית.[63][64]
לאחרונה אישר הפרלמנט האירופי את חוק הבינה המלאכותית, החוק מחלק את השימושים בבינה מלאכותית לקטגוריות. החוק אוסר שימושים מסוימים בבינה מלאכותית בגלל הסיכונים לבטיחות, לפרנסה ולזכויות של אזרחי האיחוד האירופי.
במאי 2024 קראו 25 חוקרים בעלי שם עולמי, ביניהם ממדעני המחשב החשובים בעולם, להשית אחריות משפטית על נזקי AI שאפשר לחזות ולמנוע. הם דורשים מחברות הבינה המלאכותית להקצות לפחות שליש מתקציבן לבחינת בטיחות ומניעת סיכונים. הם מסבירים כי כבר היום מזרזת בינה מלאכותית באופן דרמטי את פיתוחה שלה עצמה ונזקים עצומים כמו במדע בדיוני עלולים להיגרם תוך שנתיים-שלוש. לדוגמה, רובוטים לוחמים שיוכלו למנוע את כיבויים והם "יבחרו" נגד מי לפעול וגם לפגוע בתשתיות.
באוגוסט 2024, משרד החדשנות, המדע והטכנולוגיה פרסם, במעמד מחייב, את מסמך "עקרונות, מדיניות, רגולציה ואתיקה" שהופץ בדצמבר 2023[65]. המסמך, בין השאר, מגדיר שאין כוונה לפרסם חקיקה ראשית, בשלב זה ושהציפייה של הממשלה, לגבי תחומים שיש להם רגולטור ייעודי - שהרגולטור הענפי המדובר, יגדיר את האסדרה הנדרשת בתחום עליו הוא מופקד. ככל הידוע, התחום היחידי לגביו פורסם מסמך כזה הוא התחום הפיננסי וגם הוא, נכון למרץ 2025, אינו במעמד מחייב. הנושא נמצא במחלוקת, בישראל, בעיקר על רקע העובדה שגם האיחוד האירופאי וגם ארצות הברית, כן מפרסמות מסמכי אסדרה ייעודיים.
באוגוסט 2025, הלשכה לטכנולוגיות המידע בישראל הכריזה על מתן הסמכה למקצוע מיישם בינה מלאכותית, במסלול של 4 רמות הסמכה: מורשה, מוסמך, מומחה, בכיר.[66]
קניין רוחני
ערך מורחב – בינה מלאכותית וזכויות יוצרים
המודלים משתמשים בכמויות עצומות של מידע מהרשת ודבר זה מייצר דיונים רבים מאחרי הקלעים של חברות טכנולוגיות עם דגש על רלוונטיות של חוקים אלה בעידן הנוכחי.[67] חלק מיוצרי המידע כבר אינם מוכנים לספק אותו בחינם. לדוגמה, הניו יורק טיימס.[68] באוגוסט 2023 פורסם כי הניו יורק טיימס, CNN והשידור הציבורי באוסטרליה החליטו לחסום את הבוט של OpenAI מלקצור את תוכניהם.[69]
בינה מלאכותית מודרנית

מחקר הבינה המלאכותית המודרני עוסק ביצירת תוכנות ומכונות מועילות על מנת לעשות משימות שבני אדם מבצעים, המצריכות תבונה, באופן אוטומטי. למשל תזמון משאבים - כמו יחידות צבאיות - ביעילות המרבית, מענה על שאלות לגבי מוצרים עבור לקוחות, עיבוד והבנת שפה טבעית (אנ') וזיהוי פנים במצלמות טלוויזיה במעגל סגור. לכן בינה מלאכותית נעשתה לדיסציפלינה הנדסית, העוסקת בפתרון בעיות מעשיות. לדוגמה, על־פי שיטות של בינה מלאכותית אורגנו המשאבים הצבאיים של ארצות הברית במלחמת המפרץ, והכספים שנחסכו בעקבות כך עלו בהרבה על ההשקעה של הממשלה האמריקאית בתחום הבינה המלאכותית מאז תחילת המחקר בשנות ה־50. מערכות בינה מלאכותית נכנסו לשימוש בעסקים רבים, בתי חולים ויחידות צבאיות סביב העולם, וכן מורכבות בתוכנות ובמשחקים רגילים.
שיטות של בינה מלאכותית משמשות גם פעמים רבות במחקר המדע הקוגניטיבי, שמנסה ליצור מודל של תת־מערכות של ההבנה והחשיבה האנושית. בעבר המטרה הסופית של חוקרי בינה מלאכותית הייתה "בינה מלאכותית חזקה", כלומר חיקוי של בינה אנושית ממש. אפשר לראות מחשבים כאלה בסרטי מדע בדיוני רבים, כמו המחשב HAL 9000 בסרט "2001: אודיסיאה בחלל". מטרה זו כנראה לא תמומש בעתיד הקרוב, וכבר כיום הוא אינו המטרה של מחקר הבינה המלאכותית הרציני. בגלל אי־המילוי של ציפיות בעבר יצא לתחום מוניטין רע, וכן בשל ציפיות שהתעוררו על ידי המדע הבדיוני. מסיבה זו, חוקרי בינה מלאכותית רבים אומרים[דרוש מקור] כי הם עובדים בתחום הקוגניציה, אינפורמטיקה, הסקה סטטיסטית או הנדסת מידע (אנ'). ישנן פרדיגמות מחקריות רבות בתחום, ועדיין אין קונצנזוס על הצורה הטובה ביותר להמשיך במחקר. תחומי מחקר מהעת האחרונה כוללים רשתות בייאסיניות וחיים מלאכותיים; דוגמה לתוכנת חיים מלאכותיים היא Boids.
תחום חשוב בבינה המלאכותית הוא שפה טבעית. לתחומים רבים בבינה מלאכותית פותחו תוכנות או שפות תכנות במיוחד בשבילם. לדוגמה, אחת מתוכנות הדיבור (chatterbot) הדומות ביותר לאדם, "אלייס" (A.L.I.C.E), משתמשת בשפת תכנות AIML שהיא ספציפית בשבילה, ולתוכנות שהתפתחו ממנה. ובכל זאת, A.L.I.C.E מבוססת על התאמת תבניות ללא כל הסקת מסקנות, בדומה לתוכנות ישנות יותר. ג'אברוואקי (Jabberwacky) קרוב קצת יותר לבינה מלאכותית חזקה, מכיוון שהוא לומד כיצד לדבר רק מאינטראקציה עם המשתמש.
אף על פי שההתקדמות לקראת המטרה הסופית של בינה מלאכותית דמוית־אדם איטית למדי, היו תוצרים מועילים רבים בדרך. דוגמאות בולטות הן שפת התכנות LISP ופרולוג, שהומצאו עבור מחקר בינה מלאכותית אך שכיום משמשים למשימות אחרות. מערכות מועילות רבות פותחו בעזרת טכנולוגיות שהיו פעם תחומים פעילים במחקר הבינה המלאכותית. לדוגמה:
- צ'ינוק (Chinook) הוכרז כאלוף העולם בתחרות אדם־מחשב בדמקה ב־1994.
- כחול עמוק, מחשב ששיחק שחמט, ניצח את גארי קספרוב בתחרות שחמט מפורסמת ב־1997
- ווטסון, מחשב ששיחק במשחק ג'פרדי!, הצליח לנצח מתחרים שזכו בעבר ב־2011.
- אינפו־טיים (Info Tame), מנוע חיפוש בטקסט שפותח על ידי הק.ג.ב. עבור מיון אוטומטי של מיליוני דפים של תקשורות.
- לוגיקה עמומה, שיטה לחשיבה הגיונית בתנאים של חוסר ודאות, משמשת במערכות שליטה תעשייתיות רבות.
- קיימות מערכות תרגום מכונה כמו SYSTRAN, ורבים משתמשים בהן, אם כי התוצאות עדיין אינן באיכות של תרגום אדם.
- עיבוד שפה טבעית
- רשתות נוירונים משמשים למשימות רבות, ממערכות גלאי־פריצה למשחקי מחשב ("Creatures", לדוגמה).
- מערכות הכרת סימנים אופטיות (OCR) יכולות לתרגם כל טקסט המודפס בגופנים מקובלים לטקסט ממוחשב.
- הכרת והבנת כתב יד בידי, או בעיני מחשב.
- מערכות ראיית מחשב, פועלות ביישומים תעשייתיים רבים.
- רובוטיקה
- מערכת למיון תכנים תומכי טרור ברשתות החברתיות, לצורך הסרה מהירה שלהם.[70]
- מערכת הוכחה אוטומטית - מערכת המבצעת הוכחת משפטים מתמטיים באמצעות תוכנה. תהליך ההוכחה מבוסס על תחשיב פסוקים ועל לוגיקה מסדר ראשון ובו רעיונות מתחום הבינה המלאכותית באים לידי ביטוי.

- כיסא גלגלים רובוטי המיועד להקל על חייהם של אנשים בעלי מוגבלות. הכיסא משלב טכנולוגיות איסוף מידע (חיישנים) ובינה מלאכותית, על מנת לחשב תמידית את המדדים המסמנים מצוקה ולהגיב אוטומטית למניעת פצעי לחץ ופגעים הנוצרים מישיבה ממושכת.
הרעיון של בינה מלאכותית שתחליף שיפוט אנושי עלה פעמים רבות בהיסטוריה של התחום, וכיום ישנם תחומים מסוימים שבהן "מערכות מומחיות" מחליפות או תומכות בשיפוט אנושי, בהנדסה או ברפואה. דוגמה למערכת כזו היא מערכת העזרה של מיקרוסופט אופיס, שבו המערכת מנסה לנבא את העזרה שהמשתמש יזדקק לה.
בשנת 1986 פרופסור רודני ברוקס פרסם סדרת מאמרים ששינו באופן מהותי את כיווני פיתוח בתחום הבינה המלאכותית.
החל מ-2012, חלה תנופה משמעותית בתחום למידה עמוקה וענף זה נחשב כענף מרכזי לפתרון סוגיות בתחום הבינה המלאכותית. "למידה עמוקה" נשענת על רשתות עצביות מלאכותיות. החל מ-2017, מדינות רבות בעולם החליטו להיכנס לנושא ברמה הלאומית ולמעלה מעשרים מהן, פרסמו אסטרטגיה לאומית בנושא.[71]
בשנת 2015 ניצחה מערכת AlphaGo של חברת DeepMind את אלוף העולם במשחק GO, הנחשב למשחק בו עץ המשחק הוא הענף ביותר, מה שדרש ממתכנני המערכת לחשוב על שיטה שונה ללמידת / פתרון המשחק, לעומת שיטת העבודה של כחול עמוק. המערכת התקרבה לשיטה הנקראת בינה מלאכותית כללית.[72] שיטה זו נחשבת לגביע הקדוש בבינה מלאכותית, ומתכונתה היא למעשה למידת מכונה ללא הכוונה מראש היכולה לפתור כל בעיה.
פלוריבוס
ב-11 ביולי 2019, תוכנת מחשב שנקראת Pluribus, ניצחה חמישה שחקנים ברמה הכי גבוהה שיש בעולם, במשחק "טקסס הולדם" - בסדרה ארוכה של משחקים כנדרש להוכיח מובהקות סטטיסטית. תוכנת המחשב Pluribus פותחה על ידי מדענים מפייסבוק ומאוניברסיטת קרנגי מלון בהובלת פרופסור Tuomas Sandholm ונועם בראון.[73]
בניגוד למשחק שחמט או משחק ה"גו", בטקסס הולדם, אין לשחקנים מידע מלא על "המציאות" וזאת מכיוון שהם רואים רק את הקלפים שהם עצמם קיבלו ואת "קלפי הקהיליה". כלומר, מדובר במשחק רב פעמי, מרובה משתתפים ועם מידע חסר. מכיוון שכך, המשחק נחשב מבחן משמעותי ליכולת של הבינה המלאכותית להשתוות לבינה אנושית.
בפברואר 2025 נודע שקבוצת המפתחים שפיתחו את Pluribus (התוכנה שמנצחת במשחקי פוקר, שלעיל) - עברה לחברת OpenAI והייתה לה תרומה ניכרת להתפתחות תחום מודלי השפה הגדולים - בכל הקשור למודלים שיודעים לנמק.
יישומים בולטים בתחום הבינה המלאכותית
יישומי בינה מלאכותית כוללים מנועי חיפוש מתקדמים באינטרנט (למשל, חיפוש גוגל), מערכות המלצות (בשימוש על ידי YouTube, אמזון ונטפליקס), הבנת דיבור אנושי (כגון סירי ואלכסה), מכוניות אוטונומיות, ובינה מלאכותית יוצרת (ג'מיני, Midjourney ועוד), והיכולת להתחרות ברמה הגבוהה ביותר במשחקים אסטרטגיים (כגון שחמט ו-Go). בנובמבר 2022 השיקה חברת OpenAI צ'אטבוט שיחה שנקרא ChatGPT. הבוט זכה לפופולריות רבה ונוהג לייחס לו את הבאת הנושא למודעות של הציבור הרחב.
עולמות תוכן
עולם הבינה המלאכותית כולל הרבה מעבר למודלי השפה הגדולים ונכון לתחילת 2025 נהוג להתייחס, לכל הפחות, ל-10 עולמות תוכן שונים ובכללם:
- תפיסה (Perception) — בדגש על נושאים חשובים שהם סמויים מן העין. עולם תוכן זה מתייחס ל"תרגום" מידע גולמי המתקבל מחיישנים ל"תובנות" בדגש לעולמות תוכן שניתן לחוש אותם באמצעים לא אנושיים, כמו למשל קרינה אינפרה אדומה (מצלמות לילה), קרינה אולטרה סגולה, קרינת רנטגן, CT, MRI וכיוצא באלו. מכיוון שמדובר בחישה מחוץ לתחום שבני האדם יכולים לחוש באופן טבעי, לבינה מלאכותית יש יתרון עצום בעולמות אלה. מצד שני, מכיוון שהבינה המלאכותית סובלת מהקושי "להסביר", מתופעת ה"הזיות" וכדומה - שילוב הטכנולוגיה אורך זמן רב ויש קשיים בהכנסתה לתחומים עתירי סיכון כמו רפואה.

- גיבוש תובנות על בסיס ניתוח בסיסי נתונים שונים, בדגש לנתוני עתק — במהלך העשורים האחרונים, קצב הצטברות המידע הולך וגובר ובקצב עולה. מידע זה כולל "מידע מובנה" שבדרך כלל כולל "בסיסי נתונים" שבהם המהות של פריטי המידע ידועים מראש, כמו למשל, שם, תעודת זהות, כתובת מגורים - ומידע לא מובנה כמו למשל ווידאו, אודיו, תמונות וכדומה. אחת הסיבות העיקריות לתנופה בתחום הבינה המלאכותית, מאז 2012 - היא השתפרות יכולת החישוב, השיפור המתמיד בזכרונות מחשב - שהופכים להיות זעירים וזולים יותר ויותר ותחום "נתוני העתק" - הצטברות המידע שמאפשרת לאמן את המודלים הגדולים (בדגש לרשתות נוירונים גדולות המשמשות ללמידה מפוקחת). כך למשל, ויקיפדיה היא מקור לטקסטים וניתן ללמד "עליה" מודלים עם פיקוח עצמי, אתרי האינטרנט כולם - מאפשרים ל"זחלנים" להוריד את המידע ולהשתמש בו ללימוד מודלים של בינה מלאכותית וכך גם כל סרטי "יו-טיוב", כל המוזיקה שאינה מוגנת בזכויות יוצרים וכדומה. מגמה משמעותית היא זמינות המידע הביולוגי - החל מפענוח הגנון האנושי, הבנת מבנה החלבונים, מודלים יותר ויותר מדויקים של התא החי, הריבוזום וכדומה. בתחומים אלה, של נתוני העתק, לבינה המלאכותית יש פוטנציאל לתרומה מהותית לקידום האנושות במגוון היבטים רחב.
- שילוב בינה מלאכותית ברובוטיקה — החל מסביבות 2024, הבינה המלאכותית נכנסת יותר ויותר לתחום הרובוטיקה, החל מכניסה לתוך החיישנים או לשכבת ה"תפיסה", דרך "הבנת תמונת העולם" על בסיס ניתוח נתוני הגלם מכלל החיישנים, דרך פענוח מיקומם של מכשולים, ביצוע תחזיות (פרדיקציות) לגבי משתמשים אחרים במרחב, דרך תכנון ניווט במרחב, קבלת החלטות, ביצוע פעולות במרחב הפיזי וניתוח תוצאות הפעולות וחוזר חלילה. ככל שהזמן עובר, מצטייר גם שהמימשק בין בני האדם לרובוטים יישען, ככל הנראה, על מודלי שפה גדולים. במרץ 2025, פרסמה חברת UBITECH סרטון יו-טיוב שבו מוצגים רובוטים היומנואידים רבים הפועלים במתואם במפעל הרכב של חברת ZEEKER[74]. מצטייר שחברות רובוטיקה רבות מעדיפות להתחיל לבחון את הרובוטים שלהם בסביבת פעולה מגודרת ומתוחמת, כזו שלא מסכנת בני אדם, היא סביבה תפעולית מבוקרת, אין בה מכוניות ו"הפרעות" כמו שיש בדרכים ציבוריות וכדומה. חלק גדול מהחברות יוצרות שיתופי פעולה עם חברות רכב ומדגימות את הערך הפוטנציאלי של הרובוטים שלהם בתוך המרלו"גים/ מפעלי הייצור של חברות הרכב (Operational Design Domain - "מרחב הפעלה" ע"פ הגדרות החוק הישראלי)
- יכולת לשלב אלגוריתמים שיודעים ללמוד - גם בשלב ההיסק (כלומר לאחר שאומנו, בזמן שהם נמצאים כבר בשימוש) — עד לשנת 2023, היה נהוג שיש הפרדה ברורה בין "שלב האימון" של רשתות הנוירונים, לשלב ה"היסק". מחזור החיים של יישומי בינה מלאכותית כללו פיתוח של המודל, אימון שלו ואז - הקפאת המשקולות של הרשתות ורק אז, העברת המודל לידי המשתמש הסופי. המשתמש הסופי, לא יכול היה לעדכן את המודל/ יישום לאחר שהוא סופק אליו - כלומר בשלב ההיסק. תכונה זו של הרשתות שונה מאוד ממוח האדם - שכן מסוגל "ללמוד" לאורך כל חייו, ללמוד גם מתמונה בודדת בלי להתאמן על מיליוני דוגמאות של תמונות דומות. החל מאמצע 2024, התפתחו מספר גישות שמאפשרות גם לרשתות נוירונים מלאכותיות, "ללמוד" גם בשלב ההיסק. טכניקה אחת היא השארת שכבות ייעודיות שאותן ניתן לשלב לפי ההקשר של "חלון ההנחיה (Prompt), בטכניקה זו המודל בודק "לאיזה קבוצה או הקשר" חלון ההנחיה (הפרומפט) שייך - והוא משלב שכבות ייעודיות להקשר המדובר וכך הוא מתאים את המודל בזמן הריצה ומבלי שנדרש אימון מחדש. טכניקה אחרת, עוסקת בבחינה רצופה של איכות "התשובות" בהתבסס על משוב מהמשתמש או - על בסיס "פיקוח עצמי" וכיול שכבות ייעודיות ברציפות. למשל, כאשר הרשת חוזה את הפריים הבא בסרט ווידאו, היא יכולה לנתח כמה התחזית שלה הייתה שגויה ולתקן את המשקולות של השכבות הייעודיות כך שהשגיאות יצטמצמו תוך כדי ריצה. לנושא היכולת הזו התפתח ז'רגון שלם של מונחים ושיטות לבחינת ביצועים כמו למשל Few-Shot Learning שמודד את היכולת ללמוד תוך דוגמאות בודדות.
- רשתות של סוכני בינה — הגדרה מקובלת ל"סוכן בינה" היא: סוכן בינה מלאכותית (AI Agent) הוא מערכת אוטונומית או תוכנת מחשב המסוגלת לתפוס את סביבתה באמצעות חיישנים או קלטי נתונים, לעבד את המידע, לקבל החלטות ולנקוט פעולות על מנת להשיג מטרות או יעדים מוגדרים. הפעולות יכולות להיות וירטואליות (למשל אינטראקציה עם תוכנות או סביבות דיגיטליות) או פיזיות (למשל רובוטים או רחפנים). רשתות של סוכני בינה היא דרך לביצוע משימות מורכבות באמצעות רשתות של סוכני בינה שכל אחד מהם מתמחה בתחום מסוים. בהקשר הווירטואלי, אחת הדוגמאות המובהקות לכך הוא "עוזר המחקר המדעי" של חברת גוגל. מדובר ברשת של 12 מודלים שלטענת גוגל, יודעת לתפקד כעוזר מחקר ולסייע בשלב העלאת הרעיונות (Ideation), סריקת תפיסות לפתרונות אפשריים (Optional Concepts), ביצוע סקרי ספרות, בחינת התפיסות השונות (Ranking) ואולי, ע"פ הנטען, הגעה לתגליות מדעיות של ממש[75].


- אמנות, יצירת מידע כוזב[דרושה הבהרה] או סביבות סימולטיביות — נכון ל-2025, הבינה המלאכותית היוצרת יודעת לנהל שיחות (צ'אט), לכתוב שירים, מאמרים, סיפורים, ספרים, מחזות, לצייר ציורים, לחולל תמונות מטקסטים, לחולל ווידאו מטקסטים ואף להפיק "סרט" הכולל הכנת תסריט, הכנת סטוריבורד, הפקת ווידאו ועריכתו, להלחין מוזיקה ועוד. תופעה זו גורמת לחשש שמצד אחד, יישומי בינה מלאכותית יחליפו בני אדם במגוון מקצועות האמנות - כמו למשל, תפאורנים, כותבי תסריטים, תאורנים, אנשי קול וכדומה ומצד שני - יימצאו הגורמים שישתמשו ביכולות האלה למעשי פשיעה זדוניים כמו הונאות ומבצעי השפעה. היבט נוסף של יכולות אלו - הוא היכולת ליצור סביבות סימולציה ברמות איכות משתנות. סביבות סימולציה יכולות לשמש לאימון של אנשי מקצוע כמו טייסים, לבניית "תאום דיגיטלי" שיש לו שימוש רב בתעשייה וגם - כעולם ומלואו שיכול לאפשר אימון רובוטים בדגש לאימון רשתות בשיטת "למידת חיזוקים".
- שימוש בבינה מלאכותית - ליצירת סביבות תלת־ממדיות או ליישומים גאוגרפיים — מודלים תלת־ממדיים של העולם משמשים את תעשיית משחקי המחשב, הם הכרחיים לסוגים שונים של תכנון מסלול עבור רובוטים, הם נדרשים לחלק מהיישומים של "משקפי מציאות וירטואלית"/ מציאות רבודה, הם משמשים לסימולטורים בכלל, ולסימולטורים צבאיים בפרט. המודלים יכולים גם לשמש לאימון של מודלים לרובוטיקה מבוססת "למידת חיזוקים" (Reinforcement Learning) ויש להם שימוש נרחב בתחומי הארכיטקטורה ועיצוב פנים. נכון ל 2025, יש כבר מגוון יישומים/ מודלים שמאפשרים ליצור מודל תלת־ממדי מטקסט, מתמונה או "איור" ומווידאו. החיבור בין מודלי שפה גדולים לתוכנות תלת־ממד יכול להתבצע באמצעות פרוטוקולי API וכך למשל, במרץ 2025, פורסמה יכולת לחבר את מודל השפה קלוד (של חברת אנת'רופיק) לאחת מהתוכנות המובילות בעולם ליצירת מודלים תלת־ממדיים - בלנדר. במהלך 2024, פרופסור פיי-פיי לי מחלוצות תחום הבינה המלאכותית, הקימה חברה ייעודית לבניית מודלים תלת־ממדיים באמצעות בינה מלאכותית, חברת World - Labs[76].
- שימוש בולט נוסף בתחום הבינה המלאכותית הוא בכל הקשור ל"מערכות מידע גאוגרפיות" (GIS) כאשר מודלי בינה מלאכותית מאפשרים "לחלץ ישויות גאוגרפיות" מתצלומי אוויר או צילומי לווין, כמו למשל, כבישים, פסי רכבת, מבנים, סוגים שונים של צמחייה וכדומה. החיבור בין מודלי בינה מלאכותית הנוגעים ל"מערכות מידע גאוגרפיות" ובמקביל, לבסיסי מידע מייצר יכולות לתת תחזיות רלוונטיות כמו למשל, חיבור בין מערכות מיפוי לתחזיות מזג אוויר מאפשר לתת תחזית שיטפונות, הן לרשויות החירום והן לתושבים שעלולים להיות מושפעים.
- קיום המודלים התלת־ממדיים או "מערכות המידע הגאוגרפיות" (GIS) מאפשר גם לתמוך יישומים של "בינה מלאכותית יוצרת" לשימושים נוספים, כמו למשל, דימוי של החזרי אור, שבירת אור, דימוי סוגים של חומרים וטקסטורות ועוד.
- נושאי אתיקה, חלוקת אחריות, היכולת להבין את שיקולי הבינה המלאכותית, שילוב אחראי של הנושא לתוך מכונות, מניעת אפליה והטיות ומימושים הכוללים בינה מלאכותית המורכבת משילוב של מודלים שונים — תחום זה כולל "תפירה" מאוד מדויקת בין הבינה המלאכותית למקומו של המשתמש האנושי כדי שניתן יהיה להשתמש בטכנולוגיות כאלה גם ליצירת עולמות תוכן שיש בהם סיכונים אינהרנטיים כמו תעופה או רפואה. יש ז'אנר שלם בחשיבה האנושית שמייחס לבינה המלאכותית סכנות משמעותיות עד כדי סכנה קיומית מבינה מלאכותית כללית.
- בינה מלאכותית יוצרת — בינה מלאכותית שיוצרת תוכן שלא היה קודם, כמו למשל, תמונות מטקסט, כתיבת שירים או סיפורים בסגנון מבוקש מסוים, ווידאו מטקסט וכיוצא באלו. נכון ל 2025, התחום זוכה להשקעות ותשומת לב בקנה מידה עצום.
- שימוש בכלים — מודלים שמנתחים את "חלון ההנחיה" (ה"פרומפט") ואם הם "מבינים" שעדיף לטפל בסוגיה המבוקשת באמצעות כלי תוכנה קיימים, הם יודעים לפנות לכלי תוכנה חיצונית, להפעיל אותו ולהשתמש בתוצאה. דוגמה פשוטה לכך היא חישובים פשוטים במתמטיקה, כאשר יש עדיפות לכלי תוכנה דטרמיניסטיים כמו "מחשבון", מודל הבינה המלאכותית מבין את זה, שולח את השאילתה למחשבון ומשתמש בתשובה ע"פ צורך.
נכון ל-2025, בישראל, הממשלה נמנעת מאסדרה רוחבית מחייבת והיא משאירה את האסדרה בתחום לרגולטורים הענפיים. מסמך "עקרונות מדיניות רגולציה ואתיקה" פורמלי התפרסם ב-2023 וניתן למצוא אותו באתר האינטרנט של הממשלה[77]. תחומים ענפיים אלה כוללים:
- ביטחון.
- רפואה וביולוגיה — תחום זה כולל פענוח הדמאות בתחומי הרנטגן, MRI, CT וכדומה (מקצוע הרדיולוגיה), תחום שהוא חלק מה"תפיסה/ פרספשן" ע"פ ההגדרות המקובלות בתחום הבינה המלאכותית. הבינה המלאכותית משמשת גם למגוון גישות לחיפוש תרופות, כמו למשל מערכת "אלפהפולד" שמאפשרת להבין את המבנה התלת־ממדי של חלבונים לפי הממד הכימי שלהם. תחום שלישי כולל את עולמות התוכן של התלכדות הדיסיפלינות הביולוגיות, ביולוגיה סינתטית, ביולוגיה דיגיטלית וכדומה. חברות רבות מנסות לפעול בתחום ובכלל זה ריפוי באמצעות עריכת DNA (למשל, באמצעות טכנולוגיות CRISPR), שימוש במודלי למידה עמוקה (חברה בולטת בתחום היא החברה של פרופ' דפנה קולר הישראלית לשעבר), חברות כמו CRISPR Therapeutics, Beam Therapeutics ועוד).
- פיננסים — לבינה מלאכותית יש מגוון תרומות פוטנציאליות בתחום הפיננסים, כמו למשל, זיהוי אנומליות. בישראל, פורסמה הצעה למדיניות מחייבת בתחום [1].
- תחבורה — לבינה המלאכותית יש פוטנציאל לעזור להיבטי התחבורה ברמת קבלת החלטות/ אופטימיזציות של ניהול תנועה, ניהול ציים וכדומה. בהקשר זה, נהוג לחלק את תחום העיסוק למספר עולמות תוכן ובכללם:
- אופטימיזציה של עלויות תפעול, תכנון מסלולים חכם, הקצאות דינמיות של נהגים ורכבים וכדומה — בישראל, בולטת בתחום זה היא חברת אופטיבס שמשרתת ציים גדולים מאוד ברחבי העולם[78]. שווי החברה ב 2021 הוערך בלמעלה ממיליארד דולר. גם חברת VIA נוסדה על ידי צוות ישראלים והיא עוסקת באופטימיזציה של תכנון מסלולים, נסיעות שיתופיות וכיוצא באלו. החברה פועלת במגוון גדול של מדינות בעולם ומנסה להתרחב גם לעולמות של שינוע מטענים, תחזוקה ועוד[79].
- תחזוקה חזויה (Predictive Maintenance).
- ניהול צריכת דלק ופליטות.
- ניתוח התנהגות נהגים ושיפור הבטיחות.
- שילוב מערכות אוטונומיות — חברה ישראלית בולטת בהקשר זה היא חברת מובילאיי. חברות רבות בעולם מנסות לפתח מערכות עזר מתקדמות לנהיגה – ADAS ומכוניות אוטונומיות ממגוון סוגים ולמגוון יישומים.
- "Mobility-as-a-Service" — בגישה זו, נותן השירות מספק לצרכן פתרונות תחבורה מקצה לקצה ("מונית לפי קריאה") או שהוא יודע לתת מסלול נסיעה שלם, מקצה לקצה, כולל החלפת אמצעי תחבורה באופן שהכי מתאים למזמין הנסיעה. חברת Moovit היא חברה ישראלית שמדגימה את הגישה הזו ושוויה הוערך בעד מיליארד דולר. חברות מוכרות שנותנות שרות של "נסיעה לפי קריאה" הן החברות "ליפט", "אובר", "ווימו" ודומותיהן - חלקן התפתחו להיות חברות ענק גלובליות.
- התחום הכי בולט בהקשר זה, זו המכונית האוטונומית. נכון ל-2025 יש מגוון כיווני התפתחות ובכללם פיתוח "רובוטקסי", פיתוח תחבורה ציבורית אוטונומית, משאיות, שאטלים ואפילו כלי רכב פרטיים. לפי חישובים שונים, אם תחום זה יוכיח שהוא יכול לצמצם את כמות תאונות הדרכים, יש לו פוטנציאל לצמצם את כמות ההרוגים בסדר גודל של מיליון אנשים בשנה, כל שנה, לכל העתיד האנושי. יעד זה הוא בעל משמעות ניכרת ויש בו גם הקפי השקעות גדולים מאוד מכיוון שיש, נכון ל-2025, למעלה ממיליארד כלי רכב בעולם והם משקפים שוק פוטנציאלי של טריליוני דולר רבים. בעולם המערבי, החברה שנכון למרץ 2025, היא החברה שיש לה הכי הרבה כלי רכב שמובילים אנשים תמורת תשלום, ללא נהג לצורכי בקרה היא חברת ויימו.

- חקלאות — קיים צפי ולפיו אוכלוסיית כדור הארץ תמשיך לגדול עד לסדר גודל של עשרה מיליארד אנשים ובמקביל, התחממות כדור הארץ וצמצום שטחי גידול יגרמו לרצון לייעל יותר ויותר את היכולת להפיק יבולים גדלים והולכים משטחי גידול בגודל נתון. הבינה המלאכותית, בתחום החקלאות משתלבת בנושאים שלהלן:
- חקלאות מדייקת הכוללת ניתוח של חיישנים בקרקע, מלווינות, חיישני מזג אוויר, צילום ממטוסים כלי טיס לא מאוישים או רחפנים, הבנה איזו תוכנית השקיה, דישון והדברה אופטימלית איפה ברמות דיוק גבוהות (אולי, אפילו, ברמה של טיפול בכל עץ או חלקה קטנה בנפרד).
- תחזיות יבולים, תחזיות שוק ואיפשור תמחור מתאים[80].
- שילוב רובוטיקה ומיכון בעיבוד השדות/ מטעים/ קציר/ קטיף/ זריעה/ שתילה/ נטיעה. חברת "כחול לבן רובוטיקה" היא דוגמה לחברה שמנסה להטמיע מיכון אוטונומי בחקלאות[81].
- הפחתת שימוש בכימיקלים והפחתת פליטות מזהמות.
- ניהול איסוף המידע, יצירת הידע ואופן הנגשתו לציבור.
- ניהול מלאים ו"ביטחון מזון" בהקשר למגוון תוצרים חקלאיים.
- חינוך והכשרה מקצועית, בדגש להסבות מקצועיות — מכיוון שהבינה המלאכותית היא "טכנולוגיה כללית" שצפויה להשפיע על כל תחומי החיים, חשוב להכשיר את הדורות הצעירים לכל מה שרלוונטי לעידן המתפתח. בישראל, בתחילת 2025, משרד החינוך החל במהלך רוחבי מקיף שעניינו (לפי אתר המשרד לחינוך, כפי שהוצג ב-6 במרץ 2025): "רתימת הבינה המלאכותית כמנוף להגשמת מטרותיו המרכזיות (של משרד החינוך): חיזוק ופיתוח ההון האנושי במערכת החינוך, למידה רלוונטית המבססת ללומדים ידע, מיומנויות, ערכים וקידום היעילות ואפקטיביות בעבודות המשרד". התוכנית האסטרטגית של משרד החינוך הישראלי, 2025. בישראל, למרות ההשפעה הצפויה על שוק העבודה, ככל הידוע, טרם בוצעו מהלכים מדינתיים משמעותיים להסבות מקצועיות. כן בוצעו מספר מחקרים בתחום, חלקם המימון המועצה הלאומית למחקר ופיתוח[82].
- תעשייה
מיקרו-עולם
המדע מנסה להתמקד במודלים מלאכותיים ופשוטים של המציאות (בפיזיקה, משטחים חסרי חיכוך וגופים קשיחים לחלוטין, לדוגמה). ב־1970 מרווין מינסקי וסימור פאפרט, מהמעבדה ב-MIT, הציעו כי מחקר הבינה המלאכותית יתמקד גם הוא בפיתוח תוכנות שיכולות להתנהג באופן תבוני במצבים פשוטים ומלאכותיים הידועים כמיקרו־עולמות (MicroWorlds). מחקר רב התמקד ב"עולם הקוביות", שמורכב מקוביות בצבעים וצורות שונות המסודרים על משטח ישר.
יישומים בתחום הבינה המלאכותית כוללים:
- חישה מלאכותית:
- זיהוי תווים אופטי (OCR), שדוגמה שלו היא תוכנת המילון "בבילון", וזיהוי ממוחשב של כתב יד, כפי שיש במחשב כף יד PDA.
- מערכת זיהוי דיבור: היכולת לקלוט דיבור אנושי ולפענח אותו, כלומר להפוך אותו לטקסט כתוב, אך לא בהכרח להבין אותו.
- מערכת זיהוי תווי פנים: למשל, כמערכת זיהוי פרצופים של חשודים בביצוע עבירה.
- מערכת זיהוי תמונות: פירוק של התמונות למטריצות RGB, וזיהוי אובייקטים בתוך התמונות על ידי פיקסלים ולמידה עמוקה[83], למשל: איתור ומעקב אחר הולך רגל על ידי ניתוח תמונות ולכידת תנועה[84], זיהוי אוטומטי של הרכב, אבנים בכליות מתצלומים דיגיטליים של אבנים[85].
- הבנת שפה טבעית.
- מערכות מומחה: מערכות המתבססות על הידע של מומחים בתחום מסוים ועל תהליכי קבלת החלטות בתחום זה, ומסייעות בתהליכים אלה.
- רובוטים: זיהוי מכשולים, למשל.
דמויות בולטות בתחום הבינה המלאכותית
| ג'פרי הינטון | חלוץ בלמידה עמוקה ורשתות נוירונים מלאכותיות, חתן פרס נובל, ב-2023 התפטר מגוגל. מזהיר מסכנות של הבינה המלאכותית והשימוש בה. |
| ג'ון מקארתי | מדען מחשב שטבע את המונח "בינה מלאכותית" והיה מחלוצי חקר התחום |
| ג'ק קופלנד | פילוסוף בריטי, פרופסור באוניברסיטת קנטרברי בניו־זילנד, חוקר את עבודתו של אלן טיורינג, מייסד ארכיון טיורינג להיסטוריה של המחשוב, ומחבר ספרים מרכזיים על תולדות המחשב והבינה המלאכותית. |
| יאן לקון | ה"אבא" של רשתות קונבולוציה, המדען המוביל בנושא בינה מלאכותית בפייסבוק, חתן פרס טיורינג |
| יהושע בנג'יו | חוקר בתחום הלמידה העמוקה, מהאבות המייסדים של רשתות נוריונים מלאכותיות בגל הנוכחי, חתן פרס טיורינג |
| אנדרו אנג | מחנך ידוע בתחום הבינה המלאכותית, ממייסדי "קורסרה" ו"גוגל בריין". כתב מספר ספרים בתחום הבינה המלאכותית. |
| דמיס הסביס | ממייסדי DeepMind ששייכת כיום לגוגל, חתן פרס נובל, אחראי, בין השאר לפיתוח יכולת לחזות את המבנה התלת־ממדי של חלבונים - לפי המבנה הכימי שלהם באמצעות מודל AlphaFold |
| פיי-פיי לי | מומחית בנושא ראייה ממוחשבת. הייתה הפרופסור הראשונה שבנתה בסיס נתונים גדול של תמונות מתויגות מה שהיווה בסיס לפריצת התחום |
| איליה סוצקבר | ממייסדי OpenAI, נחשב מגדולי הדור בתחום הבינה המלאכותית, גדל בישראל. ייסד את חברת Safe Superintelligence Inc ביחד עם דניאל גרוס ודניאל לוי שמגייסת (ב-2025) לפי שווי של שלושים מיליארד דולר, אף על פי שמעולם לא מכרה דבר. משרדי החברה ממוקמים בתל אביב, כמו גם בארצות הברית. |
| סם אלטמן | מנכ"ל OpenAI, משפיען מהותי בשדה הבינה המלאכותית, היה נשיא Y Combinator, השקיע ב־Airbnb, בחברות שעוסקות במיזוג גרעיני ובחברות רבות נוספות. |
| אילון מאסק | יזם סדרתי, ממיסדי OpenAI. מנכ"ל ומייסד Space-X, מנכ"ל ומייסד Tesla, מראשוני Pay-Pal. ממיסדי "ניורולינק" ו"בורינג". |
| ג'ף דין | ראש תחום בינה מלאכותית ו"גוגל בריין" בגוגל |
| סטיוארט ראסל | מחבר ספרים בתחום בינה מלאכותית, חוקר מוביל בנושא בטיחות ואתיקה |
| יהודה פרל | חלוץ בנושא סיבתיות והנמקות סטטיסטיות, חתן פרס טיורינג. אביו של העיתונאי דניאל פרל שנחטף בפקיסטן וראשו נערף על ידי מוסלמים קיצוניים |
| סבסטיאן ת'רון | ממציא בתחום רובוטיקה ורכב אוטונומי. מייסד Udacity, פלטפורמה מקוונת לקורסים אקדמאים באינטרנט. |
| דפנה קולר | מומחית במודלים סטטיסתיים, ממייסדות "קורסרה", נכון ל-2025, עוסקת בפיתוח תרופות בעזרת בינה מלאכותית, כולל מחקר באמצעות אורגנואידים. |
| מירה מוראטי | מנכ"לית חברת "מכונות חושבות", הייתה CTO ומנכ"לית של חברת OpenAI, ילידת אלבניה, עבדה ב-TESLA ובחברות רבות נוספות. |
| ריי קורצווייל | עתידן וממציא. הוגה דעות בולט בכל הקשור להשפעות הבינה המלאכותית בעתיד, נכון ל-2025, עובד בגוגל |
ראו גם
| עיינו גם בפורטל: | |||
|---|---|---|---|
| פורטל מדעי המחשב | |||
- You.com
- למידה חישובית
- CAPTCHA
- מחשוב אוטונומי
- סינגולריות טכנולוגית
- רשת עצבית מלאכותית
- מערכת חיסון מלאכותית
- הפרדוקס של מורבק
- אוריינות AI
- המכתב הפתוח על בינה מלאכותית (2015)
- הסתברות לאבדון
- עליונות: בינה מלאכותית, ChatGPT והמרוץ שישנה את העולם
- אוניברסיטת מוחמד בן זאיד לבינה מלאכותית
לקריאה נוספת
- דאגלס הופשטטר, גדל, אשר, באך, 1979
- פאמלה מק'קורדק, מכונות חושבות, מסדה, 1985
- ריי קורצוייל, עידן המכונות החושבות, הוצאת כנרת, 2001
- ג'ף הוקינס וסנדרה בלייקסלי (אנ'), על האינטליגנציה, הוצאת אריה ניר, 2005
- מרכוס דו סוטוי, תוכנת היצירתיות - איך לומדת הבינה המלאכותית לכתוב, לצייר ולחשוב, תרגמה: מיכל קירזנר-אפלבוים, ספרי עליית הגג וידיעות ספרים, 2022.
- Jason Furman, Robert Seamans, AI and the economy, NBER, June 2018
- Parmy Olson, Supremacy: AI, ChatGPT and the race that will change the world, St. Martin's Press, 2024
קישורים חיצוניים
כללי
בינה מלאכותית, דף שער בספרייה הלאומית- דוד גורביץ' ודן ערב, הערך "אינטליגנציה מלאכותית", באתר אנציקלופדיה של הרעיונות
- מילון למונחי בינה מלאכותית | 1997 | 2004 | באתר האקדמיה ללשון העברית
- נמרוד צוק, מכונת העצמאות, באתר כלכליסט, 14 ביולי 2016
אליחי וידל, זאת מלחמה על הרבה כסף - אל תתנו לתמונות של חתלתולים חמודים לבלבל אתכם, באתר TheMarker, 28 בספטמבר 2017- ההזדמנויות הסביבתיות הטמונות במהפכת הבינה המלאכותית, באתר "אקולוגיה וסביבה", 14 במאי 2023
- מבקר המדינה, דוח מיוחד, ההיערכות הלאומית בתחום הבינה המלאכותית, נובמבר 2024
- אמיר עוז, חזון גדול, מציאות מורכבת: אתגרי ההטמעה של AI בארגונים, באתר "אנשים ומחשבים", 6 ביוני 2025
- מחקר וחדשנות בתחומי הבינה המלאכותית – דשבורד נתונים אינטראקטיבי באתר מוסד שמואל נאמן
- ערן הורוביץ, אנושית, אנושית מדי, באתר הזמן הזה, פברואר 2026
היסטוריה
- נחמן גבעולי, הנבון המחשב?, מחשבות 20, פברואר 1967, עמ' 11–14
- טל סוקולוב, השורשים העמוקים של הבינה המלאכותית, במדור "מדע במבט-על" באתר של מכון דוידסון לחינוך מדעי
- בועז לביא, מסע לעמק המוזרות, באתר הזמן הזה, יולי 2023
סכנות ואסדרה
- ויקי אוסלנדר, לא אינטליגנציה ולא מלאכותית: מה באמת מסתתר מאחורי המונח הנוצץ?, באתר כלכליסט, 6 במאי 2021
- נבו טרבלסי, המדרון החלקלק של הבינה המלאכותית, באתר גלובס, 3 ביוני 2022
- עמיר כהנא ותהילה שוורץ אלטשולר, אדם, מכונה, מדינה: לקראת אסדרה של בינה מלאכותית, באתר המכון הישראלי לדמוקרטיה, 2023
ניצן גסלביץ' פקין, קרני שגל-פפרקורן, הרובוט בגן של הילד שלך לא כזה תמים. ייתכן שהוא אף מסוכן, באתר TheMarker, 19 בפברואר 2025- עומר כביר, האיחוד האירופי אישר את חוק ה-AI - המאסדר שימוש בבינה מלאכותית, באתר כלכליסט, 13 במרץ 2024
- טל שחף, המודלים החדשים של OpenAI מאבדים קשר עם המציאות - והמדענים מנסים להבין למה, באתר ynet, 20 באפריל 2025
עדי פרנקנברג, השותפה הסמויה: כך הבינה המלאכותית חודרת למערכות היחסים שלנו, באתר הארץ, 18 במאי 2025- ארי ליבסקר, בינה מלאכותית, גזענות אמיתית, באתר כלכליסט, 17 ביולי 2025
- ירדן אבני, מגניבת קול ועד שירים גנריים: האם AI יהרוס את ענף המוזיקה?, באתר כלכליסט, 21 באוגוסט 2025
סרטונים ופודקאסטים
Alex Wissner-Gross: A new equation for intelligence, סרטון בערוץ "TED", באתר יוטיוב (אורך: 11:49)- רובוטים ובינה מלאכותית עם פרופ' גל קמינקא - חלק א, חלק ב, באתר גלי צה"ל, נובמבר 2015
החייזרים נחתו – והם מוכנים לעבוד בחינם, דניאל שרייבר, סרטון בערוץ "מרכז טאוב", באתר יוטיוב (אורך: 45:17), 4 בנובמבר 2024
שיחה על בינה מלאכותית עם ד"ר ארז פירט, הכל מבינה, באתר כאן – תאגיד השידור הישראלי, 18 בספטמבר 2025
אנגלית
- בינה מלאכותית, באתר אנציקלופדיה בריטניקה (באנגלית)
- Otto Barten, How to Hit Pause on AI Before It’s Too Late, Time, 16 במאי 2024
- מהי בינה מלאכותית, באתר IBM (באנגלית)
הערות שוליים
- ↑ McCarthy, John; Minsky, Marvin L.; Rochester, Nathaniel; Shannon, Claude E. (2006) [1955-08-31]. "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence" (PDF). AI Magazine. 27 (4): 12–14.
The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.
- ↑ Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey E. (2012). "ImageNet Classification with Deep Convolutional Neural Networks" (PDF). Advances in Neural Information Processing Systems. Vol. 25.
Despite the attractive qualities of CNNs... they have still been prohibitively expensive to apply in large scale to high-resolution images. Luckily, current GPUs... are powerful enough to facilitate the training of interestingly-large CNNs.
- ↑ McCarthy, John; Minsky, Marvin; Rochester, Nathaniel; Shannon, Claude (2006) [1955-08-31]. "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence" (PDF). AI Magazine. 27 (4): 12–14.
The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.
- ↑ McCulloch, Warren S.; Pitts, Walter (1943). "A Logical Calculus of the Ideas Immanent in Nervous Activity" (PDF). The Bulletin of Mathematical Biophysics. 5 (4): 115–133. doi:10.1007/BF02478259.
Because of the "all-or-none" character of nervous activity, neural events and the relations among them can be treated by means of propositional logic... It is found that the behavior of every net can be described in these terms.
- ↑ Turing, A. M. (1950). "Computing Machinery and Intelligence" (PDF). Mind. 59 (236): 433–460. doi:10.1093/mind/LIX.236.433.
I propose to consider the question, 'Can machines think?'... The new form of the problem can be described in terms of a game which we call the 'imitation game'.
- ↑ Turing, A. M. (1950). "Computing Machinery and Intelligence" (PDF). Mind: 442.
I believe that in about fifty years' time it will be possible, to programme computers, with a storage capacity of about $10^9$, to make them play the imitation game so well that an average interrogator will not have more than 70 per cent chance of making the right identification.
- ↑ McCarthy, John; Minsky, Marvin; Rochester, Nathaniel; Shannon, Claude (1955). "A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence" (PDF). AI Magazine. 27 (4): 12–14.
The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.
- ↑ Simon, Herbert A. (1965). The Shape of Automation for Men and Management. New York: Harper & Row. p. 96.
Machines will be capable, within twenty years, of doing any work a man can do.
- ↑ Moravec, Hans (1988). Mind Children: The Future of Robot and Human Intelligence. Harvard University Press. p. 15. ISBN 978-0-674-57618-6.
It is comparatively easy to make computers exhibit adult level performance on intelligence tests or playing checkers, and difficult or impossible to give them the skills of a one-year-old when it comes to perception and mobility.
- ↑ Rosenblatt, Frank (1958). "The Perceptron: A Probabilistic Model for Information Storage and Organization in the Brain" (PDF). Psychological Review. 65 (6): 386–408. doi:10.1037/h0042519.
- ↑ Minsky, Marvin; Papert, Seymour (1969). Perceptrons: An Introduction to Computational Geometry. MIT Press. ISBN 978-0-262-13043-1.
- ↑ Sutton, Rich (2019). "The Bitter Lesson" (PDF). Incomplete Ideas. נבדק ב-2024-05-20.
The biggest lesson that can be read from 70 years of AI research is that general methods that leverage computation are ultimately the most effective.
- ↑ Russell, Stuart; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach (PDF) (4th ed.). Pearson. pp. 24–26. ISBN 978-0134610993.
- ↑ Rumelhart, David E.; Hinton, Geoffrey E.; Williams, Ronald J. (1986). "Learning representations by back-propagating errors". Nature. 323: 533–536.
The procedure repeatedly adjusts the weights of the connections in the network so as to minimize a measure of the difference between the actual output vector of the net and the desired output vector.
- ↑ Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey E. (2012). "ImageNet Classification with Deep Convolutional Neural Networks" (PDF). Advances in Neural Information Processing Systems. Vol. 25.
To make training faster, we used non-saturating neurons and a very efficient GPU implementation of the convolution operation... On the test data, we achieved top-1 and top-5 error rates of 37.5% and 17.0% which is considerably better than the previous state-of-the-art.
- ↑ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; Uszkoreit, Jakob; Jones, Llion; Gomez, Aidan N.; Kaiser, Łukasz; Polosukhin, Illia (2017). "Attention Is All You Need" (PDF). Advances in Neural Information Processing Systems. Vol. 30.
We propose a new simple network architecture, the Transformer, based solely on attention mechanisms, dispensing with recurrence and convolutions entirely.
- ^ 17.0 17.1 17.2 Ouyang, Long; Wu, Jeff; Jiang, Xu; Almeida, Diogo; Wainwright, Carroll L.; Mishkin, Pamela; Zhang, Chong; Agarwal, Sandhini; Slama, Katarina; Ray, Alex (2022-03-04). "Training language models to follow instructions with human feedback". arXiv preprint arXiv:2203.02155.
Making language models bigger does not inherently make them better at following a user's intent. For example, large language models can generate outputs that are untruthful, toxic, or simply not helpful.
- ↑ Rombach, Robin; Blattmann, Andreas; Lorenz, Dominik; Esser, Patrick; Ommer, Björn (2022). High-Resolution Image Synthesis with Latent Diffusion Models. Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). pp. 10684–10695.
By applying diffusion models in the latent space of powerful pretrained autoencoders... high-resolution synthesis becomes possible while significantly reducing computational requirements.
- ^ 19.0 19.1 Wei, Jason; Wang, Xuezhi; Schuurmans, Dale; Bosma, Maarten; Ichter, Brian; Xia, Fei; Chi, Ed H.; Le, Quoc V.; Zhou, Denny (2022). "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models". Advances in Neural Information Processing Systems (NeurIPS). 35.
A chain of thought is a series of intermediate natural language reasoning steps that lead to the final output... significantly improves the ability of large language models to perform complex reasoning.
- ^ 20.0 20.1 Allen, Gregory C. (2022-10-11). Choking off China’s Access to the Future of AI (Report). Center for Strategic and International Studies (CSIS).
The Biden administration is firmly focused on retaining control over so-called 'chokepoint' technologies... [it] marks a transformation of U.S. technology competition with China.
- ↑ "High-level summary of the AI Act". Future of Life Institute. 2024-05-30.
The AI Act classifies AI according to its risk: Unacceptable risk is prohibited (e.g. social scoring systems and manipulative AI).
- ↑ Samuel, Arthur L. (1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development. 3 (3): 211–229. doi:10.1147/rd.33.0211.
Lacking such knowledge, it is necessary to specify methods of problem solution in minute and exact detail... Programming computers to learn from experience should eventually eliminate the need for much of this detailed programming effort.
- ↑ Mitchell, Tom M. (1997). Machine Learning (PDF). McGraw-Hill. ISBN 978-0070428072.
A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E.
- ↑ Samuel, Arthur L. (1959). "Some Studies in Machine Learning". IBM Journal of Research and Development: 219.
The difference between these scores, defined as delta, is used to check the scoring polynomial.
- ↑ Samuel, Arthur L. (1959). "Some Studies in Machine Learning". IBM Journal of Research and Development: 218.
The entire learning process is an attempt to find the highest point in multidimensional scoring space in the presence of many secondary maxima on which the program can become trapped. [cite: 325]
- ↑ Russell, Stuart; Norvig, Peter (2021). "19: Learning from Examples". Artificial Intelligence: A Modern Approach (PDF) (4th (Global Edition) ed.). Pearson. ISBN 978-1292401133.
{{cite book}}: פרמטר לא ידוע|note=(עזרה) - ↑ Samuel, Arthur L. (1959). "Some Studies in Machine Learning". IBM Journal of Research and Development: 229.
As a result of these experiments one can say with some certainty that it is now possible to devise learning schemes which will greatly outperform an average person.
- ↑ Russell, Stuart; Norvig, Peter (2021). Artificial Intelligence: A Modern Approach (4th ed.). Pearson. pp. 651–653. ISBN 978-0134610993.
Learning can be seen as an optimization problem: finding the weights that minimize the loss function.
- ↑ Samuel, Arthur L. (1959). "Some Studies in Machine Learning Using the Game of Checkers". IBM Journal of Research and Development: 211–229.
Enough work has been done to verify the fact that a computer can be programmed so that it will learn to play a better game of checkers than can be played by the person who wrote the program.
- ↑ Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron (2016). Deep Learning. MIT Press. ISBN 978-0262035613.
Deep learning is a specific kind of machine learning that achieves great power and flexibility by learning to represent the world as a nested hierarchy of concepts.
- ^ 31.0 31.1 LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). "Deep learning". Nature. 521 (7553): 436–444. doi:10.1038/nature14539.
Conventional machine-learning techniques were limited in their ability to process natural data in their raw form... Deep-learning methods are representation-learning methods with multiple levels of representation...
- ↑ Haykin, Simon (2009). Neural Networks and Learning Machines (PDF) (3rd ed.). Pearson. ISBN 978-0131471399.
Three basic elements of the neuron model: 1. A set of synapses or connecting links... 2. An adder for summing the input signals... 3. An activation function for limiting the amplitude of the output of a neuron. [cite: 1]
- ↑ Cybenko, George (1989). "Approximation by superpositions of a sigmoidal function". Mathematics of Control, Signals and Systems. 2 (4): 303–314. doi:10.1007/BF02551274.
Finite linear combinations of compositions of a fixed, univariate function... can uniformly approximate any continuous function of n real variables. [cite: 2]
- ↑ Zeiler, Matthew D.; Fergus, Rob (2014). "Visualizing and Understanding Convolutional Networks". Computer Vision – ECCV 2014. Springer. pp. 818–833. doi:10.1007/978-3-319-10590-1_53.
Layer 2 responds to corners and other edge/color conjunctions... Layer 3 has more complex invariances, capturing similar textures... Layer 5 shows entire objects with significant pose variation.
- ↑ Samek, W.; Müller, K.-R. (2019). Towards Explainable Artificial Intelligence. Springer. pp. 5–22. doi:10.1007/978-3-030-28954-6_1.
Due to their nested non-linear structure, these powerful models have been generally considered 'black boxes', not providing any information about what exactly makes them arrive at their predictions.
{{cite book}}: פרמטר לא ידוע|book-title=(עזרה) - ↑ Selvaraju, Ramprasaath R.; et al. (2017). "Grad-CAM: Visual Explanations from Deep Networks via Gradient-based Localization". Proceedings of the IEEE International Conference on Computer Vision (ICCV). pp. 618–626. doi:10.1109/ICCV.2017.74.
Grad-CAM uses the gradients of any target concept... to produce a coarse localization map highlighting the important regions in the image for predicting the concept.
- ↑ OpenAI (2023). "GPT-4 Technical Report". arXiv preprint arXiv:2303.08774.
GPT-4 exhibits human-level performance on various professional and academic benchmarks, including passing a simulated bar exam with a score around the top 10% of test takers.
- ↑ Google DeepMind (2023). "Gemini: A Family of Highly Capable Multimodal Models". arXiv preprint arXiv:2312.11805.
Gemini Ultra... is the first model to outperform human experts on MMLU (Massive Multitask Language Understanding).
{{cite journal}}:|author=has generic name (עזרה) - ↑ Singhal, Karan; et al. (2023). "Large language models encode clinical knowledge". Nature. 620: 172–180. doi:10.1038/s41586-023-06291-2.
Med-PaLM 2... was the first model to reach human-level performance on the MedQA dataset of US Medical Licensing Examination-style questions.
- ↑ Vaswani, Ashish; Shazeer, Noam; Parmar, Niki; et al. (2017). "Attention Is All You Need" (PDF). Advances in Neural Information Processing Systems. Vol. 30. pp. 5998–6008.
The Transformer, a model architecture eschewing recurrence and instead relying entirely on an attention mechanism to draw global dependencies between input and output.
- ^ 41.0 41.1 Vaswani, Ashish; et al. (2017). "Attention is all you need" (PDF). Advances in Neural Information Processing Systems.
An attention function can be described as mapping a query and a set of key-value pairs to an output.
- ↑ Vaswani, Ashish; et al. (2017). "Attention is all you need" (PDF). Advances in Neural Information Processing Systems.
We use byte-pair encoding... This technique allows the model to handle an open vocabulary.
- ↑ Floridi, Luciano; Chiriatti, Massimo (2020). "GPT-3: Its Nature, Scope, Limits, and Consequences". Minds and Machines. 30: 681–694. doi:10.1007/s11023-020-09548-1.
GPT-3... is a very powerful statistical engine that predicts the next word in a sequence... without understanding what it says.
- ↑ Maleki, Negar; et al. (2024). "AI Hallucinations: A Misnomer Worth Clarifying". arXiv preprint arXiv:2401.06796.
Hallucination refers to instances where non-existent objects are erroneously detected... text generation systems suffer from this problematic phenomenon.
- ↑ Salvagno, Michele; et al. (2023). "Artificial intelligence hallucinations". Critical Care. 27 (180). doi:10.1186/s13054-023-04473-y.
AI hallucinations... refer to the generation of false or misleading information presented as fact.
- ↑ Dhariwal, Prafulla; Nichol, Alex (2021). "Diffusion Models Beat GANs on Image Synthesis". arXiv preprint arXiv:2105.05233.
Diffusion models are a class of likelihood-based models which have recently been shown to produce high-quality images... while offering desirable properties such as distribution coverage, a stationary training objective, and easy scalability.
- ↑ Ho, Jonathan; Jain, Ajay; Abbeel, Pieter (2020). "Denoising Diffusion Probabilistic Models". Advances in Neural Information Processing Systems (NeurIPS).
A diffusion probabilistic model... is a parameterized Markov chain trained using variational inference to produce samples matching the data after finite time... inspired by considerations from nonequilibrium thermodynamics.
- ↑ Rombach, Robin; et al. (2022). "High-Resolution Image Synthesis with Latent Diffusion Models". Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR).
To enable DM training on limited computational resources while retaining their quality and flexibility, we apply them in the latent space of powerful pretrained autoencoders.
- ↑ Radford, Alec; et al. (2021). "Learning Transferable Visual Models From Natural Language Supervision". International Conference on Machine Learning (ICML).
CLIP learns a multi-modal embedding space by jointly training an image encoder and text encoder to maximize the cosine similarity of the image and text embeddings of the N real pairs.
- ↑ Radford, Alec; et al. (2021). Learning Transferable Visual Models From Natural Language Supervision (PDF).
CLIP is trained on a dataset of 400 million (image, text) pairs collected from the internet... to maximize the cosine similarity of the image and text embeddings.
- ↑ Ouyang, Long; et al. (2022). "Training language models to follow instructions with human feedback" (PDF).
Language models... often exhibit untrustworthy behaviors such as generating false information... or simply not following user instructions. This is because the pre-training objective... is different from the objective of 'following user instructions'.
{{cite journal}}: Cite journal requires|journal=(עזרה) - ↑ Wei, Jason; et al. (2021). "Finetuned Language Models Are Zero-Shot Learners" (PDF).
Instruction tuning... involves finetuning a model on a collection of tasks described via instructions... substantially improving zero-shot performance on unseen tasks.
{{cite journal}}: Cite journal requires|journal=(עזרה) - ↑ Ouyang, Long; et al. (2022). "Training language models to follow instructions with human feedback" (PDF).
Labelers prefer outputs from our 1.3B InstructGPT model over outputs from the 175B GPT-3, despite having 100x fewer parameters.
{{cite journal}}: Cite journal requires|journal=(עזרה) - ↑ Bai, Yuntao; et al. (2022). "Constitutional AI: Harmlessness from AI Feedback" (PDF).
Constitutional AI involves training a model to follow a set of rules or principles... to be both helpful and harmless without requiring extensive human labels for harms.
{{cite journal}}: Cite journal requires|journal=(עזרה) - ↑ Rombach, Robin; et al. (2022). High-Resolution Image Synthesis with Latent Diffusion Models (PDF).
By operating in the latent space... LDMs significantly reduce computational requirements for both training and inference without impairing performance.
- ↑ Edsger W. Dijkstra, The threats to computing science
- ↑ דיצה קרן, בכיר סיילספורס: "ארגונים רבים שמשתמשים ב-AI מתפשרים על בטיחות המידע שלהם", באתר וואלה, 4 ביולי 2024
- ^ 58.0 58.1 Joshua P. Meltzer and Cameron F. Kerry, Strengthening international cooperation on artificial intelligence, מכון ברוקינגס, February 17, 2021
- ↑ רפאל קאהאן, סין מודיעה על חוקי אתיקה לשימוש בבינה מלאכותית - הראשונים מסוגם בעולם, באתר כלכליסט, 4 באוקטובר 2021
- ↑ Daitian Li, Tony W. Tong, and Yangao Xiao, Is China Emerging as the Global Leader in AI?, Harvard Business Review
- ↑ MELISSA HEIKKILÄ, China backs UN pledge to ban (its own) social scoring, פוליטיקו, November 23, 2021
- ↑ דניאל אדלסון, סין: AI חייב לדבוק בערכי הסוציאליזם, באתר ynet, 16 ביולי 2023
- ↑ דניאל אדלסון, פסגת AI בבית הלבן: שבע חברות התחייבו לכללי בטיחות חדשים, באתר ynet, 21 ביולי 2023
- ↑ טל שחף, פריצת הדרך של OpenAI עשויה לקרב את המטאברס, אבל טומנת בחובה סיכון עצום, באתר ynet, 20 בפברואר 2024
- ↑ קישור לאתר הממשלה בנושא מסמך העקרונות, מדיניות, רגולציה ואתיקה לבינה מלאכותית
- ↑ אורי אלון, מקצוע חדש בישראל בהסמכת הלשכה לטכנולוגיות המידע מיישם בינה מלאכותית, באתר הלשכה לטכנולוגיות המידע בישראל, 25 באוגוסט 2025
- ↑ Navigating the AI Regulatory Landscape: The Rise of Corporate Lobbying, BRB - Business Review at Berkeley, 23/10/2025
- ↑
אופיר דור, מודלים של בינה מלאכותית ניזונים ממידע - למה הם לא משלמים עליו?, באתר TheMarker, 21 באוגוסט 2023
- ↑ Ariel Bogle, New York Times, CNN and Australia's ABC block OpenAI's GPTBot web crawler from accessing content, The Gurardian, Aug 25, 2023
- ↑ Stuart Macdonald, Sara Giro Correia and Amy-Louise Watkin, Regulating terrorist content on social media: automation and the rule of law, אוניברסיטת קיימברידג', 20 June 2019
- ↑ רשימת המדינות שפרסמו אסטרטגיה לאומית בתחום בינה מלאכותית, באתר Medium
- ↑ "AlphaGo: Google's artificial intelligence to take on world champion of ancient Chinese board game". Australian Broadcasting Corporation. 8 במרץ 2016. נבדק ב-13 במרץ 2016.
{{cite news}}: (עזרה) - ↑ Douglas Heaven, No limit: AI poker bot is first to beat professionals at multiplayer game, Nature, 11 July 2019
- ↑ סרטון יו-טיוב המתאר הפעלה מרובה של רובוטים דמויי אדם של חברת UBITECH ממרץ 2025
- ↑ מאמר של גוגל Towards an AI co-scientist
- ↑ הבלוג באתר חברת World labs
- ↑ מסמך עקרונות המדיניות הרגולציה והאתיקה באתר הממשלה
- ↑ דווח על שת"פ עם חברת אוטובוסים בריטית באתר "ישראל היום"
- ↑ דווח על פעילות חברת Via באתר כלכליסט באנגלית
- ↑ מאמר על שילוב כלי AI ב"וולמארט", באתר Retaildive
- ↑ דווח על חברת BWR הישראלית באתר "גיקטיים" מינואר 2024
- ↑ מחקר של מרכז טאוב בנושא בינה מלאכותית ושוק העבודה הישראלי
- ↑ Richard Szeliski, Computer Vision: Algorithms and Applications, 2022
- ↑ Antonio Brunetti a, Domenico Buongiorno a, Gianpaolo Francesco Trotta b, Vitoantonio Bevilacqua, Computer vision and deep learning techniques for pedestrian detection and tracking: A survey, 2018
- ↑ Kristian M. Black, Hei Law, Ali Aldoukhi, Jia Deng, Khurshid R. Ghani, Deep learning computer vision algorithm for detecting kidney stone composition, 2020
בינה מלאכותית42751120Q11660