בינה מלאכותית כמערכת לגיטימציה

יגיל לוי

אפריל 2026

אפתח בשתי נקודות מוצא. ראשית, הצבא נדרש לרכוש לגיטימציה להפעלת כוח בזירות שונות במקביל – ציבורית, בין־לאומית ופנים־צבאית. הוא נדרש לרכוש לגיטימציה חיצונית במרחב הציבורי הישראלי, כדי לבסס אמון שהפעלת הכוח נעשית בצורה שהיא רצויה, או לפחות ראויה מוסרית או נכונה אינסטרומנטלית, לצד רכישת לגיטימציה בזירה הבין־לאומית. החתירה ללגיטימציה בשתי סביבות אלו כרוכה במתח.1

בה בעת, הוא נדרש לרכוש לגיטימציה פנים־צבאית, שנועדה להבטיח שהחיילים יממשו את האלימות המדינתית בהתאם למדיניות של מוסדות המדינה.2 במיוחד הצבא מתמודד עם האתגר למנוע ממפעילי החימוש לפתח דילמות מוסריות באשר ללגיטימיות של תוצרי ההפעלה, באופן שיביא להתנגדות להפעלת החימוש (למשל, צורות של סרבנות). זאת בפרט כשמדובר בהפעלה של מערכות טכנולוגיות מתקדמות בידי הרובד המשכיל יותר של הצבא. כמי שספוג בחינוך ליברלי ונוטה אידיאולוגית למרכז־שמאל, רובד זה נזקק ללגיטימציה כדי לממש אלימות, ובפרט במקרה של המלחמה בעזה, כשמדובר בהרג כה מסיבי. אטען כי מערכות המידע, מבוססות הבינה המלאכותית, שבהן השתמש הצבא במלחמה בעזה לצורך איתור מטרות, פיזיות ואנושיות, שירתו צורך זה.

נקודת המוצא השנייה היא שמערכת נשק (או תומכת נשק) אינה מספקת רק חימוש קטלני; מעצם תכונותיה ושיטות הפעלתה טמונה בה גם מערכת הלגיטימציה שלה. כך, למשל, מדינות המערב מציגות את המוסריות בשימוש בכטב"ם,  אף שהוא הגביר את תעוזתן לפגוע באנשים.3 זו גם טבען של מערכות המידע הצבאיות. ולכן אטען שהשימוש במערכות אלו והחצנתו מילאו תפקיד בהקניית הלגיטימציה - החוץ־צבאית והפנים־צבאית - לפעולות הצבא במלחמה.

לגיטימציה פנים־צבאית

לעמעומו של השיקול האנושי היה תפקיד מהותי בהחלטה את מי לתקוף, כלומר להרוג, תוך כדי הסטת שיקול הדעת למערכות הבינה המלאכותית. רשמית, הצבא טען שהגורם האנושי מאשר את התקיפה ואת זה גם תיקשר כלפי פנים. דוגמה לכך הייתה באמירה כי "המערכת מבוססת ה־AI יודעת להמליץ על מטרה בהתאם למודיעין הרב שמוזרם אליה, ולתת המלצה האם כדאי לתקוף אותה או לא. ההמלצות מגיעות למחקר והכללת מטרות. על השיטה נעשה תהליך בקרה כפול על המכונה ועל החיילים".4 למרות זאת, דווקא עמעומו של השיקול האנושי מונף לצורכי לגיטימציה פנימית, כפי שהעיד קצין בכיר שהיה מעורב בתכנון המטרות:

בדקו מה הדירוג, מה הציון שממנו והלאה יש לך 90% להיות חמאסניק. הכל סטטיסטי. הכל נורא מסודר. זה היה מאוד יבש. בעיני זה הוכיח את עצמו. יש משהו בגישה הסטטיסטית שמקבע אותך נורמה ולסטנדרט מסוים. במבצע הזה היתה כמות לא הגיונית של תקיפות. אין לזה אח ורע, לזיכרוני. ואני הרבה יותר סומך על מנגנון סטטיסטי, מאשר על חייל שאיבד חבר שלו לפני יומיים. כולם שם, גם אני, איבדנו אנשים ב־7 באוקטובר. המכונה עשתה את זה בצורה קרה. וזה מאוד הקל.5

תחושת הקור הזאת עלתה גם משיחה עם טייסים.6 קצין שתפקידו להכין את בנק המטרות לתקיפה אישר כי אינו יודע מהם מקורות המידע המזינים את הבנק. כאשר נשאל: "אז מגיעות אליך מטרות שיכול להיות שאיזשהו מחשב פלט בקצב מסחרר, ואתה מתייחס אליהן כמו לאלה שבן אדם עבד עליהן וחקר?", השיב: "כן, אני לא יכול לשפוט את זה, ואני גם לא בטוח מה עדיף. גם אנשים יכולים לטעות, נכון? ומחשבים גם יכולים לטעות. אין דרך לשפוט את זה באזור העבודה שלנו."

יש בדבריו כדי להעניק לגיטימציה למכונה בהקשר המסוים של תהליכי קבלת החלטות במטה, כאשר הנתונים נפלטים "בקצב מסחרר" שאינו מאפשר בקרה אנושית מלאה. נזכיר כי בשל קצב ייצור המטרות, הוקדש זמן קצר, במונחי שניות, לאישור מטרה.7 ואולם, ייחודיותה של הבקרה האנושית נמחקת למעשה ברגע שהקצין מציב שוויון בין שיקול אנושי לשיקול מכונה. במקרה זה הלגיטימציה אינה נובעת מהטענה שהמכונה מציעה שיפוט טוב יותר משיפוט אנושי, כפי שנאמר בעדות הקודמת, אלא מכך שעצם יצירת השוויון מאפשרת לקצין לסגת הצידה ולקבל את שיפוטה בתנאי עומס קיצוניים. האלגוריתם אינו מעניק לגיטימציה מפני שהוא טוב מן האדם, אלא מפני שהוא מאפשר לפעול גם כאשר האדם אינו מסוגל עוד לשפוט.

מנגנון לגיטימציה זה אינו ייחודי למקרה הישראלי. מחקרים על הפעלת כטב״מים, על ספירת גופות במלחמות ועל תהליכי קביעת מטרות בנאט"ו, הראו כיצד סטטיסטיקה, פרוצדורה ואלגוריתמיזציה תפקדו כמנגנוני הקלה מוסרית.8 ייחודו של המקרה הנידון כאן הוא בהפיכתו של "הקור" האלגוריתמי עצמו למשאב לגיטימציוני מוצהר כלפי פנים.

כך שלמרות הכחשת הצבא, השיקול האנושי נעלם או לכל היותר התגמד וכך זה נתפס כלפי פנים. למרבה האבסורד, הרעיון שמכונה גוזרת גורל אדם לחיים או למוות הפך למקור לגיטימציה. בראייה רחבה יותר, השימוש בבינה מלאכותית תורם ל"דה־הומניזציה דיגיטלית". אנשים המסומנים כמטרות אינם נתפסים עוד כבני אנוש בעלי זהות, אלא מצטמצמים לסדרה של נקודות מידע, כולל מאפיינים פיזיים כמו צורת גוף, טמפרטורת גוף, צבע עור או מהירות תנועה.הדיגיטציה מעודדת שימוש בה, משום שהיא מצמצמת מעורבות רגשית ומקהה עכבות מוסריות, יותר מאשר דה־הומניזציה מילולית או "חייתית",10 כזאת המייחסת תכונות חייתיות או מפלצתיות לאויב. נטייה זו עלתה גם במחקר בישראל.11

דה־הומניזציה היא מנגנון לגיטימציה חשוב המקל על הרג. דה־הומנזיציה מסייעת, בין היתר, להתמודד עם ערכים אוניברסליסטיים המחוברתים לצעירים בעידן הפוסט־מודרני, אך בעת מלחמה הם יכולים לעורר התנגדות להפעלת אלימות.12 בעוד ציור העזתי כמפלצת אנושית שאינה חפה מפשע הוא דפוס של דה־הומניזציה שתימרץ את כוחות היבשה, נזקק הרובד המשכיל יותר של הצבא לתמריץ מתוחכם יותר כדי להרוג ובעיקר בצורה מתועשת. דה־הומניזציה דיגיטלית נתנה לכך מענה.

לגיטימציה במרחב הציבורי

בעולם מקובל להשתמש לצורכי לגיטימציה במוניטין הדיוק, כלומר, היכולת של כלי נשק לצמצם את הנזק האגבי. הדוגמה של הצגת הכטב"ם כמערכת נשק מוסרית הוצגה למעלה. השימוש במוניטין זה נועד להתגבר על ההתנגדות מבית להפעלת אלימות, שיש בה פוטנציאל לפגיעה באזרחים. המוניטין הזה חשוב לא רק בגלל התוצאה עצמה, אלא גם בזכות תהליך קביעתה של המטרה שנועד לצמצם נזק אגבי. לכן, גם אירועים שבהם נהרג מספר גבוה של אזרחים זוכים ללגיטימציה, שהרי

גישה פרוצדורלית ללגיטימיות מוסרית נוטה לקבל תוצאות מצערות אם כל השלבים בדרך נקבעו מראש כתקפים... נפגעים אזרחיים המתרחשים דרך נהלי קביעת מטרות אלה, למרות שהם טרגיים, הופכים מעצם טבעם למוצדקים.13

בישראל מוניטין הדיוק ממלא תפקיד פחות חשוב מכפי שמילא בחברות מערביות, שכן הלגיטימציה בציבור היהודי לפגיעה אגבית באזרחי אויב אינה מעמידה אתגר הדומה לזה שבחברות המערביות.14 אם נדרשה לכך הוכחה נוספת, הרי שבמלחמה זו, לא הופיעה התנגדות מהותית בציבור היהודי לפגיעה באזרחים עזתים. להמחשה, גם ביום השנתיים למלחמה וסמוך לסיומה, רוב מובהק האמין שיש לסיימה, כששתי הסיבות העיקריות הן החזרת החטופים והנזק הכלכלי והחברתי שהמלחמה גורמת מבית, אך בקרב היהודים רק שני אחוזים ראו בהפסקת הפגיעה בתושבי עזה סיבה לסיים את המלחמה.15 זה מעיד עד כמה מינורי הוא האתגר לבסס לגיטימציה מבית לפגיעה באזרחים. יתר על כן, הטענה לדיוק פועלת כחרב פיפיות: בעקבות סבבי לחימה קודמים בעזה, דוחות של ארגונים בין־לאומיים הטילו על ישראל אחריות־יתר לפגיעה באזרחים, דווקא בשל טענתה שהיא השתמשה בחימוש מדויק.16 לנוכח זאת, מעניין לראות איזה שימוש לגיטימציוני עשה הצבא במוניטין הדיוק של מערכות הבינה המלאכותית. 

בנובמבר 2023, בראשיתה של הפעולה הקרקעית, פרסם דובר צה"ל הודעה ובה טען:

סטנדרט המטרות המיוצרות במרכז המטרות הוא הגבוה ביותר. אנחנו לא מתפשרים על איכות התוצר והמודיעין, ומייצרים מטרות לתקיפות מדויקות לתשתיות המשויכות לחמאס, תוך הסבת נזק רב לאויב ופגיעה מינימלית בבלתי מעורבים" (ההדגשה הוספה).17

ומכאן, עצם החשיפה של התהליך המדויק של זיהוי מטרות שימש ללגיטימציה של ההרג וההרס שהשימוש באמצעים גרם, לנוכח הביקורת שנמתחה באותה עת על ישראל בעולם על שיעור גבוה של הרוגים אזרחים בתקיפות מהאוויר שקדמו לפעולה הקרקעית.18 אפשר שבשלב זה עדיין חשש הצבא שהביקורת הבין־לאומית החריפה על שיעורי הרג תקדימיים תצית ביקורת בדעת הקהל בישראל ולכן יזם פרסום מונע. אבל זו הייתה מעין שירת הברבור של נתיב לגיטימציה זה בזירה הפנימית.

האתגר העיקרי מנקודת זמן זו היה להכחיש את הטענה שהחלה להתפתח בעולם, שמערכות הבינה "מפלילות" בלא אישור אנושי. לכן הודגש שהמערכות הן כלי עזר לאנשי המודיעין, ובסופו של תהליך, התקיפה המתוכננת מקבלת אישור רק לאחר בחינה עצמאית אנושית. הודעה ראשונה על כך פרסם הצבא בתשובה לבקשת מידע מישראלים.19 התגובה המפורטת יותר ניתנה באפריל 2024 בעקבות כתבת תחקיר מקיפה של "שיחה מקומית" וה"גרדיאן" הבריטי,20 שחשפה את כשלי המערכות. הצבא אז הדגיש את דבקותו במשפט הבין־לאומי ואף גימד עוד יותר את עצמאות המערכות וטען (באנגלית):

מערכות המידע הן כלי עזר בלבד בידי האנליסטים בתהליך הזיהוי... האנליסטים מחויבים לבצע בדיקות עצמאיות, בהן הם מוודאים שהמטרות שזוהו עומדות בהגדרות הרלוונטיות על פי המשפט הבין־לאומי ובכפוף למגבלות נוספות שקבע צה"ל. ה"המערכת" [לבנדר]... אינה מערכת, אלא מסד נתונים שמטרתו הצלבת מקורות מודיעין, על מנת להפיק שכבות מידע עדכניות לגבי לוחמי ארגוני טרור. אין מדובר ברשימה של לוחמים מאושרים לתקיפה (ההדגשה הוספה).21

מילה לא נאמרה בתגובות אלו על תרומתן של המערכות לדיוק, המאפשר למנוע פגיעה באזרחים, מה שמלמד שלא הדיוק עמד במרכז שיקולי הצבא אלא "תיעוש" המטרות, בכפוף לכאורה למגבלות. רק חצי שנה מאוחר יותר, בתגובה על תחקיר של "הוושינגטון פוסט" התייחס הצבא שוב לסוגיית הדיוק אך בקצרה ובלא חשיפה של מידע תומך: "ככל שיש לך יכולת גבוהה יותר להרכיב חלקי מידע באופן יעיל, כך התהליך מדויק יותר. אם כבר, כלים אלה צמצמו נזק אגבי והגבירו את הדיוק של התהליך המונחה בידי בני אדם".22 זאת אף שהמערכות היו חשופות לטעויות, ובהן הזנה של נתונים שגויים או בלתי מעודכנים (מה שיכול להביא לזיהוי אזרחים כמטרות), או טעות בפרשנות ואף בתרגום של טקסטים שהביאו ל"הפללת״ אזרחים עזתים כלוחמים.23 ואולם, יש להניח שטענת הדיוק הסתמכה על כך שהצבא פגע במבנים ספציפיים על סמך מידע מוקדם, תוך כדי שהוא מאשר שיעור גבוה של נזק אגבי. גם זה ביטוי לדיוק ביחס לחלופה של תקיפה לא ממוקדת, שיכולה הייתה להביא למספר גבוה עוד יותר של הרוגים. אך גם ייתכן שההפך הוא הנכון: ספק אם הייתה ישראל זוכה ללגיטימציה להשמיד אזורי מגורים נרחבים רק מתוך הנחה שמתגוררים בהם אנשי חמאס, ולכן אפשר שיכולת ההרג הייתה מוגבלת. ומכאן, שיותר משהצבא חתר לדיוק, נעשה ניסיון למזער באמצעות מוניטין הדיוק את המוניטין השלילי של "תיעוש" ההרג, והוא כוון בעיקר כלפי חוץ.

סיכום

התפקיד של השיקול האנושי בשרשרת ההרג מילא תפקיד לגיטימציוני כפול: היעדרו או החלשתו הניכרת סיפקו לגיטימציה כלפי פנים, בעוד הדגשת קיומו בהודעות הצבא כי מדובר במערכות התומכות בהחלטה אנושית ולא מחליפות אותה, סיפקה לגיטימציה כלפי חוץ, אך בעיקר ברמה הבין־לאומית ולא הפנים־ישראלית. זוהי המחשה כיצד מערכות לגיטימציה מתקיימות במתח. מקרה זה מדגים כי הדיון האתי בבינה מלאכותית צבאית אינו יכול להתמקד רק בשאלת ה"אדם בלולאה", אלא חייב להתייחס לאופן שבו עצם נוכחותה של הטכנולוגיה מייצרת תנאים חדשים ללגיטימציה של אלימות. במובן זה, הבינה המלאכותית אינה רק אמצעי לחימה או כלי תומך החלטה, אלא רכיב פעיל במנגנוני תיעוש ההרג והצדקתו.

יגיל לוי הוא פרופסור למדיניות ציבורית וסוציולוגיה פוליטית באוניברסיטה הפתוחה וראש מכון האוניברסיטה הפתוחה לחקר יחסי חברה-צבא. תחום מחקרו הוא מערכות היחסים צבא-חברה-פוליטיקה.

מאמרים נוספים בסדרה:

פתיחת הדיון  - יגיל לוי 

מאמר מספר 1 - ללא בינה מלאכותית אין קצב השמדה וצורת השמדה כמו עזה - על אלגוריתמיזציה של ההרג בעזה (אוקטובר 2023 - ינואר 2024) - סבסטיאן בן דניאל

מאמר מספר 2נוהל ערפל - על אטימות, הטיה ואי־חוקיות מובנית - אבנר גבריהו

מאמר מספר 3 - מערכות בינה מלאכותית כמנגנון ממוחשב לשיתוף בפשע: המקרה של "הבשורה" והפצצת רצועת עזה בימי המלחמה הראשונים - אדם רז

מאמר מספר 4 - בינה מלאכותית כמערכת לגיטימציה - יגיל לוי

מאמר מספר 5 - ללא מצפן: הצורך הדחוף של צה״ל בדוקטרינה אתית לשימוש במערכות נשק
אוטונומיות ובינה מלאכותית - ראובן גל


הערות


1 Robert D. Putnam,Diplomacy and Domestic Politics: The Logic of Two-Level Games, International Organization 42, 3 (1988): 427–460

2 Yagil Levy, Legitimacy of Violence: Extra-Military versus Intra-Military Legitimacy,“ Critical Military Studies 9, 2 (2023): 216–235

3 Grégoire Chamayou, A Theory of the Drone (The New Press, 2013)

הופיע בכתבה: רון בר-זיק, "2,590 מסמכים עם שמות טייסים ומידע סודי נחשפו באינטרנט. לצה"ל נדרשו שישה ימים לסגור את הפרצה",  The Marker - דה מרקר, 11 ינואר 2026

5 יובל אברהם, "תחקיר: בתוך המנגנון האוטומטי של ההרג ההמוני בעזה", שיחה מקומית, 3 באפריל 2024

6 איתי משיח ורן שמעוני, "אנחנו אלופים בלהדחיק: על רקע הסדר בחיל האוויר, הטייסים מדברים", הארץ, 17 באפריל 2025

7 אברהם, תחקיר

8 לדוגמה:  Yagil Levy,The Logic of Body Counting: From Korea to Gaza, Critical Military Studies (2025): 1–25

Muzen Ismailovic, Algorithmic Targeting: The Role of Artificial Intelligence in Israeli Strikes in Gaza and Its Ethical Implications, Éclairage du GRIP, May 2, 2025

10 Paul Lushenko, Dehumanization and Public Support for Emerging Technologies on the Battlefield, Perry World House, University of Pennsylvania, November 24, 2025

11 Lushenko, Dehumanization and Public Support

12 Siniša Malešević, The Sociology of War and Violence (Cambridge University Press, 2010), 142

13 Brian Smith, Civilian Casualty Mitigation and the Rationalization of Killing, Journal of Military Ethics 20, 1 (2021): 5

14 יגיל לוי, יורים ולא בוכים: המיליטריזציה החדשה של ישראל בשנות האלפיים (למדא עיון, 2023), 335-328

15 תמר הרמן ואח', "סקר מיוחד – שנתיים למלחמה בעזה: 66% מכלל הציבור סבורים שהגיע הזמן לסיים את המלחמה", המכון הישראלי לדמוקרטיה, 30 בספטמבר 2025

16 לוי, יורים ולא בוכים, 334-333

17 "הצצה למפעל המטרות של צה"ל הפועל מסביב לשעון", אתר צה"ל,  2 בנובמבר 2023, קישור

18 לדוגמה: ניו יורק טיימס, "מומחים: קצב ההרג של אזרחים בעזה חריג בהשוואה למלחמות אחרות במאה הנוכחית", הארץ, 27 בנובמבר 2023

19 דובר צה"ל, "בקשתך למידע בנושא מידע בעניין מערכת 'הבשורה'", 24 בפברואר 2024, קישור.

20 אברהם, "תחקיר"

21  IDF, Use of AI and Targeting Practices (Response to The Guardian Query Published April 3, 2024),(emphasis added) April 3, 2024, Link 

22 Elizabeth Dwoskin, Israel Built an 'AI Factory' for War. It Unleashed It in Gaza, Washington Post, December 29, 2024

23 Dwoskin, Israel Built an 'AI Factory' for War; Michael Biesecker, Sam Mednick, and Garance Burke,As Israel Uses US-Made AI Models in War, Concerns Arise about Tech's Role in Who Lives and Who Dies,“ AP News, February 18, 2025