ללא מצפן: הצורך הדחוף של צה״ל בדוקטרינה אתית לשימוש במערכות נשק
אוטונומיות ובינה מלאכותית

ראובן גל

אפריל 2026

השימוש הנרחב שעשה צה״ל במערכות נשק ובמערכות עיבוד נתונים מבוססות בינה מלאכותית (AI) במהלך מלחמת “חרבות ברזל", סימן קפיצת מדרגה טכנולוגית בלחימה המודרנית, אך גם חשף פער חמור – ואולי מסוכן – בין יכולת מבצעית מתקדמת לבין הֶעדר תורת לחימה (תו״ל) או דוקטרינה ברורה, המסדירה את ההיבטים האתיים, המוסריים והערכיים של השימוש בהן. תופעה זו איננה ייחודית לצה"ל והיא מטרידה צבאות מערביים רבים.1 ואולם, בעבור צה"ל הפער הזה אינו עניין תיאורטי; הוא נוגע בליבת האחריות הצבאית, בדימויו של צה״ל כצבא מוסרי, וביכולתו לפעול באפקטיביות, במשימות התקפיות והגנתיות כאחת, בעידן של לחימה אלגוריתמית מואצת.

יש לפתוח דיון זה בהבהרת מושגים. מערכות נשק אוטונומיות מחולקות כיום לשני תתי־סוגים: מערכות נשק קטלניות אוטומטיות שהן אוטונומיות לחלוטין Lethal Autonomous Weapons Systems ומכוּנוֹת LAWS, ומערכות דומות שהן אוטונומיות־למחצה - Partially Autonomous - ועל כן מכוּנוֹת PALWS. אף שברשות צה"ל מצויות מערכות נשק כאלו, וחלקן אף הופעלו (כמעט תמיד באופן אוטונומי למחצה בלבד) בסבבי המלחמה האחרונים, עיקר המאמר איננו עוסק במערכות הנשק הקטלניות הללו, כי אם במערכות עיבוד נתונים המספקות את המידע למקבלי ההחלטות במפקדות המבצעיות ולמתכננים של מה שמוּכר בציבור כ"בנק מטרות". 

תחקירים עיתונאיים וניתוחים מקצועיים שנערכו במהלך מלחמת "חרבות ברזל" הצביעו על אוטומציה עמוקה, הולכת וגוברת, בתהליכי סימון מטרות ותקיפתן באמצעות מערכות עיבוד נתונים מבוססות בינה מלאכותית, כמו "הגוספל" ו"לבנדר". על פי עדויות שפורסמו, אלגוריתמים סימנו עשרות אלפי מטרות אנושיות בקצב חסר תקדים, בעוד הפיקוח האנושי בפועל היה לעתים מצומצם ביותר, עד כדי תפקוד כ"חותמת גומי" לאישור תקיפות.2 תיאורים של קביעת "מכסות נזק אגבי", לחצים לאישור מהיר של מטרות והסתמכות על מערכות הלומדות ממאגרי נתונים מוּטים או בלתי מבוססים, מעלים שאלות קשות בנוגע לעקרונות ההבחנה, המידתיות והאחריות האישית בלחימה.3

חשוב להדגיש: בעיות אלו אינן תוצאה בלתי נמנעת של הטכנולוגיה עצמה, אלא של אופן הטמעתה. כבר לפני כמעט עשור הושמעו אזהרות מפי מומחים בצבאות מערביים בנוגע לסיכונים של "נטיית האוטומציה" (Automation Bias) ו־"התרשלות של האוטומציה" (Automation Complacency) מצד המפעילים ומקבלי ההחלטות מאחורי מערכות מבוססות AI. בצד סיכונים מבצעיים ואסטרטגיים, הצביעו מומחים אמריקאיים ממכון RAND על סיכונים אתיים ומשפטיים הקשורים לדינים בין־לאומיים הומניטריים, לשאלות של אחריות מוסרית ומשפטית וכן לנושאים של כבוד האדם וזכויות אדם.האזהרות גם מושמעות מצד ארגונים בין־לאומיים שונים,5 וכן מפיהם של אקדמאים ומעצבי דעה בעלי מוניטין. מייקל וולצר, מחברו של הספר מלחמות צודקות ובלתי צודקות,6 יצא בקריאה החלטית, כבר לפני כעשור,7 להכריז איסור מלא על מה שהוא קורא "Drone Warfare". 

ואצלנו? כבר לפני אסון ה־7 באוקטובר הוזהר צה״ל מפני הסיכונים הערכיים הכרוכים בהפעלת מערכות נשק אוטונומיות. בפרק שנכתב עוד לפני אסון אוקטובר 2023, התריעו המחברים כי בלא תורת לחימה ברורה ומפורטת בתחום האתי, ספק אם "רוח צה״ל" תוכל לשמש מצפן מעשי למפעילים ולקצינים בשדה הקרב, וכי יש צורך דחוף במחקרים, בסימולציות ובדיוני עומק מוסדיים בנושא.עוד לפני כן, קרא הח"מ למפקדי צה"ל "להשקיע... מאמץ מערכתי מקביל... לקיים ימי עיון, סדנאות, כנסים מקצועיים ותוכניות הכשרה ברמות השונות. יש לעודד כתיבת מאמרים והבעת דעות בכל הנושאים הללו, ולקיים שיח פורה שיכלול את כל מגוון הדעות".בדיעבד, קשה להשתחרר מהרושם שאזהרות וקריאות אלו לא תורגמו לעבודה סדורה, וכי "אשר יגורנו – בא לנו."

מתוך כל התחקירים והמקורות שבידינו עולה כי ערב מלחמת "חרבות ברזל" לא הייתה תורת לחימה סדורה, אף לא דוקטרינה מוסכמת, מאושרת ושקופה לשימוש מבצעי במערכות AI לצורך סימון מטרות ותקיפתן. העוגן הערכי־נורמטיבי היחיד שעמד לרשות מפקדים בתהליכי קבלת ההחלטות שלהם היה יושרתם האישית או הנורמות המוסריות שעליהם "גדלו" בצה"ל. ואולם, הפער בין ההנחיות הכלליות של "רוח צה"ל" לבין המורכבות האלגוריתמית שבה פעלו מפקדים בשטח – יצר ואקום נורמטיבי, שבו ברוב המקרים ההכרעות התקבלו תחת לחץ מבצעי ובלא מסגרת אתית ייעודית. תחושת הנקם הכללית שאפיינה את המפקדים והלוחמים, בעיקר בחודשי המלחמה הראשונים, חִלחלה בלא קושי לתוך הואקום הנורמטיבי הזה. 

הדגמה אנקדוטית בנוגע להימנעות הבלתי־נשלטת של גורמי צה"ל השונים מלעסוק בהיבטים האתיים של הנושא עולה מהמקרה שלהלן: בשנת 2016 פרסם סא"ל סמואל בומנדיל (ששימש אז בתפקיד פיקודי־חינוכי כמפקד בסיס "חוות השומר"), מאמר בביטאון "בין הקטבים" שבהוצאת מרכז דדו, שכותרתו "במקום בו אין אנשים: על האתגרים הצפויים לצה"ל כתוצאה מהשימוש הגובר בכלי נשק בלתי מאוישים".10 שלא במקרה כלל סא"ל בומנדיל במאמרו את סיפור הגולם מפראג, כ־"מעֵין אבטיפוס קסום וראשוני של רובוט צבאי". תא"ל סמואל בומנדיל הוא כיום קצין חינוך ראשי (קח"ר) של צה"ל.  כפי שנמסר לנו,11 מפקדת קצין חינוך ראשי לא יזמה עד היום כל פעילות מערכתית מסוג ההמלצות שהוזכרו לעיל. 

הֶעדר הדוקטרינה בא לידי ביטוי גם באמביוולנטיות של ההתבטאויות הרשמיות. מצד אחד, מודגש שוב ושוב, על ידי הגורמים הצה"ליים המוסמכים, כי "האדם נשאר בלולאה" וכי האחריות היא אנושית. מצד אחר, בכל המערכות הביטחוניות הרלוונטיות, אין כמעט דיון פומבי, שיטתי ושקוף במנגנוני קבלת ההחלטות בפועל, במגבלות האלגוריתמים או בשאלת חלוקת האחריות בין מפקדים, מפעילים ומפתחים. הפער הזה יוצר מבוכה מוסדית ומחליש את האמון הפנימי והחיצוני כאחת.

ניתן להבין את המצב גם באמצעות מושג "ההפתעה הבסיסית": לא כשל נקודתי, אלא קריסה של הנחות יסוד. ההנחה שניתן לשלב מערכות AI קטלניות בתוך מסגרות מוסריות ונורמטיביות קיימות, מבלי לעדכן ולהתאים את המערכות הללו, התבררה כשגויה. צה״ל מצא עצמו מפעיל טכנולוגיה המשנה את אופי קבלת ההחלטות, את קצב הלחימה ואת המשמעות של האחריות – בלא תשתית מושגית ונורמטיבית מותאמת.

מה ניתן וצריך לעשות? ראשית, יש לגבש בדחיפות תורת לחימה אתית־מבצעית ייעודית לשימוש במערכות אוטונומיות ומבוססות־AI, שתגדיר עקרונות, גבולות, ותהליכי פיקוח ברורים. שנית, יש להשקיע במחקר, בסימולציות וכן בהכשרה ייעודית למפקדים ולמפעילים, שתתמודד לא רק עם "איך מפעילים", אלא עם "מתי ראוי לא להפעיל". שלישית, יש לשלב שיח משפטי, אֶתי וחינוכי גלוי בתוך הצבא, ולא להותיר את הדיון רק לשדה הביקורת החיצונית.

הבינה המלאכותית כאן כדי להישאר. השאלה איננה אם להשתמש בה, אלא האם צה״ל יבחר להפעיל אותה עם מצפן ערכי ברור – או להמשיך לנווט, גם בעתיד, בלא דוקטרינה, ולשלם את המחיר המוסרי, המשפטי והאסטרטגי הכרוך בכך.

ד"ר ראובן גל הוא עמית מחקר בכיר במוסד שמואל נאמן למחקר מדיניות לאומית בטכניון. מחקריו עוסקים  בתחומי מנהיגות, חוסן לאומי, מצבי לחץ ונושאים חברתיים. שירת כראש  ממד"ה (מחלקת מדעי ההתנהגות) של צה"ל;  כיהן כסגן ראש המל"ל (המועצה לביטחון לאומי), לנושאי פנים, חברה ותשתיות; וכן הקים וניהל את מנהלת השירות האזרחי־לאומי במשרד ראש הממשלה. הוא גם המייסד והיו"ר לשעבר של אגודת חוקרי צבא־חברה בישראל. 

מאמרים נוספים בסדרה:

פתיחת הדיון  - יגיל לוי 

מאמר מספר 1 - ללא בינה מלאכותית אין קצב השמדה וצורת השמדה כמו עזה - על אלגוריתמיזציה של ההרג בעזה (אוקטובר 2023 - ינואר 2024) - סבסטיאן בן דניאל

מאמר מספר 2 - נוהל ערפל - על אטימות, הטיה ואי־חוקיות מובנית - אבנר גבריהו

מאמר מספר 3 - מערכות בינה מלאכותית כמנגנון ממוחשב לשיתוף בפשע: המקרה של "הבשורה" והפצצת רצועת עזה בימי המלחמה הראשונים - אדם רז

מאמר מספר 4 - בינה מלאכותית כמערכת לגיטימציה - יגיל לוי

מאמר מספר 5 - ללא מצפן: הצורך הדחוף של צה״ל בדוקטרינה אתית לשימוש במערכות נשק
אוטונומיות ובינה מלאכותית - ראובן גל


הערות

1 Forrest E. Morgan et al., Military Applications of Artificial Intelligence: Ethical Concerns in an Uncertain World (RAND, 2020) Link

2 Yuval Abraham, "'Lavender': The AI Machine Directing Israel's Bombing Spree in Gaza," +972 Magazine, April 3, 2024 Link; Questions and Answers: Israeli Military's Use of Digital Tools in Gaza, Human Rights Watch, September 10, 2024 Link;   Bethan McKernan and Harry Davies, "'The Machine Did It Coldly': Israel Used AI to Identify 37,000 Hamas Targets," The Guardian, April 3, 2024 Link 

יובל אברהם, "תחקיר: בתוך המנגנון האוטומטי של ההרג ההמוני בעזה", שיחה מקומית, 3 באפריל 2024 קישור

4 Morgan et al., Military Applications 

5 Vincent Boulanin et al., Limits on Autonomy in Weapon Systems: Identifying Practical Elements of Human Control (SIPRI, 2020)

6 מייקל וולצר, מלחמות צודקות ולא צודקות, תרגום יורם ברונובסקי (עם עובד, ספריית אפקים, 1983). ובמקור –

Michael Walzer, Just and Unjust Wars: A Moral Argument with Historical Illustrations (Basic Books, 1977) 

7  Michael Walzer, "Just & Unjust Targeted Killing & Drone Warfare," Daedalus 145, 4 (2016): 194 

8 ראובן גל ויעקב שנרב, "דילמות אתיות הקשורות בהפעלת מערכות נשק אוטונומיות חמושות בישראל: בחינה אל מול תר"ש 'תנופה'" בתוך תנופה ותורפה: קריאות חברתיות בדוקטרינה הצבאית של ישראל, עריכה: עפרה בן-ישי, יגיל לוי ורינת משה (פרדס, 2024), 156-127 [הח"מ הציג כבר במחצית שנת 2023 את עיקרי המאמר המדובר בפורומים מקצועיים שונים, כולל בפני גורמים בכירים בצה"ל]. 

ראובן גל, "השלכות נורמטיביות של הפעלת מערכות נשק אוטונומית חמושות: אתגר בשדה הקרב העתידי", חברה, צבא וביטחון לאומי 4 (2022): 38 

10 סמואל בומנדיל, "'במקום בו אין אנשים': על האתגרים הצפויים לצה"ל כתוצאה מהשימוש הגובר בכלי נשק בלתי מאוישים", בין הקטבים, 9 (2016): 126-99 

11 בשיחה אישית עם תא"ל בומנדיל, 29 דצמבר, 2025.