השימוש הנרחב שעשה צה״ל במערכות נשק ובמערכות עיבוד נתונים מבוססות בינה מלאכותית (AI) במהלך מלחמת “חרבות ברזל", סימן קפיצת מדרגה טכנולוגית בלחימה המודרנית, אך גם חשף פער חמור – ואולי מסוכן – בין יכולת מבצעית מתקדמת לבין הֶעדר תורת לחימה (תו״ל) או דוקטרינה ברורה, המסדירה את ההיבטים האתיים, המוסריים והערכיים של השימוש בהן. תופעה זו איננה ייחודית לצה"ל והיא מטרידה צבאות מערביים רבים.1 ואולם, בעבור צה"ל הפער הזה אינו עניין תיאורטי; הוא נוגע בליבת האחריות הצבאית, בדימויו של צה״ל כצבא מוסרי, וביכולתו לפעול באפקטיביות, במשימות התקפיות והגנתיות כאחת, בעידן של לחימה אלגוריתמית מואצת.
יש לפתוח דיון זה בהבהרת מושגים. מערכות נשק אוטונומיות מחולקות כיום לשני תתי־סוגים: מערכות נשק קטלניות אוטומטיות שהן אוטונומיות לחלוטין - Lethal Autonomous Weapons Systems ומכוּנוֹת LAWS, ומערכות דומות שהן אוטונומיות־למחצה - Partially Autonomous - ועל כן מכוּנוֹת PALWS. אף שברשות צה"ל מצויות מערכות נשק כאלו, וחלקן אף הופעלו (כמעט תמיד באופן אוטונומי למחצה בלבד) בסבבי המלחמה האחרונים, עיקר המאמר איננו עוסק במערכות הנשק הקטלניות הללו, כי אם במערכות עיבוד נתונים המספקות את המידע למקבלי ההחלטות במפקדות המבצעיות ולמתכננים של מה שמוּכר בציבור כ"בנק מטרות".
תחקירים עיתונאיים וניתוחים מקצועיים שנערכו במהלך מלחמת "חרבות ברזל" הצביעו על אוטומציה עמוקה, הולכת וגוברת, בתהליכי סימון מטרות ותקיפתן באמצעות מערכות עיבוד נתונים מבוססות בינה מלאכותית, כמו "הגוספל" ו"לבנדר". על פי עדויות שפורסמו, אלגוריתמים סימנו עשרות אלפי מטרות אנושיות בקצב חסר תקדים, בעוד הפיקוח האנושי בפועל היה לעתים מצומצם ביותר, עד כדי תפקוד כ"חותמת גומי" לאישור תקיפות.2 תיאורים של קביעת "מכסות נזק אגבי", לחצים לאישור מהיר של מטרות והסתמכות על מערכות הלומדות ממאגרי נתונים מוּטים או בלתי מבוססים, מעלים שאלות קשות בנוגע לעקרונות ההבחנה, המידתיות והאחריות האישית בלחימה.3
חשוב להדגיש: בעיות אלו אינן תוצאה בלתי נמנעת של הטכנולוגיה עצמה, אלא של אופן הטמעתה. כבר לפני כמעט עשור הושמעו אזהרות מפי מומחים בצבאות מערביים בנוגע לסיכונים של "נטיית האוטומציה" (Automation Bias) ו־"התרשלות של האוטומציה" (Automation Complacency) מצד המפעילים ומקבלי ההחלטות מאחורי מערכות מבוססות AI. בצד סיכונים מבצעיים ואסטרטגיים, הצביעו מומחים אמריקאיים ממכון RAND על סיכונים אתיים ומשפטיים הקשורים לדינים בין־לאומיים הומניטריים, לשאלות של אחריות מוסרית ומשפטית וכן לנושאים של כבוד האדם וזכויות אדם.4 האזהרות גם מושמעות מצד ארגונים בין־לאומיים שונים,5 וכן מפיהם של אקדמאים ומעצבי דעה בעלי מוניטין. מייקל וולצר, מחברו של הספר מלחמות צודקות ובלתי צודקות,6 יצא בקריאה החלטית, כבר לפני כעשור,7 להכריז איסור מלא על מה שהוא קורא "Drone Warfare".
ואצלנו? כבר לפני אסון ה־7 באוקטובר הוזהר צה״ל מפני הסיכונים הערכיים הכרוכים בהפעלת מערכות נשק אוטונומיות. בפרק שנכתב עוד לפני אסון אוקטובר 2023, התריעו המחברים כי בלא תורת לחימה ברורה ומפורטת בתחום האתי, ספק אם "רוח צה״ל" תוכל לשמש מצפן מעשי למפעילים ולקצינים בשדה הקרב, וכי יש צורך דחוף במחקרים, בסימולציות ובדיוני עומק מוסדיים בנושא.8 עוד לפני כן, קרא הח"מ למפקדי צה"ל "להשקיע... מאמץ מערכתי מקביל... לקיים ימי עיון, סדנאות, כנסים מקצועיים ותוכניות הכשרה ברמות השונות. יש לעודד כתיבת מאמרים והבעת דעות בכל הנושאים הללו, ולקיים שיח פורה שיכלול את כל מגוון הדעות".9 בדיעבד, קשה להשתחרר מהרושם שאזהרות וקריאות אלו לא תורגמו לעבודה סדורה, וכי "אשר יגורנו – בא לנו."
מתוך כל התחקירים והמקורות שבידינו עולה כי ערב מלחמת "חרבות ברזל" לא הייתה תורת לחימה סדורה, אף לא דוקטרינה מוסכמת, מאושרת ושקופה לשימוש מבצעי במערכות AI לצורך סימון מטרות ותקיפתן. העוגן הערכי־נורמטיבי היחיד שעמד לרשות מפקדים בתהליכי קבלת ההחלטות שלהם היה יושרתם האישית או הנורמות המוסריות שעליהם "גדלו" בצה"ל. ואולם, הפער בין ההנחיות הכלליות של "רוח צה"ל" לבין המורכבות האלגוריתמית שבה פעלו מפקדים בשטח – יצר ואקום נורמטיבי, שבו ברוב המקרים ההכרעות התקבלו תחת לחץ מבצעי ובלא מסגרת אתית ייעודית. תחושת הנקם הכללית שאפיינה את המפקדים והלוחמים, בעיקר בחודשי המלחמה הראשונים, חִלחלה בלא קושי לתוך הואקום הנורמטיבי הזה.
הדגמה אנקדוטית בנוגע להימנעות הבלתי־נשלטת של גורמי צה"ל השונים מלעסוק בהיבטים האתיים של הנושא עולה מהמקרה שלהלן: בשנת 2016 פרסם סא"ל סמואל בומנדיל (ששימש אז בתפקיד פיקודי־חינוכי כמפקד בסיס "חוות השומר"), מאמר בביטאון "בין הקטבים" שבהוצאת מרכז דדו, שכותרתו "במקום בו אין אנשים: על האתגרים הצפויים לצה"ל כתוצאה מהשימוש הגובר בכלי נשק בלתי מאוישים".10 שלא במקרה כלל סא"ל בומנדיל במאמרו את סיפור הגולם מפראג, כ־"מעֵין אבטיפוס קסום וראשוני של רובוט צבאי". תא"ל סמואל בומנדיל הוא כיום קצין חינוך ראשי (קח"ר) של צה"ל. כפי שנמסר לנו,11 מפקדת קצין חינוך ראשי לא יזמה עד היום כל פעילות מערכתית מסוג ההמלצות שהוזכרו לעיל.
הֶעדר הדוקטרינה בא לידי ביטוי גם באמביוולנטיות של ההתבטאויות הרשמיות. מצד אחד, מודגש שוב ושוב, על ידי הגורמים הצה"ליים המוסמכים, כי "האדם נשאר בלולאה" וכי האחריות היא אנושית. מצד אחר, בכל המערכות הביטחוניות הרלוונטיות, אין כמעט דיון פומבי, שיטתי ושקוף במנגנוני קבלת ההחלטות בפועל, במגבלות האלגוריתמים או בשאלת חלוקת האחריות בין מפקדים, מפעילים ומפתחים. הפער הזה יוצר מבוכה מוסדית ומחליש את האמון הפנימי והחיצוני כאחת.
ניתן להבין את המצב גם באמצעות מושג "ההפתעה הבסיסית": לא כשל נקודתי, אלא קריסה של הנחות יסוד. ההנחה שניתן לשלב מערכות AI קטלניות בתוך מסגרות מוסריות ונורמטיביות קיימות, מבלי לעדכן ולהתאים את המערכות הללו, התבררה כשגויה. צה״ל מצא עצמו מפעיל טכנולוגיה המשנה את אופי קבלת ההחלטות, את קצב הלחימה ואת המשמעות של האחריות – בלא תשתית מושגית ונורמטיבית מותאמת.
מה ניתן וצריך לעשות? ראשית, יש לגבש בדחיפות תורת לחימה אתית־מבצעית ייעודית לשימוש במערכות אוטונומיות ומבוססות־AI, שתגדיר עקרונות, גבולות, ותהליכי פיקוח ברורים. שנית, יש להשקיע במחקר, בסימולציות וכן בהכשרה ייעודית למפקדים ולמפעילים, שתתמודד לא רק עם "איך מפעילים", אלא עם "מתי ראוי לא להפעיל". שלישית, יש לשלב שיח משפטי, אֶתי וחינוכי גלוי בתוך הצבא, ולא להותיר את הדיון רק לשדה הביקורת החיצונית.
הבינה המלאכותית כאן כדי להישאר. השאלה איננה אם להשתמש בה, אלא האם צה״ל יבחר להפעיל אותה עם מצפן ערכי ברור – או להמשיך לנווט, גם בעתיד, בלא דוקטרינה, ולשלם את המחיר המוסרי, המשפטי והאסטרטגי הכרוך בכך.