א.
על אף העניין התקשורתי בשימוש במערכות בינה מלאכותית (AI) על ידי הצבא הישראלי בימי המלחמה ברצועת עזה, מעט מאוד ידוע לציבור על טיבן של מערכות אלו. מספר מצומצם של חוקרים ועיתונאים שוחחו במהלך המלחמה עם אנשים "מבפנים" שעסקו במערכות ה־AI (מפרספקטיבות ומכיוונים שונים), והעדויות השונות המעטות שבידינו לא עלו בקנה אחד ואף סתרו זו את זו. הדבר הביא להערכות ולפרשנויות שונות, אם לא מנוגדות. אחת הסיבות לכך נוגעת לא רק לחוסר בתיעוד פנימי כתוב והסתרה מכוונת מצד המדינה (דבר שהוביל לכך שאפילו בין העוסקים בנושא העובדות הבסיסיות אינן מוסכמות),1 אלא לאי־הבנות ומיס־קונספציות בקרב הציבור בנוגע ל־AI.
מאמרים שונים – גם בקובץ זה – העלו בשנתיים ויותר האחרונות שאלות חשובות באשר לסוגיות הנוגעות להפעלת מערכות AI על ידי הצבא הישראלי: החל מהניסיון להתחקות אחר דרך "עבודתה" או "תהליכי קבלת ההחלטות" של המערכת הממוחשבת, דרך דיון אתי על מקומה של תודעת בן־האנוש בשימוש באמצעי הלחימה החדש, וכלה בסוגיות משפטיות הנוגעות לדיני מלחמה ולאחריות הישירה של המבצעים.
אני מבקש להציג כמה שאלות ומחשבות על קו האופק החמקמק בין "הפוליטי" ל"צבאי". בניסוח קונקרטי יותר: כיצד המערכות הממוחשבות החדשות אפשרו לדרג הפוליטי והצבאי להוציא לפועל את מדיניות "עיי החורבות", שעליה הכריז ראש הממשלה בנימין נתניהו בנאומו הראשון לאומה בשעות הערב של ה־7 באוקטובר?2 כידוע, מדיניות זו התבטאה בשלב הראשון של המלחמה – בעיקר בחודש הראשון – בקמפיין הפצצות חסר תקדים על רצועת עזה, שהביא להחרבת אזורים נרחבים בה ולהרג רב של "בלתי מעורבים".3
בחודשים דצמבר 2023 - אפריל 2024, קיימתי שורה של שיחות וראיונות עם כמה בעלי תפקידים בצבא (הקצינים הבכירים ביותר שעימם שוחחתי סיימו זמן קצר קודם לכן את שירותם) על סוגיית השימוש ב־AI על ידי צה"ל. אני מציין את התאריכים מכיוון שהמערכות הממוחשבות שבהן נעשה שימוש בראשית המלחמה בעזה (בסך הכול לפני כשנתיים וחצי), אינן דומות ביכולותיהן למערכות החדשות יותר הנמצאות עתה בשימוש בזירות הקרב. במובן הזה, כפי שיודע כל אדם שעושה בביתו שימוש במערכות AI בשנים האחרונות, היכולות משתנות מדי יום, וגם הדיוט בטכנולוגיה יכול להבחין בהתקדמות מעוררת ההשתאות המצויה גם בטלפון החכם שהוא אוחז בידו. על אף ההתקדמות המסחררת, ההופכת את הכלים הטכנולוגים שנעשה בהם שימוש בראשית המלחמה ל"מיושנים", השימוש התעשייתי־צבאי הגדול הראשון ב־AI שנעשה על ידי צה"ל (גם בקנה מידה גלובלי), יכול ללמדנו על הסכנות הצפויות בעתיד.
חשוב להדגיש בפתח הדברים שאין מערכת AI אחת ויחידה, אלא מספר רב מאוד של מערכות, ולא פעם נוטים לכרוך את כולן יחדיו ולהעניק להן מעין יכולת־כול (Omnipotence) ועצמאות פעולה, הפוגעת ביכולת לקיים דיון מושכל עליהן. מה שנכון בנוגע להֶצבר מערכות ה־AI הקרויות "הבשורה", אינו תקף במלואו בנוגע למערכות אחרות בשם "לבנדר" (שתי המערכות הללו זכו לתשומת לב רבה במלחמה; אך יש רבות אחרות שאיננו מזכירים פה); ולו רק בגלל השוני באובייקט התקיפה: מטרות נדל"ן ("הבשורה") מול מטרות אנוש ("לבנדר"). אני אתייחס בעמודים הבאים אך ורק לשימוש ב"הבשורה" בשבועות הראשונים של המלחמה – שימוש שיש לנו יותר מידע עליו.
אבקש לטעון בזהירות שני דברים - הראשון על מה שקרה והשני צופה פני עתיד: ראשית, קמפיין ההפצצות האסטרטגי על רצועת עזה לא היה יכול לצאת לפועל, אילולא הכניס צה"ל לשורותיו מערכות AI המייצרות מטרות נדל"ן; שנית, השימוש במערכות AI "מחלק" ו"מסדר" מחדש "מאחורי גבם" (במידה מסוימת) של היחידים־המבצעים סוגיות של אחריות ולגיטימציה חברתיות. דבר זה מאפשר ל"מדינה" (קרי למקבלי ההחלטות הבכירים בדרג הפוליטי) להורות על הפעלת אלימות, תוך כדי "העלמה" מניפולטיבית של אחריותו של הסובייקט הספציפי המפעיל אותה והנושא באחריות הישירה להפעלתה. במילים אחרות, העלמת האחריות או טשטושה, מאפשרים לעשות שימוש בכוח אש רב ובלתי מובחן, שבתנאים שקדמו להכנסת ה־AI לשימוש לא היו זוכים ללגיטימציה בסכסוך הישראלי-פלסטיני.4 לכך, כמדומני, יש השפעות מהותיות על יכולתו של השלטון לגייס את הציבור – ובפרט את המבצעים הישירים והמעגלים הקרובים אליהם – לפעולות שבעבר הוא לאו דווקא היה מסכים להשתתף בהן. הסרת הסייגים והכללים שהיו נהוגים במידה כזאת או אחרת בצה"ל בנוגע להפעלת כוח אש עד ה־7 באוקטובר, שירתו קו פוליטי מסוים, ואפשרו לערב את הציבור בכללותו ואת המבצעים הישירים בפרט בפשעים שונים.
ב.
נקודת המוצא לדיוננו הם דברים שהופיעו בטורו של נחום ברנע במרץ 2025, ונאמרו לעיתונאי הוותיק על ידי הרמטכ"ל הרצי הלוי, ימים אחדים לאחר שסיים את תפקידו:
"כשהלוי הציג לקבינט את פעולות צה"ל ב-48 השעות הראשונות למלחמה, הוא ציין שחיל האוויר תקף 1,500 מטרות בעזה. זה מספר עצום, שדורש יכולות מודיעיניות ומבצעיות חריגות. נתניהו התפרץ בכעס, צעק ודפק על השולחן. 'למה לא 5,000?' הטיח ברמטכ"ל. 'אין לנו 5,000 מטרות מאושרות', השיב הלוי. 'לא מעניין אותי מטרות', החזיר נתניהו. 'תוריד בתים, תפציץ עם כל מה שיש'".5
אין צורך לחזור ולהציג בפירוט את מספרי ההפצצות חסרות התקדים שישראל ביצעה ברצועת עזה – בעיקר באמצעות חיל האוויר – בימים ובשבועות הראשונים של הלחימה.6 די עבורנו בכך שהרמטכ"ל עצמו הבהיר שלצה"ל לא היה את מספר המטרות ה"מאושרות" לתקיפה שהדרג המדיני דרש. כלומר, בטרמינולוגיה הצבאית, לא היו מטרות שעברו תהליך "הפללה" – תהליך הכולל בחינת פרמטרים מודיעיניים ומשפטיים מגוונים – לפני שהועברו ל"בנק המטרות" לטובת שימוש עתידי.
הצורך במטרות "מאושרות" בעבור צה"ל הוא כפול: ראשית, ברמה הפורמלית תהליך הפללתן של המטרות כולל שורה ארוכה של תבחינים, ומחייב (לפחות דקלרטיבית) את אישורם של קציני הדבל"א (דין בין־לאומי) לכך שהכנסת המטרה לבנק המטרות עולה בקנה אחד עם חובות המשפט הבין־לאומי. שנית, ופרקטי יותר, החלק הגדול יותר של החימושים שחיל האוויר הישראלי עושה בהם שימוש, דורש נקודות ציון (נ"צ). רוצה לומר, שלולא קואורדינטות על מפה – לא ניתן כלל להפעיל את החימושים.7
תהליך אישור/הפללת המטרות לא רק מייצר לגיטימציה פנימית (שלה כאמור גם היבט "חיצוני" הצופה כלפי הדין הבין־לאומי) להפעלת כוח אש, אלא בו בעת מייצר את היכולת הפרקטית להפעיל בהמשך את החימושים. יש להדגיש שהפללת המטרה איננה מהווה את סוף התהליך עד רגע התקיפה. למעשה, המטרה המופללת איננה אישור סופי לתקיפה, וגם אינה מסדירה את שיטת התקיפה. לבסוף, כשיוחלט בהמשך להתקיף את המטרה שהופללה חודש או שנתיים קודם לכן, יהיה צריך לקבל החלטה בנוגע לתזמון המתאים, לשקול שיקולים של "נזק אגבי", לבחור את החימושים המתאימים לתקיפה, לדון בהיבטים מודיעיניים של חשיפת מקורות וכדומה.
השיקולים הללו מומחשים, בין היתר, בתוכנה פנים־צה"לית הקרויה "רמזור" (שעליה סיפר למחבר קצין מטרות בפיקוד דרום בראשית 2024), שלתוכה מזינים את האישורים הניתנים על ידי גורמים שונים בתהליך האישור עד התקיפה עצמה. כך, שהלכה למעשה ישנם שני שלבים נפרדים לפני אישור ההפצצה עצמה: בשלב הראשון אובייקט נדל"ני הופך למטרה "מאושרת" ונכלל בבנק המטרות; בשלב השני – כשהוחלט לעשות שימוש במטרה המאושרת המצויה כבר ב"בנק" – ישנו תהליך נוסף שבו נקבעת שיטת התקיפה. האופן המוסדי שבו הדבר נעשה במנהלת המטרות המטכ"לית שהוקמה בצה"ל ב־2019 איננו מעניין אותנו בחיבור זה.
ג.
הדברים שהבאנו למעלה מפי הרמטכ"ל הלוי, מלמדים שכבר בשעות הראשונות של המלחמה נוצרה בעיה מהותית. היה קיים פער גדול מאוד בין ההוראה של ראש הממשלה נתניהו להלוי ("תוריד בתים, תפציץ עם כל מה שיש"), לבין התנאים הנתונים באותו רגע בצבא בנוגע להפעלת כוח אש ("אין לנו 5,000 מטרות מאושרות"). ודוק, הלוי לא אמר לנתניהו שהצבא איננו יכול "להפציץ" 5,000 מטרות ברצועת עזה, אלא אין לו – קרי, אין בבנק המטרות באותו הרגע – 5,000 "מטרות מאושרות".
יש להדגיש את ההבדל בין התנאים לבין היכולות הצבאיות. התנאים שהתקיימו שעל פיהם הופעל בצה"ל כוח אש, כללו – פורמלית לכל הפחות – אימוץ והיענות לכללים פנימיים וחיצוניים, כגון הדין הבין־לאומי או נורמות מקובלות בנוגע לזהות מטרות נדל"ן (למשל, היו סייגים באשר להפצצה של מבני חינוך), ומספרי "נזק אגבי" לגיטימיים שיתקבלו בעקבות תקיפה של מטרות. הווה אומר, התנאים להפעלת כוח אש מעולם לא התמצו אך ורק ביכולות הטכנולוגיות עצמן, אלא כללו גם את היחסים החברתיים הנתונים בצבא. בהתאם לתנאים שהיו תקפים עד ה־7 באוקטובר ולמשאבים שהוקצו על ידי המערכת הצבאית, הצבא ידע "להפליל" כמאה מטרות בשנה – פחות או יותר – ברצועת עזה. כלומר, הוא ידע לייצר כמאה מטרות "מאושרות" שיעמדו בכללי הדין הבין־לאומי ושיניחו את דעתו של הצוות המבצע (מבחינה מורלית, מקצועית וכדומה).8
תהליך "ההפללה" על מרכיביו השונים, ייצר בעבור המבצעים הנמצאים על יד המערכות הממוחשבות מצד אחד והלוחמים בשטח ובאוויר מצד שני, לגיטימציה חברתית ומשפטית כאחת לתקיפה (ומעדויות רבות שבידינו, אנו יודעים שתהליך "ההפללה" הניח את דעתם של בעלי התפקידים לאורך השרשרת, ובפרט הטייסים התוקפים); ובו בזמן הוא ייצר גם מאה נ"צ על המפה שיאפשרו לחיל האוויר לתקוף בשעת הפקודה. צה"ל חזר והבהיר לא פעם שייצורן של מאה מטרות "מאושרות" בשנה, דרש משאבים צה"ליים רבים: הוא חייב העסקה של קציני מטרות, הפעלת יכולות מודיעיניות וטכנולוגיות מגוונות, מעורבותם של קציני דבל"א בתהליך ועוד.
הדרך היחידה לגשר בפרק זמן קצרצר בין הפער המובהק שהתקיים בין "המטרות המאושרות" שהלוי ציין בפני נתניהו, ובין מספר התקיפות שראש הממשלה נקב ושאותן הוא רוצה שצה"ל יבצע במהירות שיא (ברור שהמספר הוא אילוסטרציה, אך הוא מלמד אותנו על קיומו של פער), הייתה באמצעות שינוי מהותי של התנאים שבתוכם פעלו הכוחות הלוחמים. כלומר, על ידי שינוי של הנורמות, הכללים והחוקים שהיו תקפים עד ה־7 באוקטובר, והתמקדות ביכולות הצבאיות גרידא – קרי, באספקט הטכנולוגי ותו לא. במילים אחרות, היה צריך לשנות את תודעת המבצעים, שעד כה – כפי שציינּו – ראו עצמם כפופים לתנאים כאלה ואחרים, שאפשרו להם להפליל רק כמאה מטרות בשנה.
זו נקודה מכרעת, שכן אילולא שינוי התנאים, לא ידוע על דרך אחרת שבה ניתן לייצר ולאשר 3,500 מטרות בפרק זמן של יממה, שבוע, חודש או שנה. אין כל ספק, בלי כל קשר למערכות AI המייצרות מטרות, שצה"ל לא היה ערוך להפליל מספר כזה של מטרות שיעמדו בדרישות החוק הבין־לאומי (גם אם המטרות היו מיוצרות על ידי רבבות בני אנוש ולא מכונה). עם זאת – וזה העיקר – צה"ל אכן היה ערוך לייצר (אך כאמור, לא להפליל) מספר גבוה מאוד של מטרות – נ"צ – ברצועת עזה. הווה אומר, טכנולוגית הוא יכול היה לעשות זאת, אך הדבר חייב להפוך את הסדר החברתי הקיים שהנחה את המבצעים.
מה הייתה התוצאה של שינוי היחסים החברתיים שבתוכם פעלו המבצעים? לא תהליך ייצורן של אלפי מטרות, אלא אישורן/הפללתן של אלפי מטרות בפרק זמן של שעות וימים בלא בחינה. הכנסת אלפי מטרות לבנק המטרות בלא הפללה (כפי שהיה נהוג עד ה־7 באוקטובר), הפכה את קמפיין ההפצצות שצה"ל המיט על רצועת עזה לפרויקט צבאי, המתעלם מההבחנה הבסיסית בחוק הבין־לאומי בין מטרה חוקית לבין מטרה לא חוקית. הפצצות בלא הפללה הפכו הלכה למעשה את כל תושבי רצועת עזה לאובייקטים ריאליים להשמדה.
במובן הזה, "הבשורה" היא אמנם מערכת AI מתקדמת, אבל התוצאות החברתיות של השימוש בה הן אנטי־מודרניזטוריות ומבטאות מעין חזרה לקונספציות צבאיות ישנות. התנועה קדימה בטכנולוגיה הצבאית וההתקדמות החברתית־משפטית, ביכרו את הדיוק של כלי הנשק כדי לצמצם את הפגיעה ב"בלתי מעורבים". במובן הזה, ניתן לספר את ההיסטוריה של הצבאות במאה השנים האחרונות כניסיון להגברת הדיוק בכלי נשק. קמפיין ההפצצות הישראלי היה שינוי של המגמה וביצע מעין דמוקרטיזציה של ההרג: כל תושבי רצועת עזה הפכו להיות בני מוות מבחינת הצבא הישראלי, מכיוון שכולם היו מטרות לגיטימיות.9
ד.
מהי "הבשורה"? זהו שם כולל לכמה מערכות AI המייצרות מטרות נייחות (נכסים/נדל"ן) למטרות תקיפה. "הבשורה" ייצרה מטרות בקצב מהיר מאוד, שלא היה כמותו בהיסטוריה, באמצעות אלגוריתם השואב מידע ממגוון רחב של מקורות, מעבד את המידע ומציע מטרות לתקיפה. המערכת נכנסה לראשונה לפעולה בצה"ל בזמן מבצע "שומר החומות" (2021) וייצרה 200 מטרות במהלכו. מעט מאוד ידוע לנו על אופן הפעלתה. עובדה זו סייעה לכך שהשיח הציבורי על השימוש במערכות AI במלחמה, נצבע לא אחת בצבעים דיסטופיים אורווליאנים.
עלינו לחזור ולהדגיש ש"הבשורה" מייצרת מטרות, אך היא איננה מפלילה אותן ובטח שאינה מורה על שיטת ההפצצה. הרי כבר ציינּו ש"הפללה" היא תהליך חברתי שמבצעים בני אדם הכפופים לכללים חברתיים מסוימים. בימים הראשונים של המלחמה, "הבשורה" ייצרה אלפי מטרות בפרק זמן קצר מאוד (הווה אומר, היא יצרה אלפי נ"צ ונתנה ציון הסתברות בנוגע לאיכות המטרה) וצה"ל אף דיווח על כך.10 בהמשך המלחמה, כשהועלו בתקשורת ועל ידי ארגוני זכויות אדם ומשפטנים תהיות בנוגע לשימוש ב־AI, צה"ל הדגיש שמטרות שהועברו לתקיפה על ידי חיל האוויר, "הופללו" קודם לכן על ידי אנשי המקצוע ובהתאם לדין הבין־לאומי.11
עם זאת, בהתבסס, בין היתר, על כמה עדויות שניתנו למספר עיתונאים וחוקרים, אנו יודעים שהודעות דובר צה"ל וגורמים אחרים היו רחוקות מהאמת.12 בפועל, לא היה שום אפשרות לבצע הפללת מטרות לפי הכללים הנהוגים עד ה־7 באוקטובר; על אחת כמה וכמה בסדר הכוחות הנוכחי שהוקצה לכך. הלכה למעשה, מטרות רבות שהמכונה "ייצרה" (כאמור, נ"צ), הועברו לבנק המטרות לאחר שהופללו בתוך שניות מעטות ובלא חקירה מהותית.
יגיל לוי הראה במאמרו באסופה הנוכחית כיצד מערכות מבוססות AI מעניקות מראית עין מדעית ורציונלית הפועלת על תודעת המבצעים, ואיך היגיון מבוסס מכונה, מאפשר לנטרל במידה רבה את שיקול הדעת האנושי והמוסרי מתהליכי קבלת החלטות הנוגעות לחיי אדם. אין לנו צורך לחזור על הדברים שנאמרו שם. ברור מהדברים שפורסמו עד כה, ש"הבשורה" היא מערכת מתועשת שסייעה למבצעים השונים ברצף להשמיד ערים ואזורים אורבניים שלמים.
אני מבקש להדגיש את האלמנט הפוליטי. קרי, איך "הבשורה" שימשה מכשיר לעיבוד מטרה פוליטית לשיטת פעולה צבאית נטולת היגיון "אסטרטגי", על ידי גיוס המבצעים לכך באמצעות קריצת עין ושותפות בפשע.
ה.
עלינו להדגיש שאיננו דנים במאמר זה בשאלה האתית העקרונית של מכונה־מייצרת־מטרות (בלי קשר לתהליך "ההפללה" שהוא כאמור חיצוני למכונה). לעצם העניין, ברמה התיאורטית, את אלפי המטרות הרבות ש"הבשורה" ייצרה בפרק זמן בלתי נתפס, ניתן היה להעביר לאלפי קציני מטרות אנושיים שיבצעו את תהליך ההפללה על פי הכללים שהיו נהוגים עד ה־7 באוקטובר. עם זאת בצה"ל אין יותר מכמה תריסרי קציני מטרות העוסקים בהפללת מטרות כמקצוע. לא ניתן "להאשים" את המכונה באוטונומיות מדע־בדיונית.
הנכונות של המבצעים לאמץ את המטרות ש"הבשורה" ייצרה כמטרות שמהימנות עליהם, לא התרחשה רק בגלל ההתפתחות הטכנולוגית. קודם לכול היה צריך להתיר את ההרג. כלומר, התרחשו תהליכים חברתיים ומורליים מקבילים נוספים ששינו את התנאים שבתוכם פעלו הצוותים.
לדוגמה, אחד הביטויים המובהקים של מדיניות "עיי החורבות" שעליה הורה נתניהו, הייתה הנחיה שניתנה בשעות הצהריים של ה־7 באוקטובר לשנות את "המחשבון" שעל פיו מחשבים בצבא "נזק אגבי".13 קרי, ניתנה פקודה לבצע מודיפיקציה משמעותית בהחלת "עיקרון המידתיות", שלפיו אם הפגיעה באזרחים בעקבות מהלך צבאי עתידי (למשל שיגור טיל) תהיה מופרזת ביחס לתוצאה הצבאית המיוחלת, יש להימנע מהפעולה. עיקרון זה מילא תפקיד מרכזי בניסיון ארוך השנים של הצבאות למודרניזציה של הנשקים כדי להגביר את הדיוק.
ביטוי נוסף לשינוי בכללים הנהוגים הייתה הכרזתו של תת־אלוף עומר טישלר, ראש להק המטה בחיל האוויר, שציין בפומבי בתחילת המלחמה שנוהל "הקש בגג" אינו רלוונטי למלחמה הנוכחית.14 כלומר, לא מודיעים, לדוגמה, ליושבי בניין מסוים ברצועת עזה להתפנות ממנו לפני תקיפה עתידית עליו. כאמור, החלטות אלו אינן קשורות לשאלת ייצור המטרות על ידי AI.
למעשה, כבר בשעות הצהריים של ה־7 באוקטובר –בלא כל קשר ל"הבשורה" – ניתנה לקצינים בדרגות ביניים הרשאה לתקוף בכוח רב, בידיעה ש"הנזק האגבי" יהיה עשרים "בלתי מעורבים" ויותר מכך. לדוגמה, בתקיפה של חיל האוויר במחנה הפליטים אל־בוריג׳ באוקטובר 2023 – תקיפה שמטרתה הייתה להתנקש בחייו של איימן נופל, מפקד חטיבת המרכז בארגון החמאס – אושר "נזק אגבי" חסר תקדים שעמד על 300 פלסטינים "בלתי מעורבים" לפי מקור אחד (ולפי מקור אחר – 100 פלסטינים).15
אנו נדרשים לשינויים ב"מחשבון הנזק אגבי" והשלכתו הצידה של "עקרון המידתיות" כעיקרון הקובע את שיטת הפעלת כוח האש, מכיוון שדומה שניתן לקבוע, שהשינויים שנעשו חיש מהר בכללים של הפעלת כוח האש סייעו בהעלמתם של תהליכי ההפללה של המטרות ש"הבשורה" יצרה (הרי, מדוע צריך "להפליל" בהתאם לחוק הבין־לאומי אם הותר "נזק אגבי" של עשרות ומאות "בלתי מעורבים"?). שינויים אלה לימדו את המבצעים, שניתנה על ידי הדרגים הגבוהים הרשאה רבתי להפעלת אלימות בלתי מובחנת.
תיאורטית, (א) היה ניתן לקחת מטרה (נ"צ) ש"הבשורה" יצרה, (ב) להפלילה כנדרש, (ג) להכניסה לבנק המטרות – ו־(ד) להתאים בהמשך את המטרה "המאושרת" לחימוש שיביא ל"נזק אגבי" סביר וחוקי. למשל, במקום להטיל פצצת טון (MK84) על בניין שמחריבה אותו ואת סביבתו כליל, ניתן היה לעשות שימוש בחימוש "מידתי" יותר, שאינו ממוטט בניין והורג את יושביו (שלא הודיעו להם להתפנות מראש), אלא פוגע בחדר ספציפי שבו אוכסנו כלי לחימה המהווים אובייקט לגיטימי לתקיפה. ברגע ששונו התנאים להפעלת כוח האש, התבחינים האחרונים שציינו התייתרו ופעלו חיש מהר את פעולתם גם על צוותי ייצור והפללת המטרות.
אף נדמה לי שבמַקְרו – כלומר, מבחינת ההיגיון "האסטרטגי" בכללותו – השימוש במערכות AI אִפשר לעמעם את חוסר התועלת הצבאית בקמפיין ההפצצות. הרי, מבחינת ה"יעילות" הצבאית ודוקטרינות צבאיות מקובלות, הפצצות של מבני "עוצם" (השם הצבאי למטרות נדל"ן אזרחיות) לא רק מפוקפקת, אלא מוכחת בעיקרה כבלתי יעילה.16 ראש המוסד לשעבר, תמיר פרדו, התייחס לכך בריאיון טלוויזיוני ביולי 2024:
״בשבוע הראשון [למלחמה, נעשה] מהלך של תקיפות אוויריות אין־סופיות. שבפועל סיימנו את החימושים, אם לא סיימנו לגמרי, של חיל האוויר. כאשר באותו שלב לא צעדנו צעד אחד פנימה מבחינת פגיעה במבצעים של האירוע הנורא [בשבעה באוקטובר]. לא עשינו שום דבר על מנת לשחרר את החטופים. זה היה מהלך נקמה נטו, שלמעשה סיבך אותנו רק יותר, וסיכל במידה רבה את היכולת להגיע להישגים אליהם רצינו להגיע. עשינו מהלך הפוך״.17 (הדגשות המחבר)
ו.
מהו ההבדל הפוליטי המכריע בין מכונה המייצרת אלפי מטרות נ"צ שהופצצו בלי שהופללו כראוי, לבין מאה או אלף קצינים שהיו שוקדים בימי המלחמה הראשונים על מפות של רצועת עזה ומייצרים בצורה שרירותית לגמרי נ"צ למטרות הפצצה בלתי מובחנת? ההבדל הוא קריצת העין והאליבי שהמכונה מספקת. ודוק, אנו מדגישים את הפוליטי, לא את היעילות בתפוקת ייצור מטרות של מכונה לעומת כוח אדם.
שאלת מודעותם של המבצעים להיבט המניפולטיבי של האליבי שהם היו נתונים בו, דורשת בירור נוסף שאין באפשרותנו לעשותו כאן. עם זאת, רמז כלשהו אפשר למצוא בדברים העולים מתגובה שקיבלתי מאחת מדוברות צה"ל כשעסקתי בראשית המלחמה בסוגְיָה הזאת:
"שוחחתי [הדוברת] עם האנשים במנהלת המטרות ובאמ"ן – יש שם בעייתיות קטנה מבחינת הדין הבינלאומי לדבר אתכם. כי אם הבינה המלאכותית יוצרת מטרות ועושה תקלה – אז אי אפשר לשפוט בדין הבינלאומי את הבינה. זהו נושא מאוד מורכב כרגע בתוך המערכת".18 (הדגשות המחבר)
מה שחשוב בעבורנו הוא לא האם דבריה של הדוברת הם נכונים או לא מנקודת המבט של המשפט הבין־לאומי, אלא לכך שזהו – ככל הנראה – האופן שבו ראו את הדברים הקצינים-המבצעים ליד מכונות ה־AI. כלומר, אם מתרחשת "תקלה" – אז "המעשים" שנעשו אינם שפיטים, והם מכוסים מפני איום משפטי עתידי כלשהו. ברור שזו טענה אבסורדית ומגוחכת לגמרי (ונטולת כל בסיס משפטי של ממש), אבל התגובה הזאת שניתנה בראשית המלחמה, מאפשרת מעין הצצה לאופן שבו ראו את הדברים בתוך מנהלת המטרות ובאמ"ן: האחריות על מעשי ההשמדה שנעשו אינם נתונים עוד לייחוס לסובייקט ספציפי. נקודת מבט זו, חשוב מאוד להדגיש, קיבלה גושפנקא משפטית מלאה מהפרקליטות הצבאית – ולכך יש לנו עדויות רבות. די בכך שנציין פה שבכיר בצבא ביקר את הפרקליטה הצבאית הראשית (הפצ"רית) – הגורם המשפטי הבכיר בצבא האחראי לפרשנות הדין הבין־לאומי ועמידה בתנאיו – כי "מתחילת המלחמה הפצ"רית לא עשתה דבר כדי למנוע ירי חסר הבחנה באזרחים".19
התגובה של הדוברת מלמדת אותנו גם על המציאות ששררה עד ה־7 באוקטובר. או, במילים אחרות, על ההבדל בין מכונה לבן־אנוש. הרי, לפי ההיגיון הפנימי המגולם בתגובה, אם הייתה מתרחשת "תקלה" ביצירת מטרה שנעשתה על ידי בן־אנוש – אז אפשר היה "לשפוט בדין הבינלאומי". ההיגיון הזה חושף, כמדומני, את התפקיד של המכונה ביצירת אליבי למבצעים, ולהפיכתם בידיעה או לא לשותפים בפשע. האם קציני המטרות האמונים על ייצור ועל הפללת המטרות היו מסכימים לפס־ייצור אנושי של יצירה והפללה של אלפי נ"צ? ספק גדול: הן חברתית והן משפטית. האם הטייסים היו מוכנים להפציץ ברצועת עזה מטרות כשהם יודעים שלא התבצעה שום "הפללה" ממשית? אפשר להעריך בזהירות שהדבר לא היה זוכה ללגיטימציה בשנת 2023.
כך עולה, למשל, מדברים שאמר הטייס ד':
"אתה בסופו של דבר לוחץ על הכפתור ואתה גם אמור לסמוך על מי שנתן לך את המשימה. אתה מחונך לבקר את התהליך, למרות אין לך שום שליטה... אני מקבל מטרה... אני מקבל נ.צ. ודפית כדי להבין איפה הפצצה ואתה תפגע... בסופו של דבר האחריות היא עלינו למרות שאנחנו רק קבלני הריסות".20 (הדגשות המחבר)
ז.
מערכות ה־AI "הבשורה", לא רק ייעלו את תהליך החרבת עזה, אלא הפכו אותה, הלכה למעשה, לאפשרית. בתודעתם העצמית של המבצעים, השימוש במכונה – לצד שינוי מחשבון הנזק האגבי והחלטות נוספות שציינו שנעשו – השיל מעליהם את האחריות לפעולות עתידיות שאינם עולות בקנה אחד עם החוק הבין־לאומי (שאותו הכירו היטב), והציפה את האחריות למעשיהם כלפי מעלה; כלפי דרגים גבוהים יותר שאפשרו את שינוי התנאים (הסייגים) שבתוכם פעלו עד כה. במישור המשפטי, חשוב לציין גם כן, העובדה שלמערכות ה־AI, יש זיכרון פנימי השומר את התהליכים והתוצרים בתוך "הקופסה השחורה", יצרה קני מידה משפטיים להפללת מטרות, שאפשרו למבצעים להרגיש בנוח עם עצמם, שהם אינם מבצעים פשעים מובהקים, גם כשהם מכניסים לבנק המטרות נכסים שונים בלא הפללה.
לסיכום: "הבשורה" הייתה אמצעי להפיכת הכללים והסייגים הנהוגים בצה"ל בנוגע להפעלת כוח אש. המערכות הממוחשבות החדשות סייעו לגייס את "האדם ליד המכונה" לתהליך החרבת רצועת עזה ולטשטש את אחריותם של המבצעים הישירים למעשיהם. בשום שלב המבצעים לא התמודדו במודע ובצורה מהותית עם החלטות מוסריות קשות שמנעו מהם לפעול. הפשעים שהחלו להיערם אחד על השני לא ניצבו מולם בזמן אמת. רק באמצעות "הבשורה" ניתן היה לממש את הוראתו של נתניהו להפציץ "עם כל מה שיש" את רצועת עזה ולבטל את עיקרון המידתיות וההבחנה הקריטית בין "לוחם" ל"אזרח" במלחמה. במובן הזה, כפי שכותרת המאמר גורסת, "הבשורה" הייתה מנגנון ממוחשב ליצירה של קהילת פשע.