מבוא: מלחמה שונה מכל מה שהכרנו
בעשור האחרון, הדיון על מערכות נשק אוטונומיות קטלניות עבר מתיאוריה לפרקטיקה. רצועת עזה הפכה, שוב, למעבדה של מלחמה חדשה. בינה מלאכותית הובטחה כאמצעי ל"מלחמה נקייה" ו"דיוק כירורגי", אך בפועל היא אפשרה דבר הפוך: הרחבה חסרת תקדים של מספר המטרות המותקפות, תוך כדי הורדה דרמטית של הסף1 בנוגע למי נחשב למטרה לגיטימית.2
בעולם שלאחר עזה צריך להבין שאין מדובר כבר בטענות היפותטיות דיסטופיות על מכונות שהורגות בני אדם. רובים אינם הורגים בני אדם, אלא בני אדם עם רובים הורגים בני אדם, אולם עזה הראתה שאלגוריתמים שמאשרים את המלצותיהם הורגים הרבה מאוד בני אדם, והיא הציגה צורך דחוף לחשוב מחדש על ההנחות הבסיסיות ביותר שלנו בנוגע למלחמה.
הבעיה המרכזית איננה טכנולוגית אלא אונטולוגית, של הפיכת חיי אדם לנתונים סטטיסטיים בתוך "קופסה שחורה" אלגוריתמית בקנה מידה גדול - בין שמדובר במימוש בסיסי יחסית בהתאם ליכולות המבצעיות באוקטובר 2023, ובין שמדובר במערכות מפותחות שנוצרו בעקבות המלחמה האחרונה, שהן גדולות לאין שיעור,3 ומשתרעות מחדרי התקיפה הריכוזיים ועד לרמת החייל הבודד בשטח.
הטענה אינה "האלגוריתם גרם למלחמה" או לא הייתה כוונה אנושית. הטענה היא שבלי הכלים הללו, לא ניתן היה להוציא את הכוונה הזאת לפועל בקנה המידה הזה ולספק לה את ההכשר המשפטי. האלגוריתם מאפשר צורת מלחמה המחליפה שיקול דעת אנושי בחישוב, מרחיבה את מה שנחשב "לגיטימי", מאיצה את הקצב לרמה תעשייתית ומשנה דרמטית את סוג המטרות שנבחרות והיכן הן מותקפות. כאן נמצאת התרומה של המאמר. הטענה היא שהשימוש המסיבי בהמלצות אלגוריתמיות אפשר לגיטימציה משפטית לתקיפות וגם לצורה שבה נעשו. זה אפשר הכשר לכל תקיפה פרטנית כאשר המכלול מייצג הרג בקנה מידה עצום של נזק אגבי, ובכך מנצל חולשה מובנית בחוקים הבנויים על בחינה לוקלית בלבד שהיא חסרת משמעות אמיתית לתוצאה בעידן של המלצות אלגוריתמיות.
ההרס בעזה חריג גם בהשוואה למלחמות עירוניות אחרות בעשורים האחרונים. ניתוחי תמונות לוויין של סוכנות האו"ם4 מצביעים על כך שנכון ליולי 2025, כ־192,812 מבנים בעזה ניזוקו או נהרסו, שהם כ־78 אחוזים מכלל המבנים בעזה. מתוכם, יותר מ־102,000 נהרסו כליל. במקביל, דיווחי משרד האו"ם לתיאום עניינים הומניטריים מתחילת 2026 מדברים על כ־75 אלף הרוגים פלסטינים וכ־171 אלף פצועים מאז ה־7 באוקטובר 2023. אלה נתונים שגם הצבא הישראלי מקבל כיום, לאחר שהכחיש אותם בשלבים שונים של הלחימה.
השאלה אם כך, אינה האם מדובר באסון הומניטרי הנחשב על ידי רבים כרצח עם, אלא האם וכיצד צורת הלחימה האלגוריתמית יצרה את היכולת להוציא לפועל אסון בהיקפים כאלה. הטענה המרכזית במאמר היא שצורת הלחימה הזאת אפשרה לגיטימציה משפטית לביצוע השמדה בקנה מידה רחב, באופן אשר כביכול תואם את הדין הבין־לאומי. המאמר עובר מהגדרת החידוש הטכנולוגי, דרך ניתוח השינוי בתהליך קבלת ההחלטות, אל מנגנון הלגיטימציה המשפטי שהאלגוריתם מייצר ומסיים באזהרה לעתיד.
מה באמת חדש? מוקש נגד אדם לעומת בינה מלאכותית
גם בעבר הוכנסו לשימוש טכנולוגיות חדשות שהגדילו את קנה המידה של ההרג. מכונות ירייה במלחמת העולם הראשונה, למשל, אפשרו לחייל בודד להרוג הרבה יותר אנשים מבעבר. מוקשים נגד אדם הם דוגמה ל“הרג אוטונומי" – הנשק “מחליט" בעצמו מתי לפעול. אבל כל אלה היו מוגבלים: מכונת ירייה דורשת אדם המפעיל אותה, ומוקש פועל רק במקום שהונח בו.
הבינה המלאכותית מאפשרת לראשונה שילוב של קנה מידה עצום, מהירות גבוהה, ופעולה ללא מגבלת מקום וללא "צוואר בקבוק" אנושי.5 היא יכולה לסרוק מיליוני נתונים, לזהות דפוסים, לסווג אנשים כ"חשודים" ולהציע מטרות לתקיפה, הכול בזמן קצר ביותר, ועל שטח גיאוגרפי נרחב. גם אם דוברים צבאיים מדגישים בדיווחיהם כי דבר לא השתנה, מכיוון שבמעגל התקיפה תמיד קיים פיקוח אנושי, הרי שאינהרנטית קנה מידה של תספוקת המטרות יוצר אשליה של פיקוח כזה. הפיקוח האנושי אינו מגיע אפילו לרמה של חותמת גומי, אלא בני אדם הופכים לכל היותר לתליינים בשירות המערכת ה"ממליצה".6
שלוש שכבות של שימוש באלגוריתמים
כדי להבין את התמונה, אפשר לחלק את השימוש באלגוריתמים ביצירת מטרות בעזה לשלוש שכבות, כשכל אחת מכילה את הקודמת:
שכבה ראשונה: ביג דאטה וחישוב מסורתי. שימוש בכמויות עצומות של מידע (נתוני טלפון, מיקומים, קשרים חברתיים) והסקת מסקנות מהם, באמצעות כללים שבני אדם כתבו. זה דומה לגישה "ישנה", אבל עם הרבה יותר מידע מאי פעם, בהיקף המכסה לוחמים ובלתי מעורבים בעזה כאחת.
שכבה שנייה: למידת מכונה. כאן האלגוריתם כבר אינו פועל לפי כללים שמתכנת כתב, אלא "לומד" בעצמו דפוסים מתוך הנתונים. אפשר לחשוב על זה כך: במקום שאדם יגדיר "מטרה היא מי שמתקשר לטלפון X ונמצא באזור Y", המערכת מקבלת דוגמאות של מטרות מוכרות ומזהה בעצמה את הדפוסים. היא יכולה לזהות גם מטרות גם מנתונים לא מתויגים, כלומר בלא שיוגדר מהי מטרה. בכל מקרה התוצאה היא אלגוריתם הממפה את מרחב הנתונים שקיבל. בשיטה זאת ניתן לקבל אלגוריתמים חדשים הפועלים לפי דפוסים שאיש לא תכנן.
שכבה שלישית: בינה מלאכותית יוצרת אלגוריתמים הפועלים כמו מודלי שפה גדולים, מהסוג שאנחנו מכירים מהשנים האחרונות. הם מסוגלים ליצור תוכן, לנתח טקסט ולספק המלצות בצורת תובנות, שהן בגדר היסקים הסתברותיים מהמידע שהוזן להם. הם שונים מהותית, כאשר כאן כבר מקבלים פלטים שאינם בהכרח חלק מהנתונים שהוזנו למערכת והם "חדשים". הם בהכרח הסתברותיים, והפלט הוא אלגוריתם שנכון להיום למסתכל מבחוץ יהיה בלתי מובן.
מימושים של כל הסוגים הללו פועלים כבר מבצעית בצבא הישראלי והופעלו במלחמה בעזה. למרות ההבדלים הגדולים בין המימושים של השיטות הללו, במאמר נתמקד במשותף כפי שבא לידי ביטוי במלחמה בעזה.
מאיכות לכמות: כיצד האלגוריתם משנה את תהליך ההחלטה
המערכת ייצרה מטרות בהיקפים עצומים על בסיס מתאמים סטטיסטיים, כמו: עם מי אתה מדבר בטלפון, היכן אתה נמצא, עם מי אתה קשור חברתית ומתי אתה חוזר הביתה. כל אדם הוצב על ספקטרום בין "חיים" ל"מוות", כשההחלטה על גורלו נקבעת לפי מקומו על הספקטרום הזה ולפי סף שנקבע שרירותית.7 אף שזה אינו מגיע לרמת "אין חפים מפשע בעזה" כמו שנהוג לטעון בשיח הישראלי, כן קיים סף הסתברותי שממנו אין חפים מפשע בעזה או לכל הפחות חשודים פונטציאלים.
בעבר, תהליך בחירת מטרות היה איכותני: קצין מודיעין חוקר מטרה, מעריך את חשיבותה ומפקד מחליט אם לתקוף. המעבר לבינה מלאכותית הפך את התהליך לכמותני. המערכת מפיקה "ציון הסתברותי" לכל מטרה, ובכך מאלצת את המפקד לעבוד בתוך לוגיקה של אופטימיזציה.
איך זה עובד בפועל? התועלת הצבאית מתורגמת ל"דירוג מטרה": פעיל זוטר מקבל ציון 1, מפקד חטיבה מקבל ציון 100. הנזק האזרחי הצפוי גם הוא מתורגם למספרים. מטרה מאושרת לתקיפה כאשר היחס בין שני המספרים האלה עובר סף מסוים.8 כלומר ככל שהמטרה בכירה יותר (דבר שנקבע גם על ידי מערכות דוגמת "לבנדרג", פיתוח נוסף על מערכת "לבנדר" שפורסם כי עסקה ביצירת מטרות), הנזק האזרחי המותר גבוה יותר.
הסף הזה נקבע על ידי בני אדם, אבל ההחלטות הספציפיות נובעות מהמלצות המכונה בנוגע לזהות המטרה, וכן המקום שבו המטרה תותקף.
פרדוקס הדיוק: למה מדויק יותר פירושו הרוגים רבים יותר
הדיון הציבורי מתמקד הרבה פעמים בשאלה: האם אלגוריתמים משפרים את הדיוק? האם הם מפחיתים טעויות? שאלות אלו מפספסות את הנקודה העיקרית.
גם אם המערכת משפרת "דיוק טכני" בתקיפה בודדת, היא מייצרת אפשרות פוליטית, ארגונית ומוסרית להרחבה דרמטית של היקף האלימות. זהו פרדוקס שנצפה בעבר - ככל שהפצצות הישראליות הפכו מדויקות יותר, כך גדל מספר ההרוגים שלא היו המטרה המקורית. לכן רגולציה פר־מטרה ספציפית כפי שנהוגה היום, היא חסרת משמעות כאשר מספר המטרות למעשה אינו מוגבל.
ה"דיוק" מאפשר לקובעי מדיניות ולמפקדים להוריד חסמים מוסריים ופוליטיים. הטיעון "אנחנו מדויקים ולכן זה מותר" מאפשר להגדיל את קצב התקיפות9 ואת מספר המטרות. התוצאה: יותר הרוגים,10 לא פחות.
לא בוצעו בעזה "הפצצות שטיח", עם זאת ניתן היה למצוא בעזרת המערכות הללו הצדקה להפצצת מספיק נקודות על המארג העזתי כדי שהתוצאה תהיה דומה. כלומר למצוא צידוק משפטי, וגם טכני באמצעות נקודת ציון להזנה לפצצה "מדויקת".
האלגוריתם מאפשר גם למקבלי ההחלטות להתרגל ולהרגיל לנורמות של הרג המוני במסווה של "דיוק טכנולוגי". כך "דיוק" במובן הטכני יכול להפוך למכפיל כוח של אלימות, משום שהוא מאפשר לקובעי מדיניות ומפקדים להוריד חסמים מוסריים ופוליטיים ("אנחנו מדויקים ולכן זה מותר"), ובו בזמן להגדיל את קצב התקיפה לכזה, שהחסם היחיד הוא כמות החימוש הפנוי.
מנגנון הלגיטימציה: למה זה חשוב
השימוש באלגוריתם מעניק שלוש צורות של לגיטימציה - פנימית, חיצונית ומשפטית:
לגיטימציה פנימית: “האובייקטיביות" הנחזית של האלגוריתם מאפשרת להצדיק כל מטרה שהתקבלה מהמערכת. כאשר טייס מקבל מטרה שעברה “אישור מערכת", קשה לו לערער על ההחלטה. אם מתברר שהייתה טעות – הרי זו “טעות חישוב" שתתוקן, לא בחירה מוסרית כושלת. אפשר להעריך שאפילו באווירת הנקמה של אוקטובר 2023, טייסים לא היו מוכנים לבצע "הפצצות שטיח" גלויות. האלגוריתם פתר את הבעיה הזאת: הוא אִפשר תוצאה דומה של אלפי הרוגים, תחת מסווה של רציונליות. בישראל שלאחר ה־7 באוקטובר, זאת צורת לגיטימציה שאיננה נדרשת מעשית כמעט, אך עדיין מהווה שיקול למפקדי הצבא הישראלי, בעיקר עם התמשכות המלחמה והעובדה שחלק ניכר מההרוגים הם נשים וילדים.
לגיטימציה חיצונית: המערכות מאפשרות לטעון בפני הקהילה הבין-לאומית, שבוצעו בדיקות שמעולם לא נעשו קודם לכן על ידי שום צבא בעולם, מבחינת כמות המידע המעובד וגם מבחינת האבחנתיות ורזולוציה של התקיפות. ואולם, במלחמה התברר שזו חרב פיפיות, כי במקום שהטענה של שימוש בטכנולוגיה מתקדמת ומידע רב תשרת את הלגיטימיות של התקיפה, קרה ההפך. כאשר פורסם לראשונה שבינה מלאכותית ממליצה על מטרות, התגובה הבין-לאומית הייתה של זעזוע, והתעורר זעם ציבורי גדול שהביא לכתבות בכל העיתונים הגדולים בעולם סביב המערכת הזאת.
גם בתוך צה“ל זה דווקא ערער את הלגיטימציה, כי ברגע שמפקיעים את בחירת המטרות מבני אדם ומוסרים אותה למכונות, עולה שאלה מטרידה: מי אמר שהאלגוריתם שלנו הוא "המוסרי בעולם", כמו קציני הצבא בחדרי התקיפה? לכן לאחר זמן קצר הודגש שוב ושוב המרכיב האנושי בהחלטה הסופית.
הלגיטימציה המשפטית: בצבא הישראלי אישור משפטי הוא תנאי לתקיפות, והמשפטנים הצבאיים צריכים לאשר שהמטרות עומדות בדרישות הדין הבין-לאומי. בישראל דבר זה נחשב ל"קשירת ידיים" בעיני אחדים, או הגנה על קציני צה"ל על ידי קציני הדין הבין-לאומי בעיני אחרים. עובדתית, כמו בסוגיית הדיוק, "קשירת ידיים" זאת למעשה שִחררה את הבלמים.
מאז מבצע "עופרת יצוקה" וביתר שאת בעשור אחריו, קיים חשש מוצדק בישראל מבדיקה משפטית חיצונית מתבקשת, גם בשל העובדה שמשפטנים ישראלים יודעים היטב כי מעולם לא הועמד קצין צבא ישראלי לדין בעקבות תקיפה כלשהי.
כבר בשעות הראשונות של המלחמה היה ברור ששאלת הלגיטימציה המשפטית תהיה אקוטית במיוחד, ואישוש לכך נמצא בעובדה שמשפטנים בכירים9 בישראל נצפו יוצאים ונכנסים לקריה בתל אביב בימים הראשונים. שם ישבו על ניסוח כללים משפטיים לתקיפות.
הצורך המיוחד בלגיטימציה משפטית באוקטובר 2023 נבע מכמה סיבות. ראשית, בעקבות אירועי ה־7 באוקטובר היה צפוי שממשלת ישראל תורה על תקיפות בקנה מידה גדול לעומת העבר ובמהלך זמן ארוך יותר. היה ברור שממדי ההרס וההרג ההמוני הצפוי יביאו לביקורת גדולה יחסית.
נוסף על כך, מלחמה עירונית צפופה, עם משבר הומניטרי והיקפי הרס חריגים, מתועדת ומנותחת כמעט בזמן אמת בעידן הנוכחי באמצעות תצלומי לוויין, OSINT, ומאגרי ניטור המתורגמים במהירות לשיח משפטי על מידתיות. כמו כן תמונות ברשתות החברתיות חושפות את ממדי האסון האנושי בזמן אמת בלא תיווך מערבי.
שנית, היה ברור שהמלחמה תיהפך לנושא של התדיינות פעילה בפני טריבונלים בין-לאומיים מרכזיים ותחרות על פרשנות משפטית בזמן אמת, לא בדיעבד כמו במלחמות קודמות. כך ששאלת הלגיטימציה אינה רק "האם הפעולה מותרת", אלא "כיצד מוכיחים" נקיטת אמצעים רלוונטיים תוך כדי המלחמה, ומה נחשב להסבר מספק מול ביקורת שיפוטית בין-לאומית.
שלישית, כבר לאחר תקופה קצרה, בשל השימוש הנרחב בהפצצות האוכלוסייה בעזה, ניתן היה להעריך שישראל תידרש לאספקה צבאית ממדינות בעולם. זוהי הרחבה של מעגלי האחריות והבקרה גם למדינות תומכות ולשרשראות אספקה, כך שלגיטימציה משפטית אינה נבחנת רק בשאלה מה ישראל עושה, אלא גם כיצד שותפיה מצדיקים את המשך הסיוע (למשל Leahy Law בארה"ב). לכן ישראל נדרשת לספק נימוקים המשרתים גם את ההגנות המשפטיות של שותפותיה מול פרלמנטים, בתי משפט וביקורת ציבורית.
ולבסוף, ברגע שיש הצדקה פרטנית משפטית לכל תקיפה בדמות כמות המידע שעובד על ידי האלגוריתם והפלט שלו, הרי שזה הופך כמעט ללא מוסרי לא לבצע את המטרה הזאת, כי כאשר מדובר במשחק סכום אפס כמו מלחמה, אם לא נבצע מה שמותר, הרי שאנחנו פוגעים שלא לצורך בצד שלנו. אין למעשה מרחק בין מה שמותר לעשות לבין מה שצריך לעשות. לכן הלגיטימציה המשפטית מזינה גם את שני הסוגים הקודמים של לגיטימציה (פנימית וחיצונית) והיא החשובה מכולן.
לפיכך, המערכת המשפטית הצבאית אינה יכולה להסתפק עוד בבחינה רטרוספקטיבית של אירועים, אלא היא נדרשת להיות חלק אינטגרלי מתהליך קבלת ההחלטות המבצעי. כאשר קנה המידה של ביצוע המטרות הוא גדול בצורה קיצונית מבעבר, השאלה היא: כיצד מבצעים זאת פרטנית?
מכל אלה ברור הצורך ביצירת מנגנון של לגיטימציה משפטית שיצדיק את ההפצצות האוויריות בעזה לנוכח החוק הבין־לאומי.
המנגנון המשפטי: איך האלגוריתם מגשר על הפער בין הכוונה לחוק הבין־לאומי
כבר ב־10 באוקטובר 2023 הצהיר דובר צה“ל שהמטרה היא לא דיוק, אלא אופטימיזציה של ההרס. עומר טישלר, אז ראש מטה חיל האוויר, אמר לכתבים שלכל התקיפות היה יעד צבאי לגיטימי, אך הוא הותקף “במסה רחבה ולא בצורה כירורגית". בניגוד לעבר, כשיש אויב, "מגיעים למטוסים, מקבלים את המטרות, מחכים להם החימושים. ככה נראית מלחמה, לא סבב". הדירקטיבה של ראש הממשלה הישראלי באותו יום הייתה "למה לא 5000 מטרות, לא מעניין אותי מטרות, תוריד בתים, תפציץ עם כל מה שיש".10
אז איך מיישבים את הסתירה הבולטת בין הדרישה המשפטית למטרה נחקרת כראוי ומוצדקת, לבין ההצהרה הפומבית על הרס מקסימלי ותכלית פוליטית להראות הרג רב? איך מפציצים ב"מסה רחבה" בהכרח עם תכלית מועטה ונזק צפוי עצום, ואיך טכנית משיגים מספיק נקודות ציון שעברו אישור משפטי?
האלגוריתם מיישב את הסתירה הזאת: הוא מאפשר לחקור מטרות בזול, ללא השקעה גדולה של כוח אדם. כך אפשר לתקוף פעילים זוטרים שללא המערכות הללו, איש לא היה מקדיש להם תשומת לב מודיעינית וממילא לא היה ניתן משפטית לבצע את התקיפות. זאת נקודת השינוי הדו־שלבית הקריטית. האלגוריתם מייצר מטרות בקנה מידה גדול, דבר שבתורו מייצר את הלגיטימציה משפטית, וכך את ההצדקה להפצצות ב"מסה רחבה". כך הופכים את מה שבמנגנון המסורתי של יצירת מטרות על ידי בני אדם היה לבלם, ללגיטימציה מוסרית וחוקית להרג תעשייתי. לצורך תכלית המטרה הוא לא רלוונטי, כל עוד האלגוריתם מספק את המידע הדרוש כדי להצדיק אותה.
ייצור המטרות התעשייתי מייצר סוג שני של לגיטימציה - של מה שלא מבצעים. בכל תחילת מלחמה אווירית של הצבא הישראלי, מופץ בתקשורת הישראלית סרטון שבו נשמע טייס בקשר הצבאי מבטל תקיפה צפויה בגלל הימצאות של ילד באזור. כמובן שזה לא רלוונטי למלחמה שבה הופצצו למוות עשרות אלפי ילדים, אך כן קשור לתהליך הלגיטימציה הדורש אבחנתיות. אחת השיטות לעשות זאת היא להראות שלא רק התקיפות שאושרו הן חוקיות, אלא להצביע על תקיפות שלא אושרו. האלגוריתם שמייצר מטרות "זולות" מאפשר לעשות זאת בקלות, כי הוויתור על מטרה לא מזיק למאמץ להשגת ההרס.
כיצד זה בא לידי ביטוי במלחמה
לפי מקורות שהתראיינו לתקשורת הבין־לאומית, חמישה מתוך 12 חדרי תקיפה שפעלו במלחמה בעזה השתמשו ביכולות אלגוריתמיות, ובכלל זה חדר תקיפה שהוקדש במיוחד לפעילים זוטרים. שילוב של מדיניות נזק אגבי מרחיבה עם העובדה הפשוטה שבכל ארגון צבאי יש הרבה יותר פעילים זוטרים מבכירים, גרם לכך שרוב ההרס נבע מצורת לחימה אלגוריתמית זו. כשהארגון הצבאי מודד הצלחה לפי תפוקה, כמה מטרות "הופקו", ולא לפי איכות השיפוט, האם התקיפה מוצדקת, הקצב הופך לנורמה המחלישה התנגדויות פנימיות.
ההחלטה לתקוף פעילים בבתיהם הפרטיים, מרחב שבו ההסתברות לפגיעה במשפחות, בנשים ובילדים היא מקסימלית, מראה כיצד האלגוריתם מאפשר למקבלי ההחלטות להתרגל לנורמות של הרג המוני, במסווה של “דיוק טכנולוגי". זאת על ידי מערכת אלגוריתמית משלימה, שבדקה מתי פעילים זוטרים נכנסו לבתיהם.
לפי פרסומים שונים, זמן הבדיקה של מטרה בתחילת המלחמה היה עשרים שניות בלבד.11 גם כשהושקע זמן ארוך יותר, מדובר בהיפוך יוצרות, כי מרבית ההשקעה נעשית בשאלה "האם מותר", ולא בשאלה "האם זאת מטרה שיש לתקוף". זמן הבדיקה מוגבל בהכרח, כי הוא חותר תחת עצם סיבת הקיום של המערכת, לפתוח את "צוואר הבקבוק" האנושי בייצור מטרות.
האלגוריתם שינה את צורת המלחמה
גם אם עדיין לא בוצע ניתוח של מטרות הצבא הישראלי בחודשים הראשונים, כלומר הצימוד בין נקודות הציון ובין השמות המותקפים, הרי ברור שרוב הנזק וההרג בחודשים הראשונים נבע מעצם התקיפה של פעילים זוטרים. אלו מטרות שלא ניתן היה להקדיש להם כוח אדם מעצם החשיבות המינורית שלהן וכמותם הרבה. ללא אלגוריתם אין אפשרות למצוא אותם, כאשר ההיגיון היחיד מאחורי המטרות הללו זה מקסום ההרס והאפשרות לתקיפה רציפה.
הצפת מטרות הזוטרות כפתה למעשה תקיפות של בתים פרטיים, מה שדרש אלגוריתם נפרד לזיהוי הצימוד12 בין מטרה לבין ביתה. לא הייתה דרך אחרת לתקוף אותם. כלומר, מערכת המטרות ומערכות האיכון קבעו את אופי התקיפה והכווינו את הלחימה לכיוון זה. בלי מערכות אלו, תקיפות כאלו לא היו אפשריות, לא תוך כדי עמידה (לכאורה) בדרישות הדין הבין־לאומי, ולא בהיקף שבו נעשו.
שיטה זאת של הפצצות בתים, בהתאם לדירקטיבה של ראש הממשלה הישראלי והלגיטימציה המשפטית שהושגה לכך, כמובן הובילה לביצוע הרג של הפעילים יחדיו עם משפחותיהם. זה מייצר מנגנון לגיטימציה נוסף. כאשר מפציצים פעיל עם ילדיו, עולה הטענה כי השתמש בילדים כמגן אנושי. זה בתורו שוב מזין את הלגיטימציה להרוג פעילים אלה כי הם אנשים שהורגים את הילדים שלהם, ולכן שונים מהותית מאיתנו. אינהרנטית זה מביא להרג רב של בלתי מעורבים, ומכשיר את העובדה שהרג בלתי המעורבים הוא באחריות השימוש במגינים אנושים.
גם בנושא הנזק האגבי חל שינוי בשל שימוש בלחימה אלגוריתמית. בעבר, כל תקיפה נבחנה בנפרד: כמה אזרחים צפויים להיפגע? האם זה מידתי? במלחמה הנוכחית, בעקבות קנה המידה של התקיפות, הבדיקה הפכה לסטטיסטית: מהו שיעור הפינוי באזור הספציפי? מהו שיעור האותות הסלולריים יחסית לגודל הבניין? שיעורים כאלה הם הבסיס לחישוב הנזק האגבי. זה דבר הכרחי בקנה מידה כזה, ולא דבר שנעשה בטעות.
האתגר המשפטי: חוק שלא תוכנן למלחמה כזאת
סביר להניח שכאשר התקיפות הישראליות ייחקרו בטריבונלים בין־לאומיים, יופיעו שם דווקא המקרים הבודדים שלא נוצרו במערכות אלגוריתמיות – אלה שגבו כמות גדולה של קורבנות אזרחיים בתקיפה בודדת. ואולם, המנגנון כולו, שהוביל להרג המסיבי שנוצר מעשרות אלפי תקיפות "קטנות", הרבה יותר קשה לבחינה, כי החוק הבין־לאומי לא נבנה להתמודד עם אתגרים בקנה מידה כזה.
התוצאה: הלגיטימציה המשפטית, בדיוק כמו האלגוריתם, הפכה את שאלת ההרג מ"האם צריך להרוג?" (שאלה מוסרית) ל"האם מותר להרוג לפי החוק?" (שאלה טכנית). וכאשר האלגוריתם הוא האבן הראשונה בשרשרת, ההמשך למעשה כמעט אוטומטי.
עקרון המידתיות במשפט ההומניטרי הבין־לאומי קובע שתקיפה אסורה אם הנזק הצפוי לאזרחים15 "מופרז ביחס לתועלת הצבאית הישירה המצופה". בבסיסו, זהו עיקרון המחייב איזון ערכי, והוא דורש מהמפקד להפעיל מצפון, ניסיון חיים והבנה של ההקשר.
אך עיקרון זה אינו מדיד בצורה מדויקת, ומשפטנים צבאיים ישראלים הבינו היטב שלא צריך באמת להצדיק את חשיבות המטרה, אלא מספיק לאגור עליה מידע בכמות גדולה. ואת זה האלגוריתם עושה טוב יותר מכל אדם - רק צריך שרתים גדולים מספיק. ברגע שכמות המידע הזאת לא יכולה להיבדק על ידי גורם אנושי כי היא רבה מדי, זה מייתר את הבדיקה.
האלגוריתם הוא, במובן מסוים, הבירוקרט האולטימטיבי. הוא מתרגם בני אדם, מרחבים וקשרים ליחידות חישוביות, מחליף שיפוט ערכי בשקלול מספרי של "ספים", ומייצר תהליך שבו החישוב עצמו הופך להצדקה. זה לא "עוד כלי", זהו רכיב המייצר לגיטימציה, משמעת ותיאום מערכתי. האלגוריתם ביחס למלחמה הוא כפי שהבירוקרטיה ביחס לממשלות.
זהו מנגנון שהופך לאוטומטי את מה שהיה ניתן לחישוב, ואת מה שלא לניתן לחישוב דטרמיניסטי למרחב הסתברות, וככזה מקשה מאוד על הביקורת הפוליטית כלפיו, כי התוצאה כביכול אובייקטיבית.
כל האמצעים שהחוק הבין־לאומי דורש בבדיקות משפטיות כדי לאשר תקיפות הופכים לחסרי חשיבות. בחירה בשיטות ובאמצעים המקטינים פגיעה אגבית אינה משנה דבר ברוב התקיפות, כי המעבר לתקיפות אינדיבידואליות מאפשר להשתמש בפצצות קטנות כל שירצו. ברגע שמספר התקיפות אינו מוגבל זה חסר חשיבות. כל תקיפה פרטנית בנפרד יכולה להיות עקבית עם החוק הבין־לאומי, אבל כולן יחדיו עשויות להביא לתוצאה שחוק זה היה אמור למנוע, וזה המקום שבו הלגיטימציה המשפטית אפשרה את המעשים.
לסיום, בלגיטימציה המשפטית יש צורך להציג מערכת משפט המסוגלת להעמיד לדין את מי שביצעו תקיפות בניגוד לפקודות. דוגמה כזאת מהמלחמה האחרונה היא למשל תקיפת עובדי WCK על ידי חטיבת הנח"ל. עם זאת, העמדות לדין כאלו בלתי אפשריות בישראל, בטח לא כאלו של קצינים בכירים עם גיבוי פוליטי מהמגזר שלהם, כמו במקרה זה.
בצבא הישראלי טוענים כי רק בני אדם מקבלים את ההחלטות. ראשית, זה דבר שישתנה. השימוש באלגוריתמים מהסוג הזה בחלקו עדיין נמצא בשלב ה"סנטאור", כלומר שלב שיש היגיון בשילוב של אדם ומכונה, אך זה צפוי להשתנות בעתיד הקרוב, כאשר יהיה קל להוכיח שזה מגדיל את שיעור הטעויות.16
שנית, טענה זו נעה בין אשליה עצמית לבין מצג שווא. האדם שאמור לפקח על המערכת הופך בפועל לחלק ממנה. כשהמערכת מייצרת אלפי המלצות לתקיפה, זה אפילו לא "חותמת גומי". בפועל קרה דבר חמור יותר, הקצינים בחדרי התקיפות הם התליינים של ההמלצות הללו, ללא יכולת לביקורת, לפעמים בלי אפילו סיווג מתאים לבחון את ההמלצות. זו אינה "אוטומציה" תמימה, זו רציונליזציה של אלימות, המייצרת יכולת ביצוע לצד יכולת הכחשה כמעט מובנית של התהליך עצמו. גם כאשר אנחנו מבינים את האלגוריתמים הפועלים, וזה לא המצב כאן כאשר הם פועלים כ"קופסה שחורה", בני אדם מוטים לקבל את ההחלטות ולקבל את המלצות האלגוריתמים כאובייקטיביות.
אפשר לבחון את זה בקלות כאשר אנחנו מבינים שהצבא הישראלי מחזיק את המקל בשני צדדיו. מצד אחד בני אדם מחליטים בכל תקיפה ומצד שני אין אחראי בשום תקיפה. בכל חקירה חוקית שנוהלה על תקיפה, עוד לפני העידן הנוכחי, מעולם לא הועמד לדין קצין, מכיוון שלא ניתן היה לסמן אחד עם כוונה פלילית מספיקה, בגלל שהתהליך מודר והתחלק בין גורמים רבים; דוגמה לכך אפשר לראות בהוצאה להורג של ארבעת ילדי משפחת בכר בעזה ב־2014. מי אחראי? האלגוריתם שמצא את המטרה? המתכנת? קצין המודיעין שבדק את המידע שנאסף בראייה ממוחשבת על ידי אלגוריתם אחר? בשביל mens rea צריך mens ולא ברור שיש כאן. כל זה לפי תכנון. בעידן הנוכחי, התקיפות אפילו לא הצליחו לעבור את שלב הבחינה המטכ"לית ולהגיע בכלל לבחינה חוקית, אף שבוצעו עשרות אלפים. פער האחריות הזה, הוא מנגנון מושלם, מצד אחד מראית עין של בחינה משפטית, ומצד שני אין לחץ פנימי בגלל הֶעדר העמדות לדין.
הצבא הישראלי מתעקש שתהליכי האישור לא השתנו, אבל בכך הוא מדגים בדיוק את הבעיה. אם נמשיל: במעבר מכרכרות למכוניות, ברור שהרגולציה צריכה להשתנות, גם כשמדובר בשינוי "רק" במהירות. קל וחומר כשהמעבר הוא לרכב ללא נהג. נכון שהמעבר למכונית לא גרר רגולציה של מנוע הבערה הפנימי אלא רק השימוש בו על ידי בני אדם, אבל לא ברור שזה המצב כאן. לכל הפחות נראה שכלל לא הושקעה מחשבה בעניין.
מתחילת 2024 ניסו בצה“ל להמעיט בחשיבות המערכות, ואף ללעוג לטענות. קצין הסביר לי זאת בפרפרזה: “זה כמו לטעון שבגלל שהשתמשת באפליקציית וולט, האלגוריתם גם אוכל במקומך". ואולם, ההשוואה מגוחכת: בוולט, האלגוריתם ממליץ על מסעדה. כאן, האלגוריתם ממליץ על בן אדם שאותו יש להרוג. הרבה יותר חשוב מכך, הדגש של הקצין נמצא במקום הלא נכון. גם בוולט וגם כאן, כל המסעדות וכל המטרות הן לגיטימיות, וזו בדיוק הבעיה.
סיכום: עזה כאזהרה לעתיד
מלחמה היא המקום האחרון שבו היינו צריכים לאפשר למערכות בינה מלאכותית לפעול בפיקוח מינימלי, בכל זאת, נראה שזה היה המקום הראשון שבו הן פעלו, וככל הנראה גם בעתיד יהיה כך.
השילוב בין תשתיות נתונים על כלל האוכלוסייה, סיווג אלגוריתמי, ושרשרת תקיפה ממוכנת, אִפשר רמות הרס והרג שלא היו אפשריות באמצעים ה"ישנים". האלגוריתם לא רק ממליץ, הוא הופך לציר ארגוני המגדיר מהו יעד, כיצד בונים "בנק מטרות", ומהו קצב "סביר" של תקיפה. הוא מייצר רציונליזציה של אלימות, עם יכולת ביצוע ויכולת הכחשה מובנות. השנתיים האחרונות הראו זאת היטב - טעויות אלו לא קרו בגלל חוסר מחשבה, אלא תוצאה צפויה של שימוש במערכות כאלו.
צריך לזכור שמדובר בשימושים פרימיטיביים יחסית של בינה מלאכותית שהיו לרשות הצבא הישראלי באוקטובר 2023. כמעט לא היה כוח אדם מיומן וגם לא שבבים חזקים מספיק בישראל לבניית מודלים עצמאיים. זה לא יהיה המצב במלחמה הבאה. אז נפגוש סוגיות כמו בעיית "היישור": האם אפשר לגרום למודלי שפה לפעול לפי ערכים שהוכתבו להם? נכון לעכשיו, התשובה שלילית והאופטימיזציה העיקרית שלהם היא לשכנע בני אדם שהתוצאות שהם מציגים הן ראויות. וכך גם קצב גדילה מעריכי של מערכות בינה מלאכותית: אם ניתן לייחס הרבה מההרס בעזה לפער בין החוק הבין־לאומי הישן ובין היכולות הטכנולוגיות החדשות, הרי שהיכולות הללו גדלות בקצב מעריכי. כל רגולציה שנסכים עליה עלולה להתיישן כבר בעת קבלתה.
לסיכום, הצורך בלגיטימציה משפטית שהייתה אמורה למתן את הברבריות של המלחמה כדי שנוכל להרוג בצורה מתורבתת יותר, הפך במלחמה הזאת, באמצעות הכלים החדשים, להצדקה שלה. האלגוריתם המודרני שימש כלי שכיסה על ברבריות עתיקה. ובלעדיו, ללא בינה מלאכותית, עם כל הרצון הישראלי שהיה קיים, אין קצב וצורת השמדה כמו שראינו במלחמת עזה.