המלחמה האלגוריתמית: בינה מלאכותית, לגיטימציה והפוליטיקה של האלימות במלחמת עזה

הקדמה

יגיל לוי

אפריל 2026

מלחמת עזה (מאוקטובר 2023 ואילך) סימנה שלב חדש בלחימה המודרנית: לא עוד שימוש נקודתי בטכנולוגיות מתקדמות, אלא שילוב שיטתי, מואץ ורחב־היקף של מערכות בינה מלאכותית בתהליכי יצירת מטרות, בקבלת החלטות ובהפעלת כוח. מערכות הבינה – ובמרכזן "הבשורה" (לזיהוי מטרות פיזיות), "לבנדר" (לזיהוי מטרות אנושיות) ו"איפה אבא" (לאיתור היעדים האנושיים בבתיהם)1 – עיבדו מיליוני נתונים כדי לדרג את הסבירות שאדם כלשהו מבין תושבי הרצועה הוא פעיל צבאי, וכך ייצרו בפועל מפעל לייצור מטרות בקנה מידה תעשייתי. תוצאותיה של לחימה זו – יותר מ־70 אלף הרוגים פלסטינים, כ־171 אלף פצועים ופגיעה בכ־80 אחוזים ממבני הרצועה – מציבות שאלות שאין לדחות את הדיון בהן: האם הטכנולוגיה החדשה לא רק תמכה בלחימה, אלא אפשרה הרס בממדים שלא היה ניתן להוציא לפועל בלא כלים אלגוריתמיים? מהן ההשלכות המשפטיות, האתיות והחברתיות של הפקדת החלטות חיים ומוות בידי מכונה? הדיון המהותי על שאלות אלו אינו נערך כלל בישראל, וחלקים מתקיימים שלא לעומק או מתחת לרדאר הציבורי. לכן הצורך לעורר דיון ציבורי.

להתמודדות ראשונית עם שאלות אלו קִיים מכון האוניברסיטה הפתוחה לחקר יחסי חברה-צבא סדנת חוקרים וחוקרות. אחד מתוצרי הסדנה הוא הקובץ שלפנינו. חמשת המאמרים הכלולים בו, שנכתבו על־ידי חוקרים מתחומים שונים, מציגים יחדיו תמונה מורכבת ומדאיגה של הדינמיקות שאפשרו, הצדיקו והסתירו את ממדי הלחימה. הם נשענים על עדויות של קצינים ומפעילים, על מקורות ממשלתיים ועיתונאיים ועל ניתוחים אקדמיים. בניגוד לדיון הציבורי הרגיל, המאמרים אינם מסתפקים בשאלה הטכנולוגית – "האם המערכת מדויקת?" – אלא מציבים שאלות עמוקות יותר: מי נושא באחריות כשאלגוריתם "בוחר" את המטרה? כיצד הפכה הטכנולוגיה לאמצעי לגיטימציה כלפי פנים וכלפי חוץ? האם המשפט הבין־לאומי, כפי שהתגבש במאה ה־ 20 , עשוי עוד להדביק את קצב השינוי? ועוד ועוד.

המאמר של סבסטיאן בן דניאל הפותח את הקובץ, "ללא בינה מלאכותית אין קצב וצורת השמדה כמו בעזה", מציב את המסגרת הכוללת. המחבר טוען כי הבעיה המרכזית בשימוש האלגוריתמי אינה טכנולוגית אלא אונטולוגית: הפיכת חיי אדם לנתונים סטטיסטיים בתוך "קופסה שחורה". לטענת המחבר לא "האלגוריתם גרם למלחמה“ ולא שנעדרה כוונה אנושית. במקום זאת, האלגוריתם מאפשר צורת מלחמה המחליפה שיקול דעת אנושי בחישוב, מרחיבה את מה שנחשב "לגיטימי“, מאיצה את הקצב לרמה תעשייתית, ומשנה דרמטית את סוג המטרות הנבחרות והיכן הן מותקפות.

המאמר של אבנר גבריהו, "נוהל ערפל: על אטימות, הטיה ואי-חוקיות מובנית", מתמקד בניתוח של מערכת "לבנדר". גבריהו מציג את מושג "האטימות האלגוריתמית" — הבעיה המובנית שבה מפעיל אנושי אינו יכול לדעת מדוע המערכת סימנה אדם כמטרה — ומראה כיצד בעיה זו אינה שונה במהותה מ"נוהל הערפל" שבו נהגו לוחמים לירות אל תוך הלא-נודע בראות לקויה. ההבדל, לטענתו, הוא שהחושך הדיגיטלי אינו תנאי סביבתי כי אם עיצוב מכוון. אטימות המערכת, שהמשתמשים בה פועלים בתוך "קופסה שחורה" שאין להם יכולת או רצון להבין את שיקוליה המורכבים והיא מתנגשת חזיתית עם הדרישות של הדין הבין-לאומי, פסולה בעיניו לשימוש לסימון מטרות אנושיות.

מאמרו של אדם רז, שכותרתו ״מערכות בינה מלאכותית כמנגנון ממוחשב לשיתוף בפשע: המקרה של "הבשורה" והפצצת רצועת עזה בימי המלחמה הראשונים״, מציע ניתוח פוליטי. רז שואל כיצד אפשרו מערכות ה-AI להוציא לפועל את מדיניות "עיי החורבות" שהכריז עליה ראש הממשלה בנאומו הראשון לאומה, ומתמקד בפרט במערכת "הבשורה" ובתפקידה בייצור מטרות נדל"ניות בשבועות הראשונים של המלחמה. קמפיין ההפצצות לא היה יכול לצאת לפועל בלא מערכות אלו, שכן צה"ל פשוט לא החזיק ב"מטרות מאושרות" במספר שהדרג המדיני דרש. טענתו המרכזית של רז נוגעת לפיזור האחריות שמייצר השימוש ב-AI: המערכות הממוחשבות "מסדרות מחדש" — מאחורי גב המבצעים — את שאלות האחריות והלגיטימציה, ומאפשרות לדרג הפוליטי להורות על הפעלת אלימות, תוך כדי "העלמה" מניפולטיבית של האחריות הפרטנית של כל מפעיל ומפעיל. מנגנון זה, הוא טוען, הפך את "הבשורה" לא רק לכלי תפעולי, אלא למנגנון ממוחשב שאפשר גיוס של "קהילת פשע" רחבה, שבה כל פרט תפס עצמו כ"קבלן הריסות" ולא כמי שנושא באחריות ישירה.

במאמר הרביעי, "בינה מלאכותית כמערכת לגיטימציה" מאת יגיל לוי, נטען כי בלב השימוש במערכות בינה מלאכותית מצויה סתירה מובנית בין הדרישה לאישור אנושי לבין ההסתמכות בפועל על המלצה אלגוריתמית. רשמית, הצבא מדגיש כי האדם הוא המאשר את התקיפה וכי המכונה רק “ממליצה". אולם בפועל, עצם ייצור המטרה, דירוגה הסטטיסטי והצגתה כנתון הסתברותי מצמצמים את שיקול הדעת האנושי ומעבירים את מוקד ההכרעה למערכת האלגוריתמית. כך נוצרת דואליות: האחריות מיוחסת לאדם, אך הסמכות האפקטיבית נודדת למכונה. הסתירה הזאת עצמה מתפקדת כמנגנון לגיטימציה – הן פנים־צבאית והן ציבורית – שכן היא מאפשרת לשמר את הנרטיב של “שליטה אנושית" לצד הסתמכות עמוקה על חישוב סטטיסטי המקהה עכבות מוסריות ומפחית חיכוך ערכי.

המאמר החותם את הקובץ, "ללא מצפן: הצורך הדחוף של צה"ל בדוקטרינה אתית" מאת ראובן גל, ממקם את הדיון במישור הנורמטיבי־מוסדי. לטענתו, קפיצת המדרגה הטכנולוגית לא לוותה בצבא בפיתוח תורת לחימה אתית מספקת, והֶעדר דוקטרינה סדורה יוצר פער מסוכן בין יכולת מבצעית לבין מסגרת ערכית מחייבת. בכך מסתיים הקובץ לא באבחנה בלבד, אלא בשאלה מוסדית פתוחה בדבר עיצובו העתידי של השימוש בבינה מלאכותית בלחימה ובקריאה לצבא לפעולה.

חמשת המאמרים מציעים אפוא קריאה רב־ממדית של המלחמה האלגוריתמית:  החל מהאטימות האפיסטמית, דרך המימוש הארגוני והלגיטימציוני, וכלה בהשלכות המערכתיות והנורמטיביות. המקרה הנידון הוא מקומי בזמן ובמרחב, אך השאלות שהוא מעורר חורגות ממנו. הקובץ אינו מציע תשובות אלא מבקש, בראש ובראשונה, להציב שאלות שנדחקו לשולי הדיון הציבורי, ולעשות זאת בתחושת הדחיפות הראויה.


לקובץ המאמרים המלא




באנגלית: ?Gospel, Lavender, Where's Daddy

לקריאה

ללא בינה מלאכותית אין קצב וצורת השמדה כמו בעזה - מאמר מס' 1

סבסטיאן בן דניאל

לקריאה

לקריאה

נוהל ערפל - מאמר מס' 2

אבנר גבריהו

לקריאה

לקריאה

מערכות בינה מלאכותית כמנגנון ממוחשב לשיתוף בפשע - מאמר מס' 3

אדם רז

לקריאה

אייקון מאמר

בינה מלאכותית כמערכת לגיטימציה - מאמר מס' 4

יגיל לוי

לקריאה

אייקון מאמר

ללא מצפן - מאמר מס' 5

ראובן גל

לקריאה

פרסומים נוספים במכון