נוהל ערפל: על אטימות, הטיה ואי-חוקיות מובנית

אבנר גבריהו

אפריל 2026

התקדמות הבינה המלאכותית (AI) חוללה מהפכה דרמטית בשדה הקרב המודרני, והביאה עימה יכולות עיבוד נתונים חסרות תקדים לצד אתגרים אתיים ומשפטיים שטרם נראו כמותם.מלחמת עזה 2023, שזכתה לכינוי "מלחמת ה־AI הראשונה",2 מהווה נקודת מפנה קריטית בהיסטוריה הצבאית הגלובלית. במלחמה זו נעשה שימוש במערכות יצירת מטרות מבוססות בינה מלאכותית, ששיפרו משמעותית את מהירות קבלת ההחלטות, אך במקביל עוררו שאלות נוקבות בנוגע לשליטה אנושית ולאחריות פלילית.

מערכות כמו "לבנדר" (Lavender) ו"הבשורה" (The Gospel) שעיבדו מיליארדי נקודות נתונים כדי לדרג את הסתברות ההפללה של כל אחד מתושבי רצועת עזה, יצרו בפועל מפעל לייצור מטרות בקנה מידה תעשייתי. בעוד צוותים אנושיים נזקקו בעבר לשבועות ארוכים של עבודה סיזיפית כדי לחקור עשרות מטרות ולבצע הצלבות מודיעיניות, הרי מערכת ה־AI מבצעת זאת בדקות ספורות, מה שהוביל למסע ההפצצות האינטנסיבי והקטלני ביותר במאה ה־3.21  

א.

במהלך האינתיפאדה השנייה ובפעולותיו ברצועת עזה, עשה צה"ל שימוש ב"נוהל ערפל" – נוהל שחייב לוחם שנקלע לראות אפסית בעמדת שמירה, לירות צרורות אל תוך הלא־נודע כדי להרתיע איום פוטנציאלי.4 זו הייתה פעולה שנולדה מתוך חוסר יכולת להבחין בין אויב לבין אזרח בתנאי שטח קשים, והיא מייצגת את נקודת המוצא להבנת המשבר הנורמטיבי שיוצרת הבינה המלאכותית כיום. בעוד הטכנולוגיה הובטחה ככלי שיחליף את ה"חושך" האנושי בראייה  חדה  ובנתונים  מדויקים,  בפועל  היא  יצרה "ערפל קרב  חדש":  אטימות  אלגוריתמית (Algorithmic Opacity).5

האטימות הזאת אינה שונה במהותה מהערפל הטבעי – שתיהן מציבות את המפקד בפני החלטת חיים ומוות בלא יכולת לראות את המציאות העובדתית מולו. ההבדל הקריטי הוא שהחושך בערפל הוא תנאי סביבתי חיצוני, בעוד האטימות של ה־AI היא תוצר של עיצוב טכנולוגי ומתודולוגי מכוון. המעבר משיפוט אנושי המבוסס על היקשים לוגיים לשיפוט מבוסס אלגוריתם, שוחק את מחויבויות היסוד של המשפט הבין־לאומי ההומניטרי (IHL), בפרט את עקרונות ההבחנה והמידתיות. הוא מחליף את האחריות המוסרית האינדיבידואלית בסטטיסטיקה קרה, שאינה ניתנת לביקורת משפטית או ציבורית. כאשר קצב ייצור המטרות גובר על היכולת הקוגניטיבית של האדם לבצע בקרת איכות, המלחמה מפסיקה להיות עימות בין כוונות והופכת למבצע לוגיסטי של השמדה סטטיסטית. היקף האש וההשמדה המיוצר על ידי אלגוריתמים אלה, מאתגר את עצם היכולת של המשפט הבין־לאומי להטיל רסן על הכוח הצבאי, שכן המכונה פועלת במהירות ובקנה מידה המותירים את המשפטן ואת האתיקן הרחק מאחור.6

אם בעבר הירי אל הלא־נודע נתפס כחריג שנכפה על ידי תנאי השטח, הרי הטירגוט הממוחשב הופך את העיוורון הזה לסטנדרט מערכתי. האטימות אינה עוד "תקלה" הנובעת מראות לקויה, אלא תכונה אינהרנטית של מודלים המעבדים נתונים בקנה מידה החורג מהיכולת הקוגניטיבית האנושית. בכך, הטכנולוגיה אינה פותרת את בעיית ההבחנה, אלא רק מעתיקה אותה מהעין של הלוחם אל תוך "הקופסה השחורה" של האלגוריתם, תוך כדי שהיא מעניקה לפעולה העיוורת כסות של דייקנות מדעית.

ב.

במקרה של מערכת "לבנדר", היא פועלת תחת פרדיגמה טכנולוגית המכונה: Positive-Unlabeled (PU) Learning. בניגוד ללמידת מכונה קלאסית, שבה המערכת לומדת מתוך דוגמאות חיוביות (לוחם) ושליליות (אזרח) ברורות, ב־PU Learning המערכת מוזנת במספר קטן של דוגמאות "חיוביות" מסומנות (פעילים מוכרים של חמאס) ובמאגר עצום של דוגמאות לא מסומנות מכלל האוכלוסייה.7 המערכת סורקת את כלל האוכלוסייה ומחפשת אנשים בעלי "מאפיינים" דומים לאלה של הלוחמים המוכרים. כאן טמון הכשל המשפטי המובנה: המודל אינו יודע בוודאות מי אינו לוחם. הוא מסיק זאת מתוך נתונים חסרים ומתוך היקשים סטטיסטיים על כלל האוכלוסייה ה"לא מסומנת", דבר היוצר עמימות מובנית בנוגע להגדרת ה"אזרח".

אטימות זו היא לב הבעיה המשפטית. אם המפעיל האנושי אינו יכול להסביר מדוע המערכת סימנה אדם מסוים כמטרה – האם בגלל קבוצת הוואטסאפ שאליה הוא משתייך? האם בגלל תדירות החלפת כרטיסי ה־ SIM שלו? או אולי בגלל מגוריו בשכונה מסוימת? – הוא אינו יכול למלא את חובתו המשפטית לבצע הבחנה אמיתית. המשפט הבין־לאומי דורש נימוק (Reasoning), ואילו הבינה המלאכותית מספקת רק חיזוי (Prediction).

בלב המשבר עומדת ההבחנה האקדמית בין פרשנות פנימית (Interpretability) לבין סברתיות (Explainability). פרשנות פנימית עוסקת בשאלה איך המודל עובד ומהם הכללים הפנימיים שלו, בעוד סברתיות עוסקת בשאלה מדוע התקבלה החלטה ספציפית בנוגע לקלט מסוים. מודלים מורכבים של למידה עמוקה  (Deep  Learning)  מאבדים את שתי התכונות הללו בו בזמן.8

ניתן לזהות שלוש שכבות של אטימות בתוך "לבנדר":

  1. אטימות הכלל: המערכת לומדת מאלפי משתנים (Features), שחלקם עשויים להיות אסורים משפטית (כמו השתייכות דתית או קרבה גיאוגרפית בלבד), אך המפעיל לעולם לא יידע מהו המשקל האמיתי שניתן לכל משתנה.

  2. אטימות ההסתברות: הפלט של "לבנדר" הוא ציון בין 0 ל־1. אך מה ההבדל המשפטי בין אדם שקיבל 0.85 לבין אדם שקיבל 0.82? האם ה־0.03 האלו הם המרווח שבין חיים למוות? הציון המספרי מחליף את הנימוק המודיעיני ויוצר אשליה של דיוק מתמטי במקום שבו נדרש שיפוט מוסרי.

  3. אטימות הטעות: צה"ל אישר כי המערכת פועלת בשיעור שגיאה של 10 אחוזים. ואולם, בגלל האטימות, לא ניתן לדעת האם הטעות היא אקראית או שיטתית (Machine Bias). אם המערכת מפלה לרעה אנשים עם זקנים או אנשים העובדים בשירותי הצלה, האטימות תמנע מהמפקדים לזהות את הכשל הזה בזמן אמת.

יתרה מזאת, האטימות האלגוריתמית מייצרת את מה שספארו ומתיאס מכנים בשם "פער האחריות" (Responsibility Gap).9 במערכת לומדת, האלגוריתם מפתח כללים משלו שאינם צפויים מראש על ידי המתכנת או המפקד. אם המערכת מבצעת פשע מלחמה בעקבות שיקול דעת אטום, נוצר ואקום משפטי: לא ניתן להרשיע את המתכנת כי הוא לא צפה את הפעולה, ולא ניתן להרשיע את המפקד כי חסר לו היסוד הנפשי של כוונה או מודעות (Mens Rea). אובדן היכולת להסביר את המכונה מוביל אפוא לאובדן היכולת להעניש על פשעיה.

ג.

האטימות האלגוריתמית אינה נשארת בגבולות המכונה; היא משמשת כמגבר להטיות אנושיות קטלניות המוכרות היטב בספרות הפסיכולוגית והקוגניטיבית. "הטיית אוטומציה" (Automation Bias) היא הנטייה האנושית לתת אמון מופרז במערכות טכנולוגיות, מתוך תפיסה מוטעית שהן אובייקטיביות, חסינות מטעויות ונטולות רגש.10 במקביל, מתקיימת "הטיית אישור" (Confirmation Bias) המובילה את המפעיל האנושי לחפש אך ורק את פיסות המודיעין שיאשררו את הציון שהעניקה המכונה, תוך התעלמות מראיות מזכות.11 במלחמת עזה דווח כי קצינים הקדישו לעתים כ־20 שניות בלבד לאימות כל מטרה – זמן שנועד אך ורק לוודא שהאובייקט הוא זכר, בלא כל בחינה מהותית של הראיות המפלילות או הקשר האירוע.12 זהו תהליך של ריקון מיומנויות של המפקד האנושי; הוא אינו נדרש עוד לחשוב, אלא רק ללחוץ על הכפתור.

מעבר לכך, עקרון המידתיות – אבן היסוד של דיני הלחימה – דורש שיקול דעת מוסרי, הקשרי וסובייקטיבי שאינו ניתן לצמצום לאלגוריתם. המשפט הבין־לאומי מחייב לאזן בין היתרון הצבאי הצפוי לבין הנזק האזרחי הנלווה הצפוי.13 איזון זה אינו חישוב אריתמטי, אלא שיפוט ערכי על ערכם של חיי אדם מול מטרות פוליטיות וצבאיות. המכונה מבצעת "אופטימיזציה" סטטיסטית של הרג, בעוד החוק דורש "הצדקה" אנושית ומנומקת. כאשר משתמשים ב־AI כדי לייצר עשרות אלפי מטרות, מתרחש שינוי איכותי במלחמה: נזק נלווה העשוי להיחשב "מידתי" בתקיפה בודדת (למשל, פגיעה ב־10 אזרחים כדי לחסל מפקד בכיר), הופך לבלתי חוקי בעליל כאשר הוא מוכפל באלפי תקיפות המבוצעות בקצב תעשייתי נגד פעילים זוטרים.

הסקאלה עצמה משנה את האופי החוקי של הלחימה. האסטרטגיה הצבאית המבוססת על בינה מלאכותית, מייצרת "נזק אגרגטיבי (מצטבר)" (Aggregative Harm) - מושג המערער על התפיסה המשפטית הקלאסית. בעוד הערכת מידתיות מחייבת הבנה עמוקה של ההקשר הרחב ושיקול דעת מוסרי מורכב, האלגוריתם מתוכנת להתמקד בנקודה בודדת. הוא בוחן כל מטרה באופן מבודד ומנותק, ובכך מחמיץ את התוצאה המצטברת של אלפי תקיפות המבוצעות בו בזמן.14 היכולת הטכנולוגית לייצר מטרות בקצב תעשייתי הופכת את המוות האזרחי מהסתברות מצערת לנתון סטטיסטי קבוע ומובנה, דבר המעקר את מהותה של המידתיות שנועדה למנוע הרג מיותר ורחב היקף. האם מותר להרוג 10,000 אזרחים בשבוע רק כי כל תקיפה בנפרד עמדה בנוסחה מתמטית כלשהי? ה־AI הופכת את המוות האזרחי למחיר סטטיסטי קבוע מראש, ובכך היא מעקרת את המהות של המידתיות שנועדה למנוע הרג מיותר. השילוב של מהירות וסקאלה יוצר מציאות שבה המפקד האנושי אינו מסוגל פיזית לבחון את המידתיות של כל תקיפה, והוא נאלץ לסמוך על ה"מדיניות" האלגוריתמית, דבר המהווה האצלה לא חוקית של שיקול דעת מוסרי למכונה.

יתר על כן, פתרונות טכנולוגיים כמו בינה מלאכותית הסברתית (XAI) מתגלים כמשענת קנה רצוץ.15 מערכות אלו מספקות הצדקות בדיעבד (Post-hoc Explanations) הנשמעות לוגיות לאוזן אנושית, אך אינן משקפות את התהליך המתמטי האמיתי שקרה בתוך ה"קופסה השחורה". לעתים קרובות האלגוריתם מייצר סיפור,  שנועד להרגיע את מצפונו של האדם. זהו "שירות דוב" למשפט הבין־לאומי – מתן כסות של חוקיות למשהו שהוא במהותו הימור סטטיסטי (למשל, "נוהל ערפל" הישן מראה כי גם שם ניסו חיילים להסביר בדיעבד מדוע ירו, אך ההסבר לא שינה את העובדה שהירי היה עיוור. ה־AI רק הופכת את העיוורון הזה ליפה יותר, מנומק לכאורה ומגובה בגרפים ובנתונים).

ד.

השאלה המשפטית המרכזית העומדת לפתחנו אינה רק האם המכונה טועה באחוז כזה או אחר, אלא האם עצם השימוש במערכת אטומה מאפשר עמידה בחובות המשפטיות המהותיות של המפקד בשדה הקרב. חובת ההבחנה אינה רק חובה להגיע לתוצאה נכונה; היא "חובת התנהגות" (Obligation of Conduct) המוטלת על מקבל ההחלטה. עליו לבצע כל מאמץ סביר כדי לוודא שהמטרה היא צבאית. כאשר המפקד מאציל את שיקול הדעת הזה למערכת שאינו מבין את שיקוליה, הוא מוותר למעשה על היכולת שלו לבצע את ההבחנה הזאת כנדרש בחוק.

המשפט הבין־לאומי ההומניטרי קובע (בסעיף 36 לפרוטוקול הראשון של אמנות ז'נבה), כי מדינות מחויבות לבחון האם שימוש באמצעי לחימה חדש או בשיטת לחימה חדשה יהיה אסור בנסיבות מסוימות או בכלל.16 הניתוח הנוכחי מראה, כי מערכת ה־AI מעצם אטימותה, אינה עומדת במבחן זה. אם מערכת ה־AI אינה מסוגלת להסביר מדוע סיווגה אדם מסוים כמטרה, לא ניתן לוודא שהסיווג מבוסס על גורמים לגיטימיים (כמו השתתפות פעילה בלחימה) ולא על הטיות סטטיסטיות מקריות או "אשמה בזיקה" (Guilt by Association). אטימות זו הופכת את ה־AI לשיטת לחימה שאינה סלקטיבית מעצם טבעה (Inherently Indiscriminate). שיטה נחשבת לכזאת אם מטבעה או מעיצובה היא אינה ניתנת לכיוון מדויק כלפי מטרה צבאית ספציפית באופן שניתן לביקורת משפטית.

מעבר לכך, יש לדון בתופעת ה"מדרון החלקלק של המאפיינים". בשיטת ה־PU Learning המערכת מחפשת דמיון. ככל שהמלחמה מתארכת והצורך במטרות גובר, הלחץ הפוליטי והצבאי עלול להוביל להורדת "סף ההסתברות" (Threshold). אם בתחילת המלחמה רק ציון של 0.9 הוביל לתקיפה, בשלבים מאוחרים יותר גם ציון של 0.7 עשוי להספיק. הבעיה היא שבאטימות מלאה, אין לאדם דרך לדעת מה המשמעות המעשית של ירידה זו בביטחון האלגוריתמי. האם אנחנו עוברים מחיסול לוחמים לחיסול של אנשים שפשוט גרים בבניין שבו עבר לוחם? בלא שקיפות הכלל, ה־AI הופכת לכלי לחיסול המוני המבוסס על דמיון שטחי ולא על ראיות מוצקות.

האטימות מונעת את האפשרות לבדוק את חוקיות התקיפה הן בזמן אמת והן בדיעבד. בלא "עקבות" של קבלת החלטות, לא ניתן לנהל חקירות אפקטיביות לאחר המלחמה. גישות קונסקוונציאליסטיות (תוצאתניות) התומכות בשימוש ב־AI בטענה שהוא "מדויק יותר מאדם", טועות בכשל קטגורי: הן מניחות שהתוצאה מאומתת, אך האטימות היא בדיוק מה שמונע את האימות הזה. לא ניתן לדעת שהמערכת מדויקת אם לא ניתן להגדיר מהי טעות. הדין הבין־לאומי מחייב תהליך של שיקול דעת אנושי ושקיפות כדי למנוע הידרדרות ללחימה פראית. אובדן התהליך הזה מוביל לקריסה מוחלטת של המסגרת הנורמטיבית המגינה על אזרחים. האטימות ב"לבנדר" היא אפוא לא רק מגבלה טכנית, אלא מחסום משפטי הפוסל את חוקיות השימוש במערכת בנסיבות של טירגוט אנושי.

סיכום

לסיכום, מקרה הבוחן של מערכות "לבנדר" ו"הבשורה" והשימוש המסיבי בבינה מלאכותית במלחמה בעזה חושפים משבר עמוק ותקדימי באתיקה ובמשפט של המלחמה המודרנית. הכנסת טכנולוגיה מתקדמת לשדה הקרב לא הפחיתה את הטרגדיה האנושית; היא רק אפשרה לה להתרחש בקנה מידה רחב יותר, במהירות מסחררת ובצורה אטומה לחלוטין לביקורת חיצונית או פנימית. האטימות האלגוריתמית ייצרה "נוהל ערפל" דיגיטלי, שבו המפקדים והדרג המדיני פועלים בתוך "קופסה שחורה", שאין להם יכולת או רצון להבין את שיקוליה המורכבים. זהו מצב מובהק של היבריס טכנולוגי, שבו האמונה העיוורת בכוחו של הנתון ובדיוק המכונה, מחליפה את האחריות המוסרית והחובה החוקית של האדם.

כדי לשמר את הרלוונטיות של דיני הלחימה במאה ה־21, עלינו לעבור מהתמקדות שטחית במושג ה"אדם בלולאה" (Human-in-the-loop) - שהפך במקרים רבים למְנהל טקסי בלבד – לדרישה מחמירה ומהותית של "שליטה אנושית אפקטיבית" (Effective Human Control). שליטה כזאת אינה מסתכמת בלחיצה פיזית על ההדק, אלא מחייבת שקיפות מוחלטת, ניתנות-להסבר (Explainability) ויכולת של המפעיל לערער על קביעות המכונה, מתוך הבנה עמוקה של הראיות וההקשר. עלינו להכיר בכך שבינה מלאכותית יכולה להיות כלי עזר מודיעיני רב עוצמה, אך היא אינה יכולה להיות הפוסק האחרון בענייני חיים ומוות כל עוד היא נותרת אטומה.17

הקהילה הבין־לאומית, המוסדות המשפטיים והמדינות נדרשים להכיר בכך, שמערכת שאינה מסוגלת להסביר את החלטותיה ברמה המאפשרת ביקורת משפטית פלילית – היא מערכת הפסולה לשימוש לצורכי טירגוט. עלינו לעגן בחוק הבין־לאומי את האיסור על "טירגוט אלגוריתמי אטום" ולדרוש סטנדרטים מחמירים של שקיפות לפני הטמעת מערכות אלו. המלחמה אינה יכולה להפוך למפעל של סטטיסטיקה קטלנית המנוהל על ידי אלגוריתמים אטומים. עמדה זו עולה בקנה אחד עם מדיניות התובע של בית הדין הפלילי הבין־לאומי (ICC) מ־2024 בנושא פשעי סייבר, המדגישה כי טכנולוגיות מתקדמות אינן יוצרות חלל משפטי.18 על פי המדיניות, האחריות להבחנה ולמידתיות נותרת על כתפי האדם, והסתמכות עיוורת על "קופסה שחורה" אלגוריתמית עשויה לשמש בסיס להעמדה לדין בגין פשעי מלחמה. השבת האנושיות לשדה הקרב מחייבת אותנו להכיר במגבלות המובנות של הטכנולוגיה ולהבטיח שההחלטה הקריטית ביותר – ההחלטה על חיים ומוות – תישאר תמיד משימה אנושית, מנומקת ואחראית. רק בדרך זו נוכל למנוע מהבינה המלאכותית להפוך את שדה הקרב למרחב של הפקרה משפטית ומוסרית מוחלטת, שבו ה"ערפל" הדיגיטלי מסתיר את חורבן הערכים שעליהם נבנה המשפט הבין־לאומי. השאלה אינה האם ה־AI יכולה להרוג, אלא האם אנחנו, כבני אדם, מוכנים לוותר על הזכות והחובה להסביר מדוע בחרנו להרוג. 

אבנר גבריהו הוא בעל תואר שני בלימודי זכויות אדם מאוניברסיטת קולומביה בניו-יורק, וכיום לומד בבית הספר לממשל באוקספורד, שם מחקרו מתמקד בשימוש בבינה מלאכותית במלחמה. בעבר כיהן אבנר בתפקיד מנכ"ל "שוברים שתיקה".

מאמרים נוספים בסדרה:

פתיחת הדיון  - יגיל לוי 

מאמר מספר 1 - ללא בינה מלאכותית אין קצב השמדה וצורת השמדה כמו עזה - על אלגוריתמיזציה של ההרג בעזה (אוקטובר 2023 - ינואר 2024) - סבסטיאן בן דניאל

מאמר מספר 2 - נוהל ערפל - על אטימות, הטיה ואי־חוקיות מובנית - אבנר גבריהו

מאמר מספר 3מערכות בינה מלאכותית כמנגנון ממוחשב לשיתוף בפשע: המקרה של "הבשורה" והפצצת רצועת עזה בימי המלחמה הראשונים - אדם רז

מאמר מספר 4בינה מלאכותית כמערכת לגיטימציה - יגיל לוי

מאמר מספר 5ללא מצפן: הצורך הדחוף של צה״ל בדוקטרינה אתית לשימוש במערכות נשק
אוטונומיות ובינה מלאכותית - ראובן גל




הערות


1 Yuval Abraham, “'Lavender': The AI Machine Directing Israel's Bombing Spree in Gaza,“ +972 Magazine, April 3, 2024 Link  

2 Kristian Humble, “War, Artificial Intelligence, and the Future of Conflict,“ Georgetown Journal of International Affairs, July 12, 2024 Link 

3 Airwars, Patterns of Harm Analys - Gaza, October 2023 (Airwars, December 2024) Link

עדויות טקסט - "נוהל ערפל", עדות מספר 85048, סמ"ר, חטיבת גבעתי, רצועת עזה, שוברים שתיקה, אוחזר ב-24 בפברואר 2026, קישור

5 Candace Rondeaux, “The Algorithmic Fog of War,” Future Tense Fiction, Issues in Science and Technology, January 30, 2026 Link

6 Aviad Raz et al., “Prediction and Explainability in AI: Striking a New Balance?” Big Data & Society 11,1 (2024): 1-5 ‏

7 Harry Davies and Bethan McKernan, “IDF Colonel Discusses 'Data Science Magic Powder' for Locating Terrorists,“ The Guardian, April 11, 2024 Link

8 But what is a neural network? | Deep learning chapter 1, Neural Networks - 3Blue1Brown, YouTube Video, 18:40, October 5, 2017 Link

9 Andreas Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata,“ Ethics and information technology 6, 3 (2004): 175-183; See also: Robert Sparrow, “Killer Robots,“ Journal of applied philosophy 24, 1 (2007): 62-77

10   Linda Skitka et al., “Does Automation Bias Decision-Making?,“ International Journal of Computer Studies 51, 5 (1999): 991-1006 

11 Lucia Vicenta and Helena Matute, “Humans Inherit Artificial Intelligence Biases,“ Sci Rep 13 (2023)

12  Abraham, 'Lavender': The AI Machine

13  Amichai Cohen and David Zlotogorski, Proportionality in International Humanitarian Law: Consequences, Precautions, and Procedures (The Lieber Studies Series, 2021), 169

14 Jahina Dill, Legitimate Targets? Social Construction, International Law and US Bombing, (Cambridge University Press, 2014)

15 James Thorn, “Explainable Artificial Intelligence“, Towards Data Science, April 15, 2020 Link 

16 סעיף 36 לפרוטוקול הראשון (1977) המשלים את אמנות ז'נבה מ-1949 (Protocol Additional to the Geneva Conventions of 12 August 1949, and relating to the Protection of Victims of International Armed Conflicts (Protocol I), 8 June 1977, 1125 UNTS 3). סעיף זה מטיל על מדינות את החובה החיובית (Positive Obligation) לבחון האם שימוש באמצעי לחימה חדש יהיה אסור, בנסיבות מסוימות או בכלל, על פי הוראות הדין הבין־לאומי.

17 Alon Sapir, "Pandora's Black Box: Artificial Intelligence in Targeting, Gaza, and the Law of War" (Master's thesis, 2024)

18 International Criminal Court, Office of the Prosecutor, Policy on Cyber-Enabled Crimes under the Rome Statute (December 2025), para. 195 Link