8.6 C
Londra
HomeArtificial IntelligenceAI Governanceחיווט מחדש של תכנון משותף לטובת קבלת החלטות: שילוב בינה מלאכותית גנרטיבית...

חיווט מחדש של תכנון משותף לטובת קבלת החלטות: שילוב בינה מלאכותית גנרטיבית בצוותי תכנון תפעוליים בארה”ב עם מעקות בטיחות מאומתים ואפקטים מדידים

תַקצִיר

ברחבי מפעלי הביטחון של ארצות הברית , מדיניות, דוקטרינה ומסגרות סיכונים מתכנסות כעת סביב הטענה שבינה מלאכותית גנרטיבית יכולה להאיץ את עבודת הצוות רק כאשר היא משולבת בתהליכים שעוצבו מחדש, צינורות כוח אדם ומנגנוני ממשל; עוגנים סמכותיים כוללים את אסטרטגיית אימוץ הנתונים, האנליטיקה והבינה המלאכותית של משרד ההגנה ( DoD ) , 2 בנובמבר 2023 , ערכת הכלים לבינה מלאכותית גנרטיבית ויישום “הנחיות ומעקות בטיחות” של משרד הבינה הדיגיטלית והמלאכותית הראשי ( CDAO ) , 11 בדצמבר 2024 , סיכום מנהלים של כוח המשימה של CDAO לימה, 11 בדצמבר 2024 , ומסגרת ניהול הסיכונים של NIST AI 1.0, 26 בינואר 2023 עם הפרופיל הגנרטיבי שלה, NIST AI 600-1, 26 ביולי 2024 .

מבחינה דוקטרינתית, ארכיטקטורת התכנון המשותף שעוצבה על ידי ראשי המטות המשולבים ב- JP 5-0: Joint Planning (פורטל דוקטרינות) וב- MCDP 5: Planning של חיל הנחתים (4 באוקטובר 2018) מספקת את זרימת העבודה הבסיסית – ניתוח משימה, פיתוח דרכי פעולה, השוואה וקבלת החלטות – שאליה יש לשלב מערכות יצירתיות. מחקרים אמפיריים ואנליטיים בין השנים 2024–2025 על ידי תאגיד RAND מחזקים את התנאים המוקדמים הארגוניים לשיתוף פעולה יעיל בין אדם למכונה, למשל, Exploring AI to Mitigate Bias in IPB, 6 באוגוסט 2024 , Improving Sense-Making with AI, 2025 , One Team, One Fight: Human-Machine Integration, 2025 , ו- An AI Revolution in Military Affairs, 2025 , כשכל אחד מהם מסיק כי רווחים נובעים מתכנון משימות ממוקדות, מדידה ובניית אמון ולא מגישה לכלי עבודה בלבד.

במסגרת החינוך הביטחוני, אוניברסיטת חיל הנחתים גיבשה קווי מאמצים לשינוי לשנת הלימודים 2026–2029 הכוללים פיתוח סגל ומודרניזציה של אספקת חינוך צבאי מקצועי, כפי שתועד בתוכנית הקמפיין של EDCOM/MCU 2026–2029, 20 במאי 2025 ; למרות שאינה מדריך בינה מלאכותית גנרטיבי , תוכנית זו מדגישה מנגנוני התאמת והערכה של תוכניות לימודים התואמים את התנאים המוסדיים הדרושים לשילוב כלי ניתוח חדשים בפדגוגיית התכנון. קורפוס הדוקטרינה של חיל הנחתים הממסגר את זרימות העבודה של הצוות – תהליך התכנון של חיל הנחתים של MCWP 5-1/5-10 ודף התצוגה של MCWP 5-10 – מגדיר ניתוח משימה כשלב יצירת השערות ומבחין בין עיצוב קונספטואלי לרצף פרוצדורלי, יישור שהופך את שלבי החשיבה המפולגת של תכנון לנקודות ההכנסה הפתוחות ביותר עבור מודלים של שפה גדולים. במקביל, משרד ההגנה האמריקאי (DOD) גיבש ציפיות לגבי יכולות סייבר ואבטחת מידע עבור בינה מלאכותית במדריך התאמת ניהול סיכוני אבטחת סייבר לבינה מלאכותית, 14 ביולי 2025 , המבהיר כי הפריסה חייבת להיות משולבת עם בקרות ניתנות לאימות, תוצרי בדיקה וממשל ניתן למעקב – דרישות המשפיעות ישירות על האופן שבו צוותי תכנון תפעולי מכינים, מאחסנים ובודקים תוצרים המסייעים במודל.

ראיות דיפוזיה ברמת המאקרו בכלכלה הרחבה יותר מספקות תוקף חיצוני לדפוסי אימוץ שנצפו בהקשרים ביטחוניים. סקרי ארגונים חוצי-מדינות של ה- OECD מדווחים על קליטה לא אחידה אך מואצת, עם פערים מגזריים ומעמדות גודל המשקפים פערים ביכולות ובמיומנויות; ראו OECD Digital Economy Outlook 2024, כרך 1, 14 במאי 2024 , Fostering an Inclusive Digital Transformation as AI Spreads Among Firms, 25 באוקטובר 2024 , ו- Emerging Divides in the Transition to Artificial Intelligence, 23 ביוני 2025. המחקר באורך הספר של ה- OECD The Adoption of Artificial Intelligence in Firms, 2 במאי 2025 , עם הדו”ח המלא בפורמט PDF נלווה , מתעד מכשולים ניהוליים – מיומנויות, מוכנות נתונים וניהול שינויים – בהתאם למסקנה שהסתגלות מוסדית קובעת תשואות. השלכות על כישורי כוח אדם, כפי שכומתו על ידי דו”ח עתיד המשרות 2025 של הפורום הכלכלי העולמי , 7 בינואר 2025, מאששות את הביקוש הגובר ליכולות “חשיבה יצירתית” ו”בינה מלאכותית וביג דאטה “, וממופות ישירות לצורכי ניתוח משימות בתכנון משותף. הנחיות ניהול סיכונים מ- NIST – ה-AI RMF 1.0 הבסיסי , 26 בינואר 2023 והפרופיל הגנרטיבי NIST AI 600-1, 26 ביולי 2024 – מציינות משפחות בקרה לתוקף, חוסן, שקיפות וניהול הטיות; ניתן ליישם אותן כנקודות בקרה מפורשות של תאי תכנון כדי לתעד הנחיות מודל, לשמור נימוקים ולהכפיף את התפוקות לביקורת עוינת.

עבור ארגוני קו, הגשר המעשי בין מדיניות לפרקטיקה הובהר על ידי ממצאים של CDAO , כולל תוכנית התאימות של משרד ההגנה עבור OMB M-24-10, 19 בספטמבר 2024 וההצהרה על תאימות משרד ההגנה, 24 בספטמבר 2024 , שתיהן מתייחסות להנחיות יצירתיות ותשתיות בדיקה שניתן להתאים לתאי תכנון חינוכיים ולצוותים תפעוליים. ההודעה לציבור של משרד ההגנה “משרד ההגנה משחרר אסטרטגיית אימוץ בינה מלאכותית”, 2 בנובמבר 2023 ודף העובדות האסטרטגיה הנלווה , 25 באוקטובר 2024, מדגישות ” כוח אדם מוכן לבינה מלאכותית “, יסודות נתונים ופריסה מדורגת – וקטורים ארגוניים התואמים את המציאות של תכנון צוות שבה פונקציות לוחמה מרובות חייבות לתאם תחת לחץ זמן. בתחומי הפדגוגיה והמחקר הצבאי, הוצאת אוניברסיטת חיל הנחתים מנתחת – למשל, את “אוטומציה ועתיד הפיקוד והשליטה” (JAMS 11-1) – ומאמרים בנושא חשיבה עיצובית וחדשנות חוקרים כיצד מבנה ארגוני ודוקטרינה מתווכים השפעות טכנולוגיות, ותומכים בטענה שערכה של בינה מלאכותית גנרטיבית תלוי בשילוב זרימת עבודה, ולא בחידוש כלים.

בתוך הנוף המאומת הזה, עולים ארבעה לקחים אופרטיביים בעלי תחולה ישירה לצוותי תכנון משותפים.

  • ראשית, שלבי חשיבה מפוצלת כמו ניתוח משימות הם נקודות הכניסה הטבעיות למודלים של שפה גדולה; זה מתיישב עם הדגש על עיצוב קונספטואלי ב- MCDP 5 ועם ממצאי RAND לפיהם בינה מלאכותית יכולה להרחיב מרחבי השערות ומסגרות הקשר ביצירת מובנים מוקדמת ( שיפור יצירת מובנים עם בינה מלאכותית, 2025 ).
  • שנית, הרווחים השוליים הגדולים ביותר צוברים מחוץ לתחום ההתמחות העיקרי של המתכנן, בהתאם לראיות ארגוניות לפיהן אימוץ בינה מלאכותית מועיל באופן לא פרופורציונלי לארגונים בעלי כישורים משלימים ומוכנות לנתונים ( OECD, 2 במאי 2025 ) ועם מחקר תכנון על הפחתת הטיות ב- IPB ( RAND, 6 באוגוסט 2024 ).
  • שלישית, התלהבות שאינה מגובה בהטמעה מובנית בדרך כלל נקטעת; ממצאי יישום ציבוריים של משרד ההגנה יוצרים צינורות הדרכה, תשתית בדיקות ( הפניות ל-JATIC ) ונקודות בקרה של ממשל כתנאים מוקדמים לפריסה ( מרכז משאבי CDAO ).
  • רביעית, דינמיקה של קבוצות קטנות יכולה להחליף את השימוש בכלים אלא אם כן הנחיה כופה שילוב; הנחיות דוקטרינליות ופרופילי סיכונים של NIST יחד מצדיקים נקודות ביקורת חובה שבהן צוותים חייבים להשוות ניתוח אנושי לתפוקות מודל שנרשמו עם נימוקים ניתנים למעקב ( משאבי NIST AI RMF ).

טענות לגבי שיעורי שימוש ספציפיים בכיתות או טלמטריה קניינית מטייסי חינוך פנימיים באוניברסיטת חיל הנחתים או במכללת הפיקוד והמטה של ​​חיל הנחתים אינן זמינות במסמכים מוסדיים פומביים וניתנים לציטוט נכון ל -14 באוקטובר 2025 ; במקרים בהם נתונים כאלה נחוצים לתמיכה בטענות מספריות, אין מקור ציבורי מאומת זמין. לפיכך, ניתוח זה מגביל את עצמו למדיניות, דוקטרינה, ממשל ומחקר המתועדים בפומבי, אשר יחד מתארים כיצד יש לשלב בינה מלאכותית גנרטיבית בזרימת התכנון של JP 5-0 .

הקורפוס המאומת מאפשר מרשמים מעשיים: מינוי “אנליסט בינה מלאכותית” בכל פונקציית לוחמה; פרסום מראש של תבניות הנחיות הממופות לפסקאות דוקטרינה; דרישה של נקודות ביקורת לניתוח משימה, פיתוח תעודת זהות (COA) והערכת סיכונים אשר רושמות הנחיות, תגובות והערות מעריכים; אימוץ בקרות התוקף, החוסן והשקיפות של NIST כקריטריוני קבלה למוצרי צוות; תוכניות חינוך לכלים בהתאם לתוכנית קמפיין EDCOM/MCU לרצף הכשרה ממשימות מרשם למשימות אדפטיביות; ולמדוד אימוץ באמצעות ארטיפקטים מפורשים – יומני הנחיות, כלי סקר, השוואות בין מקרים – המקשרים לתיעוד ממשל תחת מטריית CDAO . מדדים אלה מיישמים את המסר העקבי בתפוקות משרד ההגנה , NIST , OECD ו- RAND : צוותי תכנון חייבים לשנות את המבנה והתהליך שלהם כדי להמיר כלים יצירתיים ליתרון קבלת החלטות חוזר.


סיכום בשפה פשוטה למי שאינם מומחים

בינה מלאכותית גנרטיבית היא כלי שיכול לייצר טקסט, רשימות ואפשרויות כאשר ניתנת לו הנחיה ברורה. צוותי תכנון צבאיים יכולים להשתמש בה כדי להאיץ חלקים מעבודתם. עליהם גם לשלוט באופן ובזמן השימוש בה. פרק זה מסביר את היסודות, מראה היכן הכלי עוזר, מראה היכן הוא נכשל ומפרט את הבקרות ששומרות עליו בטוח ואחראי. כל טענה להלן מקשרת למקור רשמי וציבורי.

בינה מלאכותית גנרטיבית תקוצר כאן לבינה מלאכותית . “צוות” תכנון פירושו קבוצה קטנה של קצינים ואנשי צוות שמכינים אפשרויות עבור מפקד. “ניתוח משימה” פירושו החלק המוקדם של התכנון שבו צוות מגדיר את הבעיה ומפרט מה עשוי לעבוד.

לצבא ארצות הברית יש כללים כתובים לתכנון. ספר החוקים המשותף הוא JP 5-0: Joint Planning from the Joint Chiefs of Staff . גרסת חיל הנחתים היא MCDP 5: Planning . ספרים אלה קובעים כי צוותים צריכים לנתח את המשימה, ליצור דרכי פעולה שונות, להשוות ביניהן ולאחר מכן לכתוב פקודות. הם גם אומרים כי צוותים חייבים לאתגר את ההנחות שלהם. נקודות אלה חשובות, משום שהן תואמות את מה שבינה מלאכותית יכולה לעשות היטב כאשר צוותים מבקשים אפשרויות רבות מוקדם ואז בודקים את האפשרויות הללו מאוחר יותר.

המכון הלאומי לתקנים וטכנולוגיה מפרסם הנחיות פומביות בנוגע לסיכוני בינה מלאכותית שכל ארגון יכול להשתמש בהן. המדריך העיקרי הוא NIST AI Risk Management Framework 1.0 (ינואר 2023) . הוא מורה לצוותים לשלוט , למפות , למדוד ולנהל סיכונים. ישנו גם פרופיל ספציפי למערכות גנרטיביות: NIST AI 600-1: Generative AI Profile (יולי 2024) . פרופיל זה קובע כי ארגונים צריכים לתעד הנחיות ופלט, לעקוב אחר גרסאות מודל, לבדוק שינויים בנתונים או בהתנהגות ולספק שקיפות כדי שאנשים יוכלו לסקור את מה שהמערכת עשתה. צעדים אלה מתאימים לתכנון צבאי, משום שהם יוצרים תיעוד שניתן לבקרו.

למשרד ההגנה יש ארגז כלים ציבורי למערכות גנרטיביות המסבירה כיצד להפוך פרויקטים לבטוחים וניתנים לסקירה. ארגז הכלים פורסם על ידי המשרד הראשי לבינה דיגיטלית ואמנותית ונקרא “בינה מלאכותית גנרטיבית גרסה 1.0: ערכת כלים לבינה מלאכותית אחראית” (דצמבר 2024) . ה- CDAO מסביר גם את ארגז הכלים בהערה ציבורית בבלוג, “GenAI Toolkit operationalises Guidelines & Guardrails memo”, 11 בדצמבר 2024. ארגז הכלים מכיל רשימות תיוג פשוטות: התאמה (האם המשימה מתאימה לכלי), היתכנות (האם הנתונים וההגדרה קיימים) וכדאי ( האם מקובל להשתמש בכלי כאן). הוא גם מציע כיצד לתעד את השימוש וכיצד להכשיר משתמשים.

מחקר עצמאי מגבה את הצעדים הללו. תאגיד RAND חקר כיצד חיילים ואלגוריתמים פועלים יחד. הספר “צוות אחד, קרב אחד: כרך א'” (2 ביוני 2025) מסביר בעיות נפוצות כאשר צוותים מוסיפים חבר צוות אוטומטי. דוגמאות לכך כוללות תפקידים לא ברורים, אמון רב מדי באוטומציה, אמון מועט מדי עקב תפוקות לא ברורות ובלבול לגבי מי הבעלים של ההחלטה הסופית. הדו”ח ממליץ על גבולות תפקידים ברורים, הסברים קצרים לתפוקות ושגרות קבועות למתי הכלי יכול לפעול. קובץ ה- PDF המלא זמין גם הוא לציבור: RAND RRA2764-1 PDF . מחקר נוסף של RAND מראה כיצד בינה מלאכותית יכולה לעזור לאנליסטים אנושיים להימנע מהטיה במהלך הכנת המודיעין. הדו”ח נקרא “חקר שימוש בבינה מלאכותית כדי להפחית הטיה אנושית פוטנציאלית במסגרת IPB של צבא ארה”ב” (6 באוגוסט 2024) וקובץ ה- PDF נמצא כאן . דו”ח זה קובע שהשימוש הטוב ביותר הוא לדרוש מהכלי לייצר נקודות מבט חלופיות שהצוות חייב לשקול. הצוות האנושי עדיין מחליט, אך התהליך הופך שלם יותר.

מקורות רשמיים ומחקריים אלה מצביעים על שישה לקחים פשוטים.

שיעור ראשון: השתמשו בכלי מוקדם כדי להרחיב את החשיבה, ולאחר מכן בדקו אותה. השלב המוקדם של התכנון נקרא ניתוח משימה. צוותים מנסים לשאול את השאלות הנכונות ולפרט נתיבים אפשריים רבים. בנקודה זו, הכלי יכול לייצר במהירות מספר גרסאות שונות של הבעיה, מספר קבוצות של שאלות ומספר אפשרויות . דוקטרינה תומכת בסוג זה של חשיבה רחבה. ראו JP 5-0 ו- MCDP 5. אך אסור לצוות לקבל את התוצרים הללו כעובדה. עליו לסקור ולערוך אותם. עליו גם לתעד את מה שהתבקש ומה התקבל. פרופיל NIST קובע לשמור רשומות אלו ולעקוב אחר גרסת המערכת וההקשר. ראו NIST AI 600-1 .

לקח שני: אל תשתמשו בכלי כדי להחליף שיקול דעת טכני מעמיק. אנשים עם שנים רבות של אימון בתחום צר, כמו ארטילריה או תכנון לוגיסטי, יגלו לעתים קרובות שהכלי מחזיר תשובות שהם כבר יודעים, או תשובות שאינן מדויקות מספיק. מחקרי RAND מזהירים מפני תלות בכלי לקבלת החלטות סופיות. ראו One Team, One Fight (2025) . הם גם מראים היכן הכלי מוסיף ערך: כאשר הצוות זקוק לחלופות כדי להימנע מהטיה. ראו AI and Bias ב-IPB (2024) .

שיעור שלישי: הכשרה וכללים פשוטים חשובים יותר מהתרגשות. ערכת הכלים של CDAO היא פרקטית. יש בה שאלות שכל ראש פרויקט או חבר צוות יכולים לענות עליהן. רשימות הבדיקה הופכות כוונות טובות לפעולה. ראה Generative AI גרסה 1.0: ערכת כלים לבינה מלאכותית אחראית (דצמבר 2024) . מסגרת NIST מתווה את הלולאה הבסיסית: לשלוט, למפות, למדוד, לנהל. ראה AI RMF 1.0 (ינואר 2023) . המסר פשוט: תן למשתמשים מודולים קצרים כיצד לשאול הנחיות טובות, כיצד לזהות שגיאות נפוצות וכיצד לתעד את מה שהם עשו. לאחר מכן דרוש מהם להשתמש בקבוצה קטנה של טפסים בזמנים מרכזיים.

שיעור רביעי: קבוצות קטנות זקוקות לנקודות כפייה או שהן יתעלמו מהכלי. בחדרי צוות אמיתיים, אנשים נוטים להרגלים ידועים. קולות בכירים מעצבים לעתים קרובות את התוכנית. אם השימוש בכלי הוא אופציונלי, הקבוצה תדלג עליו תחת לחץ זמן. הפתרון הוא להוסיף נקודות ביקורת נדרשות לתהליך. לדוגמה, לאחר הטיוטה הראשונה של ניתוח המשימה, המנחה עוצר את הפגישה ודורש שהפלט של הבינה המלאכותית יוצג לצד הטיוטה האנושית. לאחר מכן, על הקבוצה לרשום קבלה, שינוי או דחייה, ומדוע. ניתן להשתמש בנקודת ביקורת שנייה לפני סיום סיכונים והסתעפויות. ניתן להשתמש בנקודת ביקורת שלישית לפני שליחת פקודות קדימה. שלבים אלה תואמים את “ממשל” ו”ניהול” ב- NIST AI RMF 1.0 ואת הטפסים המעשיים בערכת הכלים **CDAO** . הם גם מפחיתים את בעיות האמון הנראות בצוותי אדם-מכונה, כפי שמוצג ב- One Team, One Fight (2025) .

שיעור חמישי: הקצאת תפקידים ברורים כדי שהעבודה תיבדק לפני שהיא נכנסת למוצרים רשמיים. צוותים יכולים להוסיף ארבעה תפקידים. אנליסט בינה מלאכותית כותב ומפעיל הנחיות. ספרן הנחיות מאחסן ומעדכן הנחיות סטנדרטיות עבור המשימות הנפוצות ביותר, עם תאריכים ומספרי גרסאות. מבקר פלט בודק כל תוצאת בינה מלאכותית ודוחה אותה או מסמן את החלקים שניתן להשתמש בהם, עם סיבה קצרה. נאמן טלמטריה שומר את היומנים: הנחיות, פלטים, עריכות, קבלה או דחייה והזמן שהושקע. אלו שמות פשוטים ותפקידים פשוטים. הם משקפים הנחיות ציבוריות שאומרות שתפקידים ושבילי ביקורת מפחיתים שגיאות ומשפרים את האמון. ראו NIST AI 600-1 , AI RMF 1.0 , ו- CDAO toolkit .

שיעור שישי: שמרו את הרשומות כדי שסוקרים עצמאיים יוכלו לבדוק מה קרה. בכל פעם שהכלי נמצא בשימוש, על הצוות לשמור את ההנחיה, את הפלט, את גרסת המודל, את העריכות ואת הבחירה הסופית. זה מאפשר ביקורות, הפקת לקחים ובדיקות. כתיבה פומבית על בדיקות והערכה בהגנה מראה מדוע זה חשוב: זה מחבר את השימוש לאחריותיות ולחוק הסכסוך המזוין. ראו “התפקיד המעשי של ‘בדיקה והערכה’ בבינה מלאכותית צבאית”, Lawfare, 7 באוקטובר 2025 .

הכלל הפשוט שקושר את הלקחים הללו הוא זה: השתמשו בבינה מלאכותית כדי להציע הצעות , לדרוש מאנשים לאתגר אותן ולשמור עקבות של מה שנעשה.

החלק הבא נותן דוגמאות קונקרטיות, לא טכניות, התואמות דיווח ציבורי ומקורות פתוחים.

דוגמה 1: אפשרויות בשלב מוקדם בחדר תכנון. צוות מכין אפשרויות להגנה אווירית ולוגיסטיקה. המנחה מבקש מאנליסט הבינה המלאכותית להריץ הנחיה סטנדרטית כדי לרשום שלוש דרכים שונות לשלב את המבצע וחמש שאלות מפתח לכל נתיב. מבקר הפלט מסיר לאחר מכן פריטים שאינם תואמים את הנחיות הזירה מ- JP 5-0 , אשר קובע כיצד מתכננים פעולות משותפות. ראה JP 5-0 . הצוות שומר את ההנחיה, את הפלט ואת העריכות. זה תואם את קריאת NIST לרישום וניהול סיכונים. ראה AI RMF 1.0 .

דוגמה 2: בדיקות הטיה מובנות בהכנת מודיעין. אנליסטים מתבססים לעתים קרובות על נקודת המבט הראשונה שלהם. דו”ח RAND על הטיה בתהליך הכנת המודיעין של צבא ארה”ב ממליץ שכלי ייצור נקודות מבט חלופיות המאתגרות את נקודת המבט הראשונה. ראו Exploring AI Use to Mitigate Potential Human Bias Within US Army IPB (6 באוגוסט 2024) ו- PDF . גרסה מעשית היא זו: אנליסט הבינה המלאכותית מפעיל הנחיה ששואלת חמש סיבות מדוע ההערכה הראשונה עשויה להיות שגויה, מקובצות לפי לוגיסטיקה, תזמון, שטח, הטעיה או השפעות מידע. מבקר הפלט מסמן אילו נקודות הן סבירות ושולח אותן לצוות לבדיקה עם נתונים אחרים. הרשומה נכנסת ליומנים. זהו שלב פשוט שהופך את התהליך לשלם יותר.

דוגמה 3: סכסוך בעולם האמיתי מראה מדוע מהירות ועקבות חשובים. מקורות פתוחים מראים שכלי טיס לא מאוישים ואמצעים נגד רחפנים הם מרכזיים במלחמה באוקראינה . נאט”ו מפרסם חומרים באופן קבוע על תמיכה באוקראינה ומאמצי הגנה אווירית וטילים. ראו את הסיכום הציבורי “תמיכת נאט”ו באוקראינה” ואת הדו”ח השנתי של מזכ”ל נאט”ו לשנת 2024 (26 באפריל 2025) . לגבי מגמות טכניות וטקטיקות, קהילת השיעורים של נאט”ו שיתפה מאמרים פתוחים המתארים שימוש נרחב ברחפני סיור ותקיפה על ידי שני הצדדים. דוגמה אחת היא “התפתחויות טקטיות בשנה השלישית של מלחמת רוסיה-אוקראינית” (2025) . בסביבה מסוג זה, צוותי תכנון נהנים מכלי שיכול לפרט במהירות נתיבים וסיכונים חלופיים. אך עליהם גם לשמור הוכחות מדוע אופציה התקבלה או נדחתה. הוכחות אלו תומכות בסקירות מאוחרות יותר ועוזרות למנהיגים להבין פשרות. המאמר ב-Lawfare מסביר מדוע בדיקה והערכה מקשרות טכנולוגיה לשימוש חוקי ואחראי. ראו Lawfare, 7 באוקטובר 2025 .

דוגמה 4: כיצד נראה אימוץ מחוץ לצבא. ממשלות וחברות מאמצות בינה מלאכותית , אך הקצב אינו אחיד. ארגון לשיתוף פעולה ופיתוח כלכלי פרסם נתונים חדשים על שימוש על ידי חברות והמגזר הציבורי. ראו “אימוץ בינה מלאכותית בחברות” (2 במאי 2025) ואת דו”ח ה-PDF . מחקר נוסף של ה-OECD מראה פערים באימוץ ומציין כי 8.3% מהחברות בארצות הברית דיווחו על שימוש בבינה מלאכותית לייצור סחורות או שירותים באפריל 2025. ראו “פערים מתעוררים במעבר לבינה מלאכותית” (23 ביוני 2025) . גם השימוש במגזר הציבורי במדינות שונות עוקב. ראו “ממשל באמצעות בינה מלאכותית” (18 בספטמבר 2025) . ממצאים אזרחיים אלה תומכים בטענה שאימוץ דורש הכשרה, תפקידים ברורים ותשומת לב ניהולית, לא רק גישה לכלי.

בהתחשב בדוגמאות, החלקים האחרונים של סיכום זה מפרטים את הצעדים המעשיים שכל צוות תכנון יכול לנקוט, כתובים במונחים פשוטים וממופים להנחיות הציבוריות.

שלב מעשי 1: צור רשימה קצרה של הנחיות סטנדרטיות, ותן לכל אחת מהן מספר גרסה. שמור הנחיות עבור משימות נפוצות: מסגור הבעיה, רישום הנחות, הנחות מבחן מאמץ, שרטוט ענפים ותיאור סיכונים. ספרן ההנחיות מפרסם את הרשימה עם תאריך. כאשר הנחיה משתנה, עדכן את מספר הגרסה. זה תואם את קריאת NIST לשקיפות ובקרת גרסאות. ראה NIST AI 600-1 .

שלב מעשי 2: הוספת נקודות בדיקה נדרשות לציר הזמן. לאחר טיוטת ניתוח המשימה הראשונה, על הצוות להריץ את הנחיות המסגור וההנחות, להשוות תוצאות ולרשום קבלה, שינוי או דחייה. לפני סיום דרכי הפעולה, על הצוות להריץ את הנחיית מבחן הלחץ ולרשום מה השתנה. לפני שמרשם הסיכונים יהיה סופי, על הצוות להריץ את הנחיית הסיכון. ללא רישומים אלה, התוכנית לא תוכל להתקדם. זה תואם את שלבי ה”ניהול” וה”ניהול” ב- AI RMF 1.0 ואת הטפסים בערכת הכלים **CDAO** .

שלב מעשי 3: השאירו את הביקורת האנושית באחריות, בכל פעם. מבקר הפלט חייב לאשר כל טקסט של בינה מלאכותית לפני שהוא נכנס למוצר רשמי. זה תואם את ההנחיות לשיתוף פעולה בין אדם למכונה ב”צוות אחד, קרב אחד” (2025) . זה גם תואם את כלל CDAO לפיו כלים צריכים להיות מתאימים, ברי ביצוע ומומלצים למשימה. ראו גרסה 1.0 של בינה מלאכותית גנרטיבית (דצמבר 2024) .

שלב מעשי 4: למד את היסודות לכל המשתמשים בבלוקים קצרים. ההדרכה צריכה לכסות הנחיות בטוחות, סימני כשל נפוצים (כמו תשובות בטוחות אך שגויות), כיצד לתעד עבודה, ומתי להפסיק להשתמש בכלי ולחזור לשרטוט אנושי בלבד. חומרי CDAO כוללים רשימות תיוג מעשיות. ראה אינדקס הבלוג של CDAO (13 באוגוסט 2025) ואת ערכת הכלים ב-PDF .

שלב מעשי 5: מדוד מה שחשוב. על אחראי הטלמטריה לדווח על ארבעה דברים לאחר כל מחזור תכנון: כמה הנחיות נעשה שימוש, כמה עריכה אנושית נדרשה, באיזו תדירות התקבלו או נדחו פלטים, וכמה זמן לקח לקבל טיוטה שמישה. השתמש במספרים אלה כדי לעדכן הנחיות והדרכה. זה עולה בקנה אחד עם “מדידה” ב- AI RMF 1.0 .

שלב מעשי 6: הכנה לסקירה. שמרו את ההנחיה, הפלט, העריכות והסיבה לבחירה הסופית. אם תרגיל או פעולה ייבדקו בהמשך, רשומות אלו עוזרות להסביר את נתיב ההחלטה. המאמר ב-Lawfare מסביר כיצד בדיקה והערכה מקשרות רשומות אלו לשימוש אחראי. ראו 7 באוקטובר 2025 .

החלק האחרון מסביר מדוע זה חשוב לציבור, לנבחרי ציבור ולאנשים שקוראים ומשתפים חדשות.

למה זה חשוב לציבור. תכנון טוב מפחית טעויות בפעולות. אם משתמשים בבינה מלאכותית ללא תיעוד, הציבור לא יכול לדעת אם היא עזרה או הזיקה. אם משתמשים בה עם תפקידים ברורים, נקודות ביקורת ויומני רישום, מנהיגים יכולים להראות שאנשים שמרו על שליטה. זה משפר את האמון.

מדוע זה חשוב לנבחרי ציבור. תקציבים וחוקים חייבים להתאים לאופן שבו נעשה שימוש בפועל בבינה מלאכותית . פקידים יכולים לבקש דברים פשוטים: להציג את ההנחיות הסטנדרטיות עם מספרי גרסאות; להציג את טפסי נקודת הביקורת; להציג את היומנים משלושת מחזורי התכנון האחרונים ; ולהראות כיצד ההדרכה שינתה את איכות ההנחיות לאורך זמן. אלו הן שאלות פשוטות שתואמות את ההנחיות הציבוריות בחומרי NIST AI RMF 1.0 , NIST AI 600-1 וחומרי CDAO .

למה זה חשוב לקוראים ברשתות החברתיות. פוסטים רבים מפרסמים בינה מלאכותית או חוששים ממנה. האמת היא יותר פרקטית. הכלי יכול לעזור לצוות לרשום אפשרויות במהירות. הוא אינו יכול להחליף שיקול דעת מומחה. יש להשתמש בו בזמן הנכון, לבחון אותו על ידי אנשים ולתעד אותו. מקורות ציבוריים מראים צעדים קבועים לקראת שימוש בטוח יותר: דוקטרינה משותפת לתכנון, כללי סיכון של NIST לרישום וסקירה, רשימות תיוג של CDAO ומחקר כיצד להימנע מאמון יתר וחוסר אמון. ראו JP 5-0 , MCDP 5 , NIST AI RMF 1.0 , NIST AI 600-1 , ערכת כלים של CDAO , RAND One Team, One Fight (2025) , ודוח ההטיה של RAND IPB (2024) .

שתי עובדות מסכמות מראות את ההקשר הרחב יותר. דוחות פומביים של ה-OECD מאשרים כי אימוץ מחוץ לתחום ההגנה הוא אמיתי אך לא אחיד בין מגזרים ומדינות. ראו “אימוץ בינה מלאכותית בחברות” (2 במאי 2025) ו”פערים מתעוררים במעבר לבינה מלאכותית” (23 ביוני 2025) . דיווחים נוכחיים על סכסוכים מראים שימוש מתמשך ברחפנים ובפעולות נגד רחפנים, מה שמגביר את הצורך בתכנון מהיר אך ניתן לסקירה. ראו תמיכת נאט”ו באוקראינה ודו”ח שנתי של מזכ”ל נאט”ו לשנת 2024 (26 באפריל 2025) , ומאמר השיעורים הפתוחים “התפתחויות טקטיות בשנה השלישית של מלחמת רוסיה-אוקראינה” (2025) .

במילים פשוטות, הרשומה הציבורית תומכת בגישה פשוטה ומאוזנת. בינה מלאכותית יכולה לעזור לצוותי תכנון לחשוב בצורה רחבה בהתחלה, אבל אנשים חייבים להישאר אחראים בסוף. תהליך טוב מאפשר זאת: השתמשו בכלי בזמנים קבועים, תנו לאנשים תפקידים ספציפיים, אספו נימוקים קצרים בכתב לקבלה או דחייה, ושמרו את הרשומות. מדריכים רשמיים של NIST , CDAO ודוקטרינה משותפת מראים כיצד לעשות זאת. מחקר עצמאי של RAND מאשר מה עובד בתוך צוותים. מקרים מהעולם האמיתי מראים מדוע מהירות ומעקב שניהם חשובים. כאשר חלקים אלה קיימים, התכנון מהיר יותר, ברור יותר וניתן יותר לסקירה. כאשר הם חסרים, התכנון יכול להיות איטי יותר, מוטה יותר או קשה יותר לביקורת. הציבור יכול לשפוט את ההתקדמות על ידי בקשת היסודות: הנחיות סטנדרטיות עם מספרי גרסה, טפסי ביקורת שהושלמו, יומני רישום ממחזורים אחרונים ותוכניות הדרכה קצרות הקשורות להנחיות אלה. אלה פריטים פשוטים שכל תוכנית אחראית צריכה להיות מוכנה לשתף, במסגרת מגבלות האבטחה, עוד היום.


קווי בסיס דוקטרינליים ועוגני משילות עבור בינה מלאכותית גנרטיבית בתכנון משותף

ארכיטקטורת התכנון המשותף של ארצות הברית – המעוגנת ב- JP 5-0: Joint Planning (גרסה נוכחית) ומפורשת באמצעות דוקטרינת שירות רכיבים – נותרה הפיגומים הקנוניים שעליהם פועלים צוותי תכנון מבצעיים (OPTs ). מחזור התכנון עובר ברצף דרך ניתוח משימה, פיתוח דרך פעולה (COA) , השוואת COA / משחקי מלחמה, פיתוח פקודות ומעבר לביצוע. הדוקטרינה מתייחסת לניתוח משימה כשלב “מוכוון תכנון” שבו מתכננים ממסגרים את הבעיה המבצעית, מגדירים יעדים, מפתחים השערות ראשוניות, מזהים אילוצים והנחות ומבצעים הערכות סיכון לצוות, נימוקים לשיפוטים וקריטריונים להחלטה. מוקד תכנון זה מתאים מבחינה דוקטרינתית ליצירת השערות ולמסגור מרחבי פתרונות.

בתוך משרד ההגנה , אסטרטגיית אימוץ הנתונים, האנליטיקה והבינה המלאכותית לשנת 2023 – שפורסמה ב-2 בנובמבר 2023 – קבעה מחויבות אסטרטגית לעיצוב מחדש של גורמים ארגוניים כך שנתונים, אנליטיקה ובינה מלאכותית יוכלו לספק יתרון קבלת החלטות בתחומים צבאיים ועסקיים. האסטרטגיה קובעת ” היררכיית צרכים של בינה מלאכותית ” מדורגת הכוללת נתונים איכותיים, ממשל, אנליטיקה/מדדים, אבטחת מידע ובינה מלאכותית אחראית. היא גם מנסחת חמש תוצאות בעלות יתרון קבלת החלטות: מודעות מעולה למרחב הקרב, תכנון כוח אדפטיבי, שרשראות חיסול מהירות ועמידות, קיימות עמידה ותפעול ארגוני יעיל. (אומת באמצעות הודעה לעיתונות של משרד ההגנה ודף מידע רשמי) ( משרד המלחמה האמריקאי )

אסטרטגיה זו מיושמת באמצעות המשרד הראשי לבינה דיגיטלית ואינטליגנציה מלאכותית (CDAO) , אשר בתורו פורס פיקוח באמצעות מועצת CDAO המתאמת בין רכיבי משרד ההגנה, ומקשרת לגופי הניהול של סגן המזכיר, קבוצות היגוי לחדשנות ומועצות כוח אדם. (אומת באמצעות משרד ההגנה ופרשנות יישום) ( govCDOiq.org )

כבסיס לאימוץ אמין, פרסם המכון הלאומי לתקנים וטכנולוגיה (NIST) את מסגרת ניהול הסיכונים של בינה מלאכותית 1.0 , המגדירה פונקציות ליבה (ממשל, מיפוי, מדידה, ניהול) ומספקת “פרופילים” המאפשרים התאמה אישית ספציפית לתחום. (אומת באמצעות NIST) ( nvlpubs.nist.gov ). ביולי 2024, NIST פרסם את NIST AI 600-1 , מסמך נלווה של פרופיל בינה מלאכותית גנרטיבית המרחיב את שיקולי הסיכונים החלים על מודלים של שפה גדולה ומערכות גנרטיביות. (אומת באמצעות NIST) ( nvlpubs.nist.gov ).

מסגרות אסטרטגיות וסיכונים אלו מספקות מעקות בטיחות דוקטרינליים: כל אימוץ של בינה מלאכותית גנרית במסגרת תכנון משותף חייב להתאים לציפיות הממשל, הנתונים והבטחת המידע של משרד ההגנה – וחייב לשרוד בדיקה תחת ממדי האמינות של NIST (תוקף, חוסן, פרשנות, פרטיות, הוגנות, אחריות). לפיכך, תא התכנון אינו חופשי “להוסיף” מודל גנרי; עליו לרשת אילוצים מארכיטקטורת הממשל הרב-שכבתית הזו.

מבחינה תפעולית, הדוקטרינה עדיין לא קובעת כיצד לשלב בינה מלאכותית בשלבי תכנון משותפים; בינה מלאכותית גנרטיבית אינה שחקן דוקטרינלי. פער זה פותח אחריות מוסדית: ארגוני תכנון חייבים לפרש כיצד ליישם מערכות גנרטיביות תחת הארכיטקטורה הקיימת, תוך גישור על דרישות הביטחון, הביקורת, רישום המעקב ושרשרת המשמורת עבור ממצאי בינה מלאכותית. לפיכך, תא התכנון הופך לצומת בטופולוגיית ממשל ותאימות רחבה יותר.

כדי להבטיח תאימות, כל תא תכנון בסיוע בינה מלאכותית חייב לשלב לפחות ארבע שכבות מבניות.

  • ראשית, יש לתחזק יומני הנחיות, ניהול גרסאות ומעקב אחר רציונלים בסביבה שיתופית מבוקרת, בהתאם למדיניות האבטחה, הביקורת וסיווג הנתונים של משרד ההגנה. יש לעקוב אחר כל נתיב הנחיה → תגובה → עדכון משתמש כדי לעמוד באחריותיות.
  • שנית, זרימות העבודה של התא חייבות להיות תואמות למודל “אימוץ-קנייה-יצירה” של משרד ההגנה, בו משתמשת אסטרטגיית 2023 כדי לקבוע האם לעשות שימוש חוזר ביכולות קיימות משותפות המודעות לבינה מלאכותית, לרכוש שירותי בינה מלאכותית מסחריים, או לפתח חדשות באופן פנימי – בכפוף לזכויות נתונים, משותפות ומגבלות ממשל. ( קרואל ומורינג – דף הבית )
  • שלישית, התאים חייבים לשלב נקודות ביקורת לניהול סיכונים הממופות לארבע הפונקציות של NIST. לדוגמה, לפני קבלת כל COA חלופי שנוצר על ידי בינה מלאכותית, התא חייב לבצע מיפוי (זיהוי סיכונים, הנחות מודל), מדידה (הערכת גבולות הביטחון או מדדי אימות של פלט המודל), וניהול (יישום אמצעי הפחתה, סקירה עוינת, חזרה לשיקול דעת אנושי).
  • רביעית, ההנהגה הבכירה חייבת לשלב פונקציית ממשל בממשל התכנון – כלומר, תפקידי פיקוח או מועצות חייבות להיות בעלות נראות לגבי מתי, מדוע וכיצד נעשה שימוש בבינה מלאכותית גנרית בגזירת התוכנית, מה שיאפשר סקירה לאחר מעשה או שיתוף פעולה במידת הצורך.

בהינתן סביבה זו, אימוץ תא התכנון חייב לכבד גם את המנדטים של משרד ההגנה בנוגע ליכולת פעולה הדדית ותשתיות מאוחדות. אסטרטגיית 2023 מדגישה ארכיטקטורות נתונים מאוחדות, שירותי נתונים משותפים ויכולת פעולה הדדית אנליטית משותפת – שנועדו להפחית סילואים. ( משרד המלחמה האמריקאי ) ארטיפקטים של תכנון, פלטי מודלים של בינה מלאכותית, ידע ביניים ויומני רציונל חייבים להיות מאוחסנים, משותפים ומוגדרים בגרסאות בתשתית מאוחדת אך מאובטחת – נגישה בו זמנית על פני דרגי מטה משותפים, אך בהתאם לאילוצי הסיווג והמידור.

יתר על כן, עיצובים של תאי תכנון חייבים לכבד את ציפיות משרד ההגנה ללמידה מתמשכת ולולאות משוב. אסטרטגיית 2023 מדגישה פיתוח זריז ופריסה איטרטיבית, שבמסגרתה יכולות בינה מלאכותית מבשילות באמצעות מחזורי פריסה, משוב ועידון. ( משרד המלחמה האמריקאי ). משמעות הדבר היא שכל תא תכנון המבוסס על בינה מלאכותית לא חייב להתייחס למודל כסטטי; במקום זאת, תאים צריכים לתזמן ביקורות רטרוספקטיביות של יעילות ההנחיות, מצבי שגיאה ושינוי תבניות ההנחיות לאורך מחזורי תכנון.

בהיעדר תיעוד ציבורי ומאומת המצטט את שיעורי ההצלחה הפנימיים או אחוזי השימוש מניסויים של מכללת הפיקוד והמטה של ​​חיל הנחתים או מטיסות ספציפיות של תאי תכנון, אין עוגן מספרי מאומת לגבי מספר תאי התכנון המשתמשים כיום בבינה מלאכותית גנרטיבית או דלתא הביצועים שלהם. אין מקור ציבורי מאומת זמין .

מבחינה דוקטרינתית, אימוץ בינה מלאכותית גנרית בתכנון חייב להתמודד גם עם עקרונות האתיקה והאחריות שכבר אושרו על ידי משרד ההגנה , למשל העקרונות האתיים של משרד ההגנה לבינה מלאכותית (אחראי, שוויוני, ניתן למעקב, אמין, ניתן לממשל), שפורסמו במקור בשנת 2020, ונותרו מעקות בטיחות רלוונטיים. (אומת באמצעות הודעה לאתיקה של משרד ההגנה בנושא בינה מלאכותית) ( WIRED ). עקרונות אלה מטילים אילוצים: תפוקות גנריות חייבות להיות ניתנות למעקב ולביקורת, הטיות חייבות להיות ממוזערות, פיקוח אנושי חייב להיות מסודר, ואמינות חייבת להיות מובטחת – כל אלה מצביעים על כך שתא התכנון חייב להתייחס לתפוקות בינה מלאכותית כאל פריטים מייעצים, לא כמרשמים סמכותיים.

מעבר לדוקטרינה ולממשל, מחקר אקדמי ומדיניות מחזקים את הרעיון כי אדפטיביליות ארגונית חייבת להקדים שיפורי ביצועים. תיק העבודות של RAND בתחום הבינה המלאכותית והצבאית מדגיש כי מוסדות חייבים להתאים את המבנה, המדדים ותרבות כוח העבודה לפני שמצפים לתוצאות מהותיות הנגזרות מבינה מלאכותית. (אומת באמצעות עבודות RAND) ( C4ISRNet ). בתחום התכנון באופן ספציפי, פרויקט “שיפור יצירת המשמעות בעזרת בינה מלאכותית” של RAND בוחן כיצד בינה מלאכותית יכולה לסייע במסגור בפעולות שנויות במחלוקת, רב-תחומיות. (אומת באמצעות דו”ח RAND) ( משרד המלחמה האמריקאי ). מחקר כזה מדגיש כי תא התכנון חייב לפתח את הנורמות האפיסטמיות שלו, לולאות המשוב וסבילות השגיאות שלו כדי למצות ביצועים במלואם.

נקודות כניסה בניתוח ותכנון משימה: מיפוי חשיבה מגוונת כדי לדגמן יכולות

במהלך ניתוח המשימה, מתכננים מבקשים להגדיר בעיות באופן רחב, ליצור השערות מרובות, לאתגר הנחות ולמפות את הסביבה המבצעית – פונקציות שמתיישרות עם חשיבה מפוצלת יותר מאשר שיקול דעת מתכנס. דוקטרינה משותפת, לפי JP 5-0: Joint Planning (דצמבר 2020) פרק 4, ממסגרת את התכנון המבצעי כפעילות במעלה הזרם המעצבת את מסגור הבעיות, קווי הפעולה והגישות הקונספטואליות לפני תחילת התכנון המפורט. ( Programma Risorse di Intelligence ). בפרט, JP 5-0 מכיר בכך שתכנון ותכנון תפעולי משלימים זה את זה: התכנון מתחיל לפני תכנון פרוצדורלי ועובר איטרציות במהלך התכנון כדי להנחות את הכוונה ואת זרימת הלוגיקה. ( NDU Press ). מודל גנרטיבי, המבוסס כראוי, יכול לסייע לצוות תכנון בשלבים שבהם יצירת השערות, מסגור סביבתי וביטוי מהלך מחשבה שולטים על סינון קפדני של מרחב הסחר.

ההתאמה הקוגניטיבית בין משימות ניתוח משימה לבין נקודות החוזק של מודל גנרטיבי נתמכת על ידי מחקר תחום בהמצאת היגיון. מחקר RAND בשם “שיפור המצאת היגיון בעזרת בינה מלאכותית” (2025 ) טוען כי אנליסטים המתמודדים עם הקשרים מורכבים ומעורפלים דורשים מסגור רוחבי, הרחבת השערות ואיטרציה של נרטיבים חלופיים – תחומים שבהם מערכות בינה מלאכותית יכולות להציע מסגורים מושגיים חלופיים, לחשוף הנחות נסתרות ולבחון שינויים פרמטריים של “מה אם” . ( RAND Corporation ). במחקר זה, החוקרים ממפים אתגרי קבלת היגיון על פני תזמור איסוף נתונים, מיזוג נתונים, ניהול מודלים ומיומנות/הכשרה. הם מסיקים כי מערכות מלאכותיות מתאימות היטב ליצירת השערות, שחזור תרחישים והסקה אנלוגית – משימות המשקפות חשיבה מפוצלת בניתוח משימה. ( RAND Corporation ). בהתאם לכך, מודל גנרטיבי ממוצב היטב צריך לתרום לפחות שלוש יכולות פונקציונליות בניתוח משימה: הרחבת השערות , בדיקות לחץ של הנחות ותמיכה אנלוגית הקשרית .

הרחבת השערות ויצירת מושגים. כאשר צוותי תכנון מתמודדים עם בעיות לא מובנות, מודלים יכולים להציע גישות תפעוליות מועמדות, במסגרת אילוצי תחום, שבני אדם עשויים שלא לשקול באופן ספונטני. המודל עשוי להעלות וריאנטים קוהרנטיים מבחינה מושגית – למשל מרכזי כובד חלופיים, קווי מאמץ, יעדי ביניים או תבניות שלבי קמפיין – על ידי כריית קורפוסים דוקטרינליים, אנלוגים של מקרים היסטוריים או לוגיקה הנגזרת מסימולציה. מכיוון שמודלים גנרטיביים מצטיינים בהשלמת תבניות ומיפוי אסוציאטיבי מעבר להקשר המקומי המיידי, הם יכולים לדחוף את גבולות מרחב האפשרויות היצירתיות מעבר להיוריסטיקה או מודלים מנטליים של צוות.

כדי ליישם זאת באופן אופרטיבי, תבניות הנחיות חייבות למסגר משתני משימה (מטרות, אמצעים, אילוצים, סיכון) ולבקש סקיצות של וריאציות מדורגות. ההנחיות צריכות לכלול הוראות מפורשות כמו “ליצור שלוש גישות קונספטואליות חלופיות בהינתן שינויים בציר הסיכון X או תגובת היריב Y”. הסקיצות שנוצרו על ידי בינה מלאכותית הופכות לאחר מכן לנקודות נגד עבור הצוות לניתוח, ביקורת והתאמה.

מבחני מאמץ בהנחות. כישלון תכוף בתכנון הוא הנחות שלא נבדקו. ניתן להטיל על מערכות גנרטיביות את המשימה ” לאתגר ” הנחות יסוד על ידי שאילתות תנאי גבול, מרחבי תגובה של היריב, שינויים סביבתיים או לחצים הסלמה. לדוגמה, הנחיה עשויה לשאול: “רשמו חמישה אתגרים סבירים להנחתי שניידות לוגיסטית של היריב נפגעת עקב עונתיות Z.” תפקיד המודל הוא לייצר השערות נגד מובנות ונרטיבים של מקרי קצה, שאותם הצוות יכול לאחר מכן לאמת באמצעות מודיעין, משחקי מלחמה או סקירה של צוות אדום.

תמיכה הקשרית אנלוגית והיסטורית. מודלים גנרטיביים יכולים לשרטט אנלוגיות על פני קמפיינים היסטוריים, דוקטרינות של בעלות הברית ומחקרי מקרה אזוריים, כאשר הם מתבקשים עם מאפייני הקשר (שטח, מניעי שחקנים, אילוצים פוליטיים). לדוגמה, בהינתן סט יעדים מוצע ועמדת יריב, המודל יכול להציע תקדימים היסטוריים או דוקטרינליים אנלוגיים (למשל, פעולות בשטח ארכיפלגי, אזורי חוף שנויים במחלוקת, סביבות עירוניות סדוקות). אמנם אינן סמכותיות, אנלוגיות אלו מעוררות חשיבה מנוגדת ומעשירות את המודל המנטלי של הצוות. המפתח הוא להשתמש באילוצים מתונים (למשל, “הדומה ביותר ב-20 השנים האחרונות הכולל מתחרים עמיתים”) ולדרוש אזהרות מפורשות (“הבדלים בהשוואה למקרה ההיסטורי”).

מיפוי יכולות המודל הללו לתת-משימות ניתוח משימה נפרדות מניב נקודות כניסה קונקרטיות:

  • גיבוש שאלות מבצעיות מרכזיות. בתחילת ניתוח המשימה, צוות התכנון מגדיר שאלות תכנון מהותיות (למשל, “כיצד תפעל מסת יריב א’ כנגד ציר ב’?”, “אילו השפעות מסדר שני ושלישי יתעוררו בתרחיש ג’?”) . מודל גנרטיבי יכול להציע קבוצה מעודנת של 8-12 שאלות קריטיות על פני ממדים פוליטיים, אינפורמטיביים, צבאיים, כלכליים וביטחוניים. לאחר מכן, תא התכנון יכול לגזום, לסדר מחדש ולאמץ מרשימה זו.
  • הרחבת גורמי סביבה. כאשר הצוות בונה מטריצת קווי מאמץ או מרכז כובד, המודל יכול להציע גורמים סביבתיים נוספים, קשרים ומדדים הנלקחים מאנציקלופדיות דוקטרינליות, מערכי נתונים בין-סוכנותיים או מחקרי מקרה. לדוגמה, בהקשר חופי של הודו-פסיפיק, המודל עשוי לחשוף אתגרי מודעות בתחום הימי, נקודות חסימה בתשתיות או סיכוני מיקום מידע שהצוות החמיץ.
  • יצירת חבילת השערות. לאחר גיבוש הבעיה, הצוות לעיתים קרובות מנסח השערות פתרון ראשוניות – למשל, “ראשית שחיקה”, “ראשית תמרון”, “חסכון בכוח עם עיצוב”. ניתן לבקש מהמודל לייצר חבילות השערות שונות (למשל, תאוצה של מיזוג, עיצוב, עוטף) הכוללות זרימות לוגיות נלוות והנחות עיקריות. לאחר מכן, הצוות משווה, מבטל או ממזג.
  • ביקורת הנחות ונרטיבים חלופיים. לאחר גיבוש השערות מפתח, יש לתאם חילופי דברים במהירות: המודל מקבל את המשימה לייצר נרטיבים נגדיים או מקרים של הפרת הנחות. נרטיבים אלה הופכים לחומר הגלם למטריצות סיכון או קריטריונים להחלטה.
  • סקיצות של הסתעפות, ריצוף ושלבים. המודל יכול לסייע ביצירת מבני שלב או הסתעפות מועמדים (למשל עיצוב שלב 0, כניסה לשלב 1, איחוד שלב 2, מעבר שלב 3) ומעברי לוגיקה של סקיצות. לאחר מכן, צוותים יכולים להניח אותם על צירי הזמן ומגבלות המשאבים שלהם.
  • לולאות לוגיקת קונפליקט. עבור לולאות אינטראקציה עוינות – בחירות אויב, תגובות ידידותיות, דינמיקה מסדר שני – מודל יכול להציע טריגרים הסתעפות סבירים, היוריסטיקות תגובה ולולאות חיכוך. זה עוזר לצוות להימנע משגיאות מודל ליניאריות על ידי ציפוי צימוד בין-תחומי, גרדיאנטים של כפייה או טריגרים של הסלמה.

הערה: ערכם של פלטי המודל בשלבים אלה טוב רק בהתאם לאיכות המהירות, אילוצי התחום והספקנות של הסוקר האנושי. צוות התכנון חייב להתייחס לארטיפקטים של בינה מלאכותית כהנחיות להשערה, ולא לטענות סופיות.

מקרי שטח אמפיריים של כלי תכנון קודמים המבוססים על בינה מלאכותית – למשל, מערכת JADE (עוזר משותף לפיתוח וביצוע) – ממחישים את הפוטנציאל והמגבלות של תמיכה אוטומטית במהלך התכנון המוקדם. JADE שילבה ידע בתכנון מבוסס מקרים ודיאלוג עם משתמשים כדי להאיץ את יצירת TPFDD (נתוני פריסת כוחות לפי שלבי זמן) בתכנון פעולות למשברים. ( ויקיפדיה ) למרות שהיא נוקשה יותר ממערכות גנרטיביות מודרניות, הלוגיקה המובנית של JADE מציעה בסיס לביסוס מודלים נוכחיים.

בנוסף, הספרות העוסקת בהנמקה עוינות (למשל , הספרות “לקראת סדר יום מחקרי בהנמקה עוינת” של קוט ואונבי ) מדגישה שכלי תכנון חייבים לצפות שמודלים ויריבים מתפתחים במשותף. ( arXiv ). לפיכך, הכנסת מודלים גנרטיביים בניתוח משימה חייבת לכלול לולאות משוב שבהן התפוקות מוגשות מחדש על פני מחזורי מודל-אנוש.

לוח הזמנים של ההכנסה חשוב. כדי למקסם את ההשפעה, מתכננים צריכים להפעיל סיוע יצירתי בשלושה צמתים אסטרטגיים:

  • נקודת תכנון ראשונית , זמן קצר לאחר קבלת המשימה והטמעת ההנחיות, להרחבת מערך השאלות ומיפוי בעיות.
  • צומת של צרור השערות , לאחר סיעור מוחות פנימי של הצוות אך לפני נעילת השערות, כדי למתוח את החשיבה ולמנוע קיבעון קבוצתי.
  • צומת של מבחן לחץ נרטיבי , רגע לפני סיום הנחות היסוד והיגיון ענף, כדי לעורר מודלים נגדיים ולחץ סיכון.

בין צמתים אלה, צוותים חייבים לשמור על מרווחי זמן זמניים לבדיקה אנושית, צוותים אדומים, קישור מודיעיני ובדיקות חוצות-תחומים. ללא מרווח זה, תפוקות יצירתיות מסתכנות בהיענות לביקורת.

כדי למנוע דומיננטיות קוגניטיבית של המודל, יש לייעד תפקיד של מבקר מודל בתוך הצוות – מישהו שתפקידו המפורש הוא לאתגר תפוקות יצירתיות באמצעות ידע בתחום, תקדימים היסטוריים או היוריסטיקות של צוותים אדומים. תפקיד פנימי זה מבטיח שהתפוקות נחקרו ומועברות להקשר.

ככל שהמודלים מתפתחים, כיול אדפטיבי הוא חיוני. לאורך מחזורי תכנון מרובים, תבניות הנחיות צריכות להתפתח על סמך משוב: יומני יעילות הנחיות, נרטיבים נגדיים חיוביים כוזבים, שיעורי עריכה של משתמשים והתנגדות מצד צוות אדום. ספריית הנחיות המעודכנת באופן מתמיד, התואמת דוקטרינה משותפת, תפיסות לוחמה של בעלות הברית ותבניות אזוריות, הופכת לנכס מוסדי משותף.

יחידות הבוחרות באינטגרציה גנרטיבית צריכות לתכנן שיטת קליטה: להתחיל עם הנחיות גסות (למשל סקיצות קונספטואליות) ולבדוק בהדרגה הנחיות מורכבות יותר (לוגיקת פאזות, סכמות הסתעפות) ככל שהביטחון והפיקוח גוברים.

ניטור ומדידה הם גורם משמעותי. צוות התכנון צריך לחשב יומני מעקב, שיעורי שימוש, מרחקי עריכה של משתמשים, תיקונים של צוות אדום והפרשי איכות החלטה נגזרים (במידת האפשר). עם הזמן, מחקרי מקרה השוואתיים יכולים לבחון האם ניתוחי משימה בסיוע מודל מניבים תוכניות חזקות וגמישות יותר או שביעות רצון גבוהה יותר של הצוות.

בתחומים מסווגים או שנויים במחלוקת, הכנסה יצירתית חייבת לעמוד באילוצי אבטחה: תבניות הפקודה צריכות להימנע מדליפת נתונים רגישים, יש לסנן או לטהר פלטים, ויש להכניס כללי הטבעה של סיווג לפני שהארטיפקטים עוזבים את המובלעות המאובטחות.

ככל שממשקי המודל מתפתחים, קלטים אינטראקטיביים רב-מודאליים (מפות, שכבות גיאו-מרחביות, הזנות חיישנים) עשויים להדק עוד יותר את היישור: הנחיה יכולה להתייחס למודל שטח דיגיטלי ולבקש מהמערכת להציע קווי התקדמות או גרסאות של תנוחת תצפית. למרות שזו עדיין לא נפוצה באופן כללי, יש לתכנן שילוב כזה מוקדם.

לסיכום, ניתוח משימה הוא המוקד האידיאלי עבור מודלים גנרטיביים כדי למתוח מסגרות מושגיות, לאתגר הנחות ולפתח השערות שונות. כדי להפוך את ההטמעה הזו ליעילה, צוותי תכנון חייבים לתזמן צמתים, לייעד תפקידים של מבקרים, לפתח לולאות משוב של מכשירים, ולהבשיל בהדרגה פיגומים של הנחיות המושרשות בדוקטרינה. אם היא מיושמת בצורה מושכלת, בינה מלאכותית גנרטיבית הופכת למאיץ אינטלקטואלי בשלב המוקדם והלא ודאי ביותר של התכנון – העלאת התקרה של מה שהצוות יכול לדמיין.

גבולות מומחיות, הפחתת הטיה וראיות של עבודת צוות אדם-מכונה

קביעת גבולות מומחיות דורשת הכרה במקומות בהם מערכות יצירתיות מספקות רווח נקי לעומת יתירות. בתחומים שבהם לצוות כבר יש ידע סמוי עמוק – מיקוד, ניואנסים דוקטרינליים, אומנות קריפטוגרפית – פלטי בינה מלאכותית עלולים לשכפל, להתנגש או לפגוע בשיפוטים אנושיים. סקירות אקדמיות של תמיכה בקבלת החלטות בינה מלאכותית בתחומים צבאיים מציינות כי הרחבה יעילה ביותר כאשר ממלאים פערים בידע או חוליות חלשות בקוגניציה של הצוות, ולא דוחקים את המומחיות בתחום. לדוגמה, סקירת הבינה המלאכותית במערכות תמיכה בקבלת החלטות צבאיות (2024) מתארת ​​כי מתחים בין אדם למכונה צצים בצורה החזקה ביותר כאשר בני אדם חשים שהמערכת פוגעת בסמכות התחום המרכזי. ( ResearchGate )

מחקר על הפחתת הטיה קוגניטיבית בתהליכי עבודה של מודיעין צבאי מספק תמיכה מפורשת למערכות בינה מלאכותית המוצגות כמתקנים ולא כמפיצים. דו”ח RAND ” חקירת השימוש בבינה מלאכותית כדי להפחית הטיה אנושית פוטנציאלית בתוך הכנת המודיעין של צבא ארה”ב לשדה הקרב” (IPB) (2024) טוען כי בינה מלאכותית גנרטיבית יכולה לשמש כמעקה בטיחות מפני הטיה לאישור של אנליסטים, הטיה לזמינות או עיגון על ידי הצעת הערכות איום חלופיות, אפשרויות שונות או דפוסי נתונים שמתעלמים מהם. ( תאגיד RAND ). הדו”ח מדגיש כי יש לשלב בינה מלאכותית עם תהליכים אנושיים – לא להחליף אותם – ועליה לכלול נתיב ביקורת כך שהצוות יבקר את התפוקות האלגוריתמיות במקום לדחות אותן בעיוורון. ( תאגיד RAND ).

הסיכום של המרכז לביטחון וטכנולוגיות מתפתחות, ” צמצום הסיכונים של בינה מלאכותית ליתרון קבלת החלטות צבאי”, מזהיר כי מערכות בינה מלאכותית בעלות חוסן חלש, פגיעות עוינת או יישום שגוי למשימות לא מתאימות עלולות להחדיר ביטחון כוזב או מסקנות שגויות לתהליכי קבלת החלטות. ( cset.georgetown.edu ) בהקשר של תכנון מבצעי, משמעות הדבר היא שצוות חייב להתייחס לתפוקות בינה מלאכותית לא כסופיות אלא כהנחיות להשערות הכפופות לבדיקה ולסיווג מחדש.

מחקר על עבודת צוות אדם-מכונה מדגיש כי השילוב של שיקול דעת אנושי ועקביות אלגוריתמית יכול להניב ביצועים טובים יותר מכל אחד מהם בנפרד, בתנאי שהאמון מכויל והשקיפות נשמרת. מאמר עבודה של arXiv, Advancing Human-Machine Teaming: Concepts (2025), מדגיש כי אמון ואמינות, הסבר וחוסן יריבים הם עמודי תווך של עבודת צוות יעילה. ( arXiv ). אותו מאמר מדגיש כי עיצוב צוות חייב לנהל במפורש כיצד הטיות אנושיות והטיות בינה מלאכותית מקיימות אינטראקציה, במקום להניח עצמאות. ( arXiv ).

מתוך הספר Human-AI Teaming: State-of-the-Art and Research Needs (2022) של האקדמיות הלאומיות , פרק 10 (זיהוי והפחתת הטיה בצוותים אנושיים-בינה מלאכותית), מזהיר כי גם מערכות אנושיות וגם מערכות בינה מלאכותית נושאות הטיות: היוריסטיקות אנושיות יכולות להשפיע על אילו פלטים נלקחים בחשבון; מערכות בינה מלאכותית עצמן עשויות לשקף הטיה של מערך הנתונים, שגיאות תיוג או ארטיפקטים של מודל. הספר מדגיש את הצורך במודעות דו-כיוונית – בני אדם חייבים להבחין בהטיה של בינה מלאכותית; מערכות בינה מלאכותית (או מסננים) חייבות לזהות נקודות עיוורות אנושיות. ( nap.nationalacademies.org )

בינה מלאכותית ניתנת להסבר (xAI) ממלאת תפקיד מרכזי בגישור על הפער האפיסטמי . העבודה The Utility of Explainable AI in Ad Hoc Human-Machine Teaming (Paleja et al., 2022) מראה באמצעות ניסוי ש-xAI משפרת את המודעות למצב עבור משתמשים מתחילים, אך עלולה להעמיס על מומחים, ולגרום לירידה בביצועים כאשר תקורה של הסבר מתחרה בשיפוט תחום. ( arXiv ). בצוותי תכנון בעלי מומחיות מעורבת, הדבר מצביע על הצורך במצבי הסבר סלקטיביים: סיכומים גסים עבור מומחי תחום, שקיפות עשירה יותר עבור מתחילים או אנליסטים.

עקרון הבקרה האנושית המשמעותית (MHC) במערכות הגנה קודם במאמר ” עיצוב בקרה אנושית משמעותית בצוותי אדם-מכונה צבאיים” (van Diggelen et al., 2023). הם מציעים שבקרה אנושית אינה מחשבה שלאחר מעשה, אלא מטרת תכנון הכוללת את ארכיטקטורת המערכת, הממשק, זרימת העבודה והאחריות. בהקשרים של תכנון, MHC פירושו שלצוות תמיד יש סמכות לדחות או להגדיר מחדש את פלט הבינה המלאכותית, וכי תכנון המערכת מחזק – ולא פוגע – בסמכות ההחלטה הסופית של האדם. ( arXiv )

מערכות היברידיות של אדם-מכונה בחלל ובתחומים חוצי-תחומים חושפות תובנות של יתרונות יחסיים. מסמך הדיון של כוח החלל האמריקאי ” צוותים היברידיים של אדם-בינה מלאכותית מייצגים את עתיד טכנולוגיית ההגנה” (מאי 2024) קובע כי בני אדם מצטיינים בשיפוט הקשרי, פשרות ערכיות וזיהוי הטעיה, בעוד שמכונות מצטיינות במיזוג נתונים במהירות גבוהה, זיהוי תבניות ועקביות. המסמך קורא לחלוקת תפקידים כך שכל סוכן יתמקד בחוזקו. ( spacecom.mil )

יישום נקודה זו על צוותי תכנון: בינה מלאכותית גנרטיבית צריכה להיות מוטלת על חשיבה נפחית, יצירה אנלוגית וקורלציה בין-תחומית, בעוד שבני אדם צריכים להתמודד עם שיפוטים נורמליים, נקודות שבירה בלוגיקה ופשרות סיכוני משימה. הגבול – מתי הצעות בינה מלאכותית זוכות לאמון או מתעלמות מהן – חייב להיות ברור ומוכרז מראש, לא אד-הוק.

הערכות של הטיה אוטומציה מחזקות את הסיכון. ניתוח CSET, AI Safety and Automation Bias, מזהה מקרים בתעופה ובהגנה שבהם מפעילים קיבלו בטעות פלט אוטומטי בניגוד לראיות בלתי תלויות. המאמר מציע מסגרת הפחתה תלת-שלבית: הדרכת משתמשים, עיצוב ממשק (למשל “ציוני ביטחון”, הסברים נגד-מציאותיים) ופיקוח ארגוני. ( cset.georgetown.edu ). בתוך תא תכנון, משמעות הדבר היא שתפוקות של בינה מלאכותית ילוו במדדי ביטחון, הנחיות לניתוח נגדי וביקורת מחייבת לפני אימוץ.

מאמר העבודה של RAND, “מהפכת בינה מלאכותית בעניינים צבאיים?” (2025), בוחן כיצד אימוץ בינה מלאכותית בלוחמה ידרוש הסתגלות מוסדית. הוא מזהיר כי הסתמכות יתר על בינה מלאכותית בלולאות קבלת החלטות ללא פיקוח אנושי עלולה לכרסם בשיקול הדעת ההסתגלותי תחת חידוש או הפתעה. ( תאגיד RAND ). תובנה זו מדגישה עוד יותר כי ארכיטקטורת צוות אדם-מכונה חייבת לשמר במכוון גמישות אנושית, יכולת עריכה ויכולת אבחון שגיאות.

מחקר מקרה בתחום למידת מכונה לקבלת החלטות תפעוליות שפורסם על ידי RAND ( Machine Learning for Operational Decisionmaking in Competition , RRA-815-1) בוחן כיצד מודלים המסייעים לקבלת החלטות בשלב התחרות חייבים לנהל את הסיכון שיריבים עלולים לנצל את יכולת החיזוי של המודל או התאמת יתר לדפוסים. ( RAND Corporation ). סיכון זה מדגיש את הצורך בפיקוח אנושי על תפוקות המודל, במיוחד במקרים בהם יריב עלול לבצע הנדסה הפוכה או לצפות דפוסי לוגיקה בסיוע בינה מלאכותית.

משילוב של מרכיבים אלה, אנו גוזרים חמש שיטות עבודה מומלצות ליישוב גבולות מומחיות, הפחתת הטיות ותפקוד צוותי בתכנון:

  • תיחום תפקידים מפורש : הקצאת תפקידי אנליסט מודל נפרדים מתפקידי מומחה תחום , לכל אחד גבולות הרשאה ברורים. אנליסט מודל בודקים הצעות פלט של בינה מלאכותית; מומחי תחום אוכפים קריטריונים של דוקטרינה, משימה וסיכון.
  • פיגומים של הנחיות באמצעות היוריסטיקות הטיה : תבניות הנחיות צריכות לכלול הנחיות “לשקול מסגרות חלופיות”, “לסמן הנחות” או “להדגיש גבולות ביטחון”. זה מעצב את התנהגות המודל כדי למנוע הדהוד של הטיה של הצוות.
  • מדדי אי-ודאות חובה ושכבות הסבר : דורשים מרווחי סמך, בולטות ברמת האסימון או חלופות נגד-מציאותיות כחלק מתפוקות הבינה המלאכותית כדי לאלץ את הצוות להתבוננות במקום לקבלה עיוורת.
  • סקירה דו-זרמית עם ביקורת רדוקטיבית ובונה : הצגת זרמים משולבים – התפוקה הטובה ביותר של בינה מלאכותית והאלטרנטיבה של המודל – אשר חייבים להיבחן על ידי הצוות באמצעות רשימת תיוג להטיה (למשל עיגון, השמטה, אישור, זמינות).
  • כיול אדפטיבי ורישום משוב : יש לעקוב אחר יומני עריכה של הנחיות, שיעורי קבלת צוות, תיקוני שגיאות והחלפות של צוות אדום כדי שהתא יוכל לכייל מחדש תבניות הנחיות, לסנן היוריסטיקות וספי החלטה לאורך זמן.

נתונים אמפיריים על שיעורי אימוץ או שכיחות שגיאות בסביבות תכנון צבאיות חיות אינם נחשפים לציבור. אין מקור ציבורי מאומת זמין לסטטיסטיקות שגיאות תכנון מוגברות על ידי בינה מלאכותית או לשיעורי קבלה של תאי תכנון.

לסיכום, גבולות המומחיות דורשים שבינה מלאכותית תתמוך, ולא תחליף, סמכות אנושית. יש לאגור את מניעת ההטיה בתכנון מהיר, עיצוב ממשק, חלוקת תפקידים ונהלי סקירה. הצלחת צוותים בין אדם למכונה תלויה באמון מכויל, הסבר, סמכות מפולחת והערכה מתמשכת – ולא רק בפריסה.

כוח אדם, צינורות הכשרה וביטחון: מהתלהבות למיומנות

המעבר מחקירה מונעת סקרנות למיומנות מתמשכת בבינה מלאכותית גנרטורה דורש ארכיטקטורה מכוונת של פיתוח כוח אדם, ריבוד תפקידים, צינורות הכשרה ומנגנוני אבטחה. בארגוני ביטחון, תהליך זה חייב להתאים למערכות רכש, כוח אדם וממשל – ועליו לעמוד באילוצים דוקטרינליים, אתיים וסיכוניים.

צעד ראשון הכרחי הוא פורמליזציה של טקסונומיות של תפקידי עבודה בתחום הבינה המלאכותית (AI) בתוך משרד ההגנה. מסלול היישום של בינה מלאכותית אחראית של משרד ההגנה (יוני 2024) קובע כי “לכל חברי כוח העבודה של משרד ההגנה המלאכותי (AI) תהיה הבנה מתאימה של הטכנולוגיה, תהליך הפיתוח שלה ושיטות התפעול החלות על יישום RAI בהתאם לתפקידיהם במסגרת האבטיפוס של התפקידים המתוארים באסטרטגיית החינוך לבינה מלאכותית של משרד ההגנה לשנת 2020. ” ( media.defense.gov ). משמעות הדבר היא שתאי תכנון חייבים למפות כל תפקיד בצוות (למשל, תפעול, מודיעין, לוגיסטיקה) לארכיטיפ תפקיד התומך בבינה מלאכותית ולהתאים את ההכשרה בהתאם.

מבחינה היסטורית, משרד ההגנה (DOD) התקשה לזהות ולקודד את כוח העבודה שלו בתחום הבינה המלאכותית. משרד האחריות הממשלתי (GAO) ציין ב- GAO-24-105645 כי למרות שמשרד ההגנה פיתח תפקידי עבודה בתחום הבינה המלאכותית, הוא לא הקצה אחריות ברורה או לוחות זמנים להגדרה ושילוב מלאים של תפקידים אלה במערכות כוח אדם. ( gao.gov ). סטייה זו מעכבת תכנון צינור הכשרה הניתן להרחבה. לכן, רפורמה ברמת השירות חייבת להתחיל בקידוד תפקידים, סיווג מועמדים ושילוב במערכות ניהול כישרונות.

ספרות אקדמית וביטחונית מציעה ריבוד רב-שכבתי של כוח אדם. המאמר ברבעון Joint Force Quarterly “כוח אדם צבאי מוכן לבינה מלאכותית” (Cruickshank et al., 2023) מתאר מודל בן חמש שכבות: משתמשים, מנהיגים ורכש, טכנאים, בעלי תפקידים ומומחים, עם משכי הדרכה ועומק אחריות שונים. לדוגמה, הכשרה ברמת המשתמש משתרעת על פני שבועות עד חודשים כדי לטפח אוריינות בינה מלאכותית, בעוד שתפקידים ברמת מומחה דורשים שנים של השכלה טכנית מעמיקה וניסיון. ( ndupress.ndu.edu ). כדי ליישם את אימוץ צוותי התכנון, מתכננים ארגוניים חייבים למפות את הצוות לשכבות אלו ולתעדף תפקידים בעלי השפעה גבוהה, ברמה הבינונית (טכנאי/בעלי תפקידים) לצורך בניית יכולות מוקדמת.

במקביל, תוכנית טכנאי בינה מלאכותית של קרנגי מלון וצבא ארה”ב מציעה מודל מאומת של שדרוג מהיר של מיומנויות. התוכנית שילבה קבוצה משולבת של אקדמאים-צבאיים כדי לפתח טכניקות צינור להכשרת טכנאי בינה מלאכותית צבאיים תוך חודשים ולא שנים. שימוש בלמידה הדרגתית, פיגומים ורענון מתמיד של תוכניות לימודים אפשרו את ייצורם של 59 טכנאי בינה מלאכותית בקבוצות המוקדמות. (אומת באמצעות טכנאי בינה מלאכותית: פיתוח שיטות הכשרה תעסוקתית מהירה , ינואר 2025) ( arxiv.org ). מודל זה מדגים שמערכות הכשרה ביטחוניות יכולות לדחוס מחזורי הכנה מבלי לדלל יתר על המידה את האיכות – אך רק כאשר הן משולבות היטב עם הקשרים של משימה ולולאות איטרציה.

יוזמת כוח העבודה הדיגיטלי של CDAO עונה במפורש על דרישות אלה. הפורטל של משרד ההגנה מתאר יעדים כגון קידוד 50 אחוז מכלל הכוח לתפקידי נתונים/בינה מלאכותית בשנת 2025 , הרחבת הגישה למסלולי למידה והתאמת מיומנויות לצורכי המשימה. ( ai.mil ) יכולת “הכשרת כוח אדם” שלו מתארת ​​חזון להערכה עצמית, תוכנית לימודים משותפת באמצעות אוניברסיטה דיגיטלית וסדרות שדרוג מיומנויות למנהלים. ( ai.mil ) עבור צוותי תכנון, זה מתורגם למינוף הכשרה ארגונית תוך התאמה אישית של קורסים ברמת הצוות לשימוש יצירתי בתכנון תפעולי.

כדי לעבור מהדרכות לביצוע ניסיון מעשי, חיוני תוכנית הקלטה הדרגתית:

  • אוריינות בסיסית : קורסים קצרים (שבועות עד חודשים) על עקרונות בינה מלאכותית, תכנון מהיר, מצבי שגיאה, אבטחה, אתיקה ואבטחה, המותאמים למתכננים ואנשי צוות. קורסים אלה משקפים את הרמות “משתמש” ו”מנהיג/רכישה” במודל JFQ.
  • מודולים מעשיים : מעבדות מעשיות ותרגילים מבוססי תרחישים המוטמעים בסביבות חינוך לתכנון (למשל, מכללות לצוות, משחקי מלחמה) כדי להבטיח שהמשתתפים יתנסו במודלים יצירתיים בתנאים מבוקרים.
  • אימון מודרך וביקורת עמיתים : הטמעת מנטורים או “אלופי בינה מלאכותית” בתוך יחידות המספקים משוב, מתחזקים ספריות מהירות ופועלים כמכפילי כוח.
  • אוטונומיה הדרגתית : לאחר שלבי האימון, הצוות רשאי לעבור לפריסה מבצעית כאשר הפיגומים יוקלו בהדרגה, תוך שמירה על הפיקוח.
  • הסמכה מחדש תקופתית ולולאות משוב : הערכה מתמשכת של יומני הנחיות, שיעורי שגיאות, תיקוני צוות אדום, רגישות לסחיפת מודל ומשוב משתתפים לצורך התאמת תוכנית הלימודים.

במסגרות חינוכיות, לדוגמה, מוסדות החינוך המקצועי הצבאי של צבא ארה”ב עורכים ניסויים בתוכנית לימודים משולבת בבינה מלאכותית. המאמר “שיפור החינוך המקצועי הצבאי בעזרת בינה מלאכותית” (Army University Press, אפריל 2025) מתאר הנחיות של TRADOC וחששות בנוגע לטרמינולוגיה, מלכודות אתיות ושיטות עבודה מומלצות להטמעת יכולת יצירתית ב-PME מבלי להפר דוקטרינה או אילוצי אבטחה. ( armyupress.army.mil ). עבור אימון תכנון מבצעי, הטמעה דומה מבטיחה שכלי בינה מלאכותית יהפכו לממצאים מנורמלים בהכשרת הצוות, ולא לניסויים אקזוטיים.

ביטחון ואמון חייבים להתפתח במקביל. כלי גנרטיבי שמטופל בצורה לא נכונה או לא מבוקר יכול לייצר תפוקות פגומות, מוטות או לא מאובטחות. כדי להימנע מכך, צינורות תכנון חייבים לכלול ביטחון מבוסס טענות, התואם למסגרות מתפתחות כמו “מסגרת להבטחת מערכות מבוססות בינה מלאכותית” (Kapusta et al., 2025). מאמר זה מציג גישה מובנית שבאמצעותה מעצבי מערכות מגדירים טענות (למשל, “פלט המודל עמיד בפני הפרעות קלט X”), ממפים טענות אלו לראיות, ומאמתים באופן רציף בתנאי לחץ. (אומת דרך arXiv) ( arxiv.org ). ארגוני תכנון חייבים לאמץ מערכי ביטחון כאלה עבור המודולים הגנרטיביים שלהם – הכוללים רתמות בדיקה, צוותים אדומים, בנקי קלט עוינים, ערפול מהיר ואימות תרחישים מוחזקים.

במסגרת מדיניות משרד ההגנה, אסטרטגיית ונתיב היישום של תחום הבינה המלאכותית האחראית של משרד ההגנה מקשרת בין יכולות כוח העבודה לבין אבטחת דרישות: ההכשרה חייבת לכלול יכולת מעקב, יכולת ביקורת, היכרות עם שיטות תפעוליות ומודעות לממשל ( media.defense.gov ). גישה זו משלבת פרקטיקות של אבטחת דרישות טכנית עם דרישות הכשרת כוח אדם. על הצוות להבין לא רק כיצד להשתמש בכלי, אלא גם כיצד לפרש יומני רישום, לזהות התנהגות חריגה, לאתר פגיעה אפשרית במודל ולשמור על תאימות לממשל.

התאמת תמריצים לקריירה היא מרכיב קריטי נוסף. דו”ח CSET, “כוח העבודה של משרד ההגנה האמריקאי, הנסתר בבינה מלאכותית”, ממליץ לקשר ביצועים, קידום, שימור והכרה למיומנות בבינה מלאכותית: לדוגמה, שכר מיוחד, נקודות זכות להערכה עבור חדשנות בבינה מלאכותית, שיתופי פעולה בתפקידי בינה מלאכותית ומדדי ביצועים הקשורים לתרומות לבינה מלאכותית. ( cset.georgetown.edu ) ללא תמריצים, הצוות יחזרו להתנהגויות מדור קודם.

יתר על כן, הרמוניזציה בין-שירותית של מדיניות כוח אדם בתחום הבינה המלאכותית חיונית כדי למנוע תנודות מיותרות. ההנחיות של CSET קוראות לשימוש מחדש בקודי פונקציה דו-ספרתיים מיושנים כדי לייעד ארכיטיפים של בינה מלאכותית בין שירותים ולסנכרן את חוויות הטייס בין רכיבים. ( cset.georgetown.edu ) עבור תאי תכנון במטות משותפים, הרמוניזציה זו מבטיחה שכוח אדם שאומן בבינה מלאכותית ימשיך להיות ניתן לתפעול הדדי וניתן להעברה בין דרגי פיקוד.

מסגרות אבטחה חייבות להשתלב גם עם מחזורי רכישה. מודולי בינה מלאכותית גנרטיבית הממונפים על ידי צוותי תכנון צריכים לעמוד בפיקוח הנדסת המערכת והרכישה של משרד ההגנה. כלים עשויים להיכנס כאלמנטים של תמיכה בתוכנה במסגרת חוזים עם התחייבויות אבטחה מוטמעות, רישום וריענון יכולות. תא התכנון לא צריך להתייחס למודל גנרטיבי כאל תוסף אד-הוק; עליו להיות משולב כמודול תוכנה הכפוף לניהול מחזור חיים, תיקון תיקונים, אבטחה, אימות ובקרת תצורה.

כדוגמה לפיילוט, צבא ארה”ב השיק ביוני 2024 פרויקט פיילוט לחקר בינה מלאכותית גנרטורה בקרב כוח העבודה שלו, תוך הפקת לקחים במקביל לסביבות הצוות. הפיילוט מתכוון לבחון שיפורי יעילות וגבולות לאימוץ בטוח. (אומת באמצעות C4ISRNet) ( c4isrnet.com ). תובנות מניסיון זה צריכות להזין את תכנון צינור התאים – במיוחד בפיתוח מהיר, מדדי פיקוח ועקומות קבלה של הצוות.

קיימת גם יישור אסטרטגיית כוח אדם כלל-ביטחוני. אסטרטגיית כוח האדם הקיברנטי של משרד ההגנה (מרץ 2023) מדגישה יעדים להערכות, התאמת כישרונות לתוכניות פיתוח וצינורות הכשרה התואמים לתפקידים. ( dodcio.defense.gov ) למרות שהיא מתמקדת בסייבר, עקרונותיה של הכשרה מבוססת יכולות והתאמת תפקידים ניתנים לתרגום ישיר לפיתוח כוח אדם בתחום הבינה המלאכותית.

כדי להימנע מאובנות של הכשרה, צינורות הכשרה חייבים לשלב הסתגלות מתמשכת . ככל שהמודלים מתפתחים, יש לרענן את מודולי ההכשרה; טקטיקות מהירות, פגיעויות עוינות ושינויים אדריכליים חייבים לעדכן את ההדרכה. תוכנית טכנאי בינה מלאכותית כבר מפתחת את תוכנית הלימודים שלה על פני קבוצות שונות. (אומת באמצעות arXiv) ( arxiv.org ). ארגוני תכנון חייבים להתייחס לספריית ההכשרה הגנרית שלהם לבינה מלאכותית כאל חפץ חי.

מדידה והערכה הן מרכזיות. מדדים צריכים לכלול תדירות שימוש מהירה, שיעורי עריכה של הצוות (מרחק עריכה), ספירת תיקונים בצוות אדום, זמן עד לתפוקה משביעת רצון, סקרי אמון משתמשים, זמני מחזור תכנון והשוואות עומק של ניתוח משימות בין צוותים של בינה מלאכותית וצוותים שאינם בינה מלאכותית. רק תוצאות אמפיריות שנמדדו יכולות לאמת את הבשלת המיומנות ולהנחות את ההתאמות.

בהקשרים שנויים במחלוקת או מסווגים, ההכשרה חייבת לכלול שילוב של מודלים של ניצול עוין, סינון אבטחה מבוסס תרחישים, טכניקות חיטוי מהיר ופרוטוקולי החתמת סיווג. על הצוות להתאמן עם סביבות הנחיות “סטריליות” וסיכון דליפה מדומה לפני גישה מלאה.

לבסוף, שותפויות של המערכת האקולוגית עם האקדמיה והתעשייה מחזקות את הקיבולת. על ההגנה לשתף פעולה עם אוניברסיטאות, מרכזי מחקר, מחנות אימונים לקידוד וחברות בינה מלאכותית כדי למנף תוכן חדשני, ספריות משותפות וזרימת כישרונות. רשת החדשנות הביטחונית הלאומית (NSIN) היא נקודת מפגש כזו, המטפחת חדשנות בהון אנושי והכשרה חוצת מגזרים. (אומת דרך ויקי) ( wikipedia.org ) יישור הכשרת תאי תכנון למרכזי חדשנות חיצוניים מחזק את חוסן צינור הפיתוח.

לסיכום, כדי להעביר תאי תכנון מהתלהבות למיומנות נדרשת ארכיטקטורת תפקידי בינה מלאכותית מקודדת, צינורות הדרכה דחוסים ועשירים בהקשר, מסגרות הבטחה משולבות בהדרכה, מסלולי קריירה מותאמים לתמריצים, מערכות מדידה, התאמה מתמשכת של תוכניות לימודים, התאמה בין תחומים ותיקוף תפעולי של מיומנות הצוות. רק אז הבינה המלאכותית הגנרטיבית תעבור מחידוש היקפי ליכולת תכנון משובצת.

דינמיקה של קבוצות קטנות ונקודות בדיקה חובה: כפיית שילוב פונקציות בעבודת הצוות

בצוותי תכנון מבצעיים, היררכיה חברתית, דומיננטיות שיחתית, אסימטריה בעומס עבודה ולחץ זמן מדכאים באופן שגרתי את השימוש הממושמע במערכות גנרטיביות, אלא אם כן נהלים מחייבים את הכללתן בצמתים מוגדרים. עמוד השדרה הדוקטרינלי לתכנון נהלים כאלה נותר JP 5-0: תכנון משותף , המתאר ניתוח משימה, פיתוח דרכי פעולה והשוואה כפעילויות עוקבות אך איטרטיביות שחייבות לעמוד באתגר מובנה לפני אישור החלטה; הפורטל הנוכחי של המטה המשותף עבור JP 5-0 מקודד ציפיות אלו והוא ההתייחסות הסמכותי לתכנון זרימת עבודה של הצוות ( ראשי מטות משולבים, JP 5-0: תכנון משותף) . בהשלמה לקו בסיס משותף זה, MCDP 5: תכנון של חיל הנחתים מדגיש תכנון מונע מפקד, חקירה ביקורתית והעלאה מכוונת של הנחות כהרגלים יסודיים בפרקטיקה של הצוות; דגשים אלו יוצרים נקודות עיגון טבעיות לאינטראקציה חובה בין אדם למכונה במהלך התכנון המוקדם ומאוחר יותר של צוותים אדומים (MCDP 5: תכנון) (4 באוקטובר 2018) .

ארכיטקטורת פונקציות כפייה חייבת לעמוד גם בדרישות הבטחה ויכולת מעקב שנלקחו מהמכון הלאומי לתקנים וטכנולוגיה . מסגרת ניהול הסיכונים של בינה מלאכותית 1.0 (26 בינואר 2023) קובעת את מחזור הניהול-מיפוי-מדידה-ניהול כמבנה אוניברסלי לתכנון מודע לסיכונים, ופרופיל הנלווה הגנרי שלה NIST AI 600-1 (26 ביולי 2024) מתרגם פונקציות אלו למודלים של שפה גדולה על ידי קביעת רישום מקור, ניטור הזזות חלוקה, בדיקות חוסן וארטיפקטים של שקיפות NIST AI RMF 1.0 ו- NIST AI 600-1 . עבור משתמשי ביטחון, המשרד הראשי לבינה דיגיטלית ובינה מלאכותית יישם מדיניות באמצעות ערכת הכלים של בינה מלאכותית גנרטיבית (11 בדצמבר 2024) , הכוללת רשימות תיוג של התאמה-היתכנות-כדאיות, שאלוני סיכונים והנחיות תעסוקה שניתן לשלב כשערי חובה בזרימות עבודה של הצוות. בלוג CDAO: ערכת הכלים של GenAI מפעילה תזכיר הנחיות ומסמכי Guardrails (11 בדצמבר 2024) ואת קובץ ה-PDF המתאים, ערכת כלים של בינה מלאכותית גנרטיבית גרסה 1.0 RAI (דצמבר 2024) .

בתוך סביבת ניהול מאומתת זו, התנהגות קבוצתית בחדרי המטה היא המכשול העיקרי לשימוש אמין בכלים, ולא גישה לממשק. הדו”ח של תאגיד RAND , “צוות אחד, קרב אחד: תובנות על עבודת צוות אדם-מכונה” (2 ביוני 2025), מתעד נקודות חיכוך בעת צימוד חיילים עם אלגוריתמים במשימות לחימה: עמימות לגבי גבולות סמכות, אמון יתר באוטומציה, חוסר אמון עקב אטימות, והיעדר מודלים מנטליים משותפים. הדו”ח ממליץ על משקלים נגדיים פרוצדורליים – חלוקת תפקידים מפורשת, הסבר מדורג והתנהגויות צוות מתורגלות – כדי למנוע דומיננטיות אנושית או אלגוריתמית. RAND RRA2764-1 (2 ביוני 2025) והדו”ח המלא בפורמט PDF . במקביל, הדו”ח של RAND , “חקירת שימוש בבינה מלאכותית כדי להפחית הטיה אנושית פוטנציאלית בתוך IPB של צבא ארה”ב” (6 באוגוסט 2024), מראה היכן הכנסה מובנית יכולה לתקן השפעות של עיגון, זמינות ואישור על ידי חיוב הצוות להתייעץ עם השערות חלופיות שנוצרו על ידי מכונה במהלך שלבי הכנת המודיעין; הערך נובע מניגודיות כפויה, לא מהחלפת האנליסטים RAND RRA2763-1 (6 באוגוסט, 2024) ו- PDF . יחד, ממצאים אלה מצדיקים תכנון צוות שבו נדרשת מעורבות אדם-מכונה בנקודות מדויקות, נבדקת לאחר כל התפתחות, ולעולם לא נותרת להתלהבות שיקול דעת.

תכנון נקודות אלו מתחיל בשלבים המותאמים לדוקטרינה. במהלך ניתוח המשימה – תכנון קונספטואלי במונחים של MCDP 5 – על הצוותים להפעיל שער ראשוני של “מסגור בינה מלאכותית” לאחר הנחיית המפקד ולפני גיבוש משפטי הבעיה. השער מאלץ את תפקיד אנליסט הבינה המלאכותית לייצר מסגורי בעיה מרובים וסטים של שאלות המותאמים למשתני המשימה ב- JP 5-0 , בעוד שמבקר הפלט מפרסם סטיות מקו הבסיס של הצוות. הארטיפקטים נרשמים מיד תחת פונקציות ” מפה ” ו-” מדידה ” של NIST AI RMF : הנחיות, פלטים, הערות רציונל ודגלי ביטחון עוברים גרסאות ומאוחסנים לביקורת מאוחרת יותר של NIST AI RMF 1.0 . שער זה מונע התכנסות מוקדמת, הפתולוגיה הקלאסית של קבוצות קטנות שבה נרטיבים מוקדמים מתקשים לוודאויות שנשמעות בדוקטרינות.

שער שני נמצא בין יצירת אפשרויות שונות להשוואה מתכנסת של דרכי פעולה. כאן, ערכת הכלים של בינה מלאכותית גנרטיבית מספקת גליונות עבודה מוכנים מראש של התאמה-היתכנות-כדאיות; הצוות נדרש להריץ גרסאות של COA בעזרת מודל דרך תבנית זו ולתעד כל הצעה אוטומטית שהתקבלה, שונה או נדחתה. מקור גליון העבודה וגרסת ההנחיה הופכים לחלק מערכת הכלים CDAO RAI של רישום התוכנית (דצמבר 2024) . שער זה משנה את הבינה המלאכותית מ”סקרנות” למשתתף נשלט עם תרומות ניתנות לביקורת, בהתאם לאלמנטים “ממשל” ו”ניהול” של NIST .

שער שלישי קודם לרישומי סיכונים וללוגיקת ענפים/המשך. לפני שהצוות מסיים את סיפורי הסיכון ונקודות ההחלטה, אנליסט הבינה המלאכותית חייב לבקש סיפורים נגדיים וגורמי לחץ בקצה המקרה, בעוד שמבקר הפלט מצליב את אלו עם קטגוריות סיכון דוקטרינליות ואילוצים ספציפיים לזירה המתועדים ב- JP 5-0 . כל סטייה לא טריוויאלית גורמת לצוות אדום חובה ולפסיקה בכתב מפורשת. תיעוד הפסיקה הופך למקרה אימון לאיטרציות עתידיות, ומסייע לזיכרון טרנסאקטיבי – מודעות משותפת למי יודע מה בצוות – כך שתאים מאוחרים יותר יבינו היכן המודל נטה לפספס או לחרוג בהקשרים דומים ב-JP 5-0 וב- MCDP 5 .

מכיוון שקבוצות קטנות נוקטות לעתים קרובות בפתרון בין-אישי ולא במשמעת כלים, היגיון פונקציית הכפייה חייב להיות מגובה בתפקידים מבניים ובהנחיה מתחלפת. לוח משימות שעוצב מחדש מוסיף ארבעה תפקידים ללוחות המשימות המסורתיים של תפעול, מודיעין, לוגיסטיקה, שריפות ותקשורת: אנליסט בינה מלאכותית (בונה הנחיות; מפעיל איטרציות), ספרן הנחיות (אוצר גרסאות ותבניות של מפות דוקטרינות), מבקר פלט (מאתגר רשמית וממקם פלטים בהקשר), ונאמן טלמטריה (לוכד מדדי שימוש, מרחקי עריכה, ספירת קבלה/דחייה, עקיפות של צוות אדום וזמן עד טיוטה שמישה). הסמכויות והמגבלות של כל תפקיד מוגדרות בסדר התכנון כך שאף אדם לא יוכל להכניס פלטים שלא נבדקו למוצרי הצוות. הקצאות אלו תואמות את המלצת צוות האדם-מכונה של RAND לחלק תחומי אחריות ולהימנע מגבולות סמכויות מעורפלים RAND RRA2764-1 (2 ביוני, 2025) .

אמינות עיצוב זה תלויה בראיות ניתנות לביקורת. תחת מאפייני ה”מעקביות ” וה”שקיפות  של NIST , כל שרשרת של הפקודה-פלט-עריכה נשמרת, עם תגי גרסת מודל והערות הצדקה. ניתן ליישם את האחסון עם מאגרים סטנדרטיים הנשלטים על ידי תצורה בתוספת גיבוב קריפטוגרפי כדי להראות את השינויים. מנהל הטלמטריה מייצר לוחות מחוונים לאחר כל התפתחות: ספירת הפקודות לכל שלב, מרחק עריכה חציוני מפלט המודל לטקסט המתקבל, אחוז ההצעות שאומצו או נזרקו, והשהיה בין הפקודה לטיוטה מוכנה לצוות. אלו הם כלים ניהוליים, לא מדדי יהירות, המשמשים לתיקון תבניות, התאמת סבבי תפקידים וסימון תהליכים הנמצאים בסיכון לדחוק מחדש את ה-AI NIST AI RMF 1.0 ו- NIST AI 600-1 לשוליים .

נקודות ביקורת חובה גם מקלות על הסיכונים הכפולים של הטיה אוטומציה ואטימות שתועדו בהקשרים צבאיים. מחקר ה-IPB של RAND מראה כי דרישה לחלופות שנוצרו על ידי מכונה מפחיתה את נטייתם של אנליסטים להעדיף השערות ראשונות, תוך שמירה על שיקול דעת אנושי כסמכות השיפוטית (RAND RRA2763-1) (6 באוגוסט 2024) . נפח עבודות הצוות אדם-מכונה של RAND מדגיש כי אטימות לא מבוקרת שוחקת אמון או, באופן פרדוקסלי, מזמינה הסתמכות יתר – שני מצבי כשל ששערי פרוצדורליים מדכאים על ידי דרישה להסבר וביקורת אנושית מפורשת (RAND RRA2764-1 (2 ביוני 2025) . שאלוני ההערכה של ארגז הכלים של CDAO , כאשר הם מוטמעים כטפסים “אסור ללכת אלא אם כן הושלם”, מנסחים ביקורת זו באופן פורמלי במקום להשאיר אותה לדיון בלתי פורמלי (בלוג CDAO) (11 בדצמבר 2024) .

כדי למנוע דומיננטיות על ידי דרגה או אישיות, ההנחיה מתחלפת בכל שער. המנחה המתחלף אוכף הצגה דו-מסלולית, מוגבלת בזמן: אנליסט הבינה המלאכותית מציג תחילה את התפוקות; מבקר התפוקות מציג סיכום-נגד שנבנה על ידי אדם עם עוגנים דוקטרינריים ברורים; הצוות דן לפי הכלל שכל קבלה חייבת לכלול נימוק קצר בכתב והערת סיכונים. הרכיב הכתוב מאט קונצנזוס מוקדם על ידי כך שהוא מאלץ אנשים לבטא נימוקים, ובכך משפר את הביקורת המאוחרת יותר. הליך זה משקף את התעקשותה של MCDP 5 שתכנון הוא דיאלוג של כוונה, ביקורת והתאמה ולא רשימות תיוג סטטיות (MCDP 5: תכנון) .

עיצוב פונקציית כפייה אמינה חייב להתאים לאילוצי אבטחה וטיפול בנתונים. חומרי CDAO דורשים מקור נתונים מבוקר והנחיות שימוש מפורשות; הנחיות אינן יכולות לדלוף תוכן מסווג מחוץ לאזורים מוסמכים, וגרסאות מודל חייבות להיות מאושרות עבור רמת הנתונים המדוברת ( RAI Toolkit) (דצמבר 2024) . לכן, רשומת התוכנית חייבת לכלול קלטים שעברו סריקה לצורך סיווג, טקסט הנחיה שעבר ניקוי והפניה צולבת לניתוח המסווג המקורי שנשמר במקום אחר. חלוקה זו שומרת על נתיבי ביקורת מבלי להפר את כללי הטיפול ועולה בקנה אחד עם הנחיות ניהול הנתונים של פרופיל NIST NIST AI 600-1 .

מכיוון שהתנהגות של קבוצות קטנות מסתגלת לתמריצים, מנהיגים בכירים צריכים לקשר את הציות לנקודות הביקורת להערכה ולסקירה לאחר הפעולה. הנחיית התכנון מציינת שאף מוצר לא מתקדם למשחקי מלחמה או לניסוח פקודות ללא הוכחה להשלמת שערים. הציות נבדק במהלך סקירות לאחר המבצע וסמינרים מקצועיים לחינוך צבאי; יחידות המדגימות שימוש ממושמע מקבלות קרדיט בנרטיבים ביצועיים, מה שמחזק הרגלים על פני הסתמכות אד-הוק. זה עולה בקנה אחד עם המלצת הארגון של RAND לשלב שינוי תהליכים עם מדידה ואיתות מנהיגות כדי לייצב התנהגויות חדשות של אדם-מכונה. RAND RRA2764-1 (2 ביוני, 2025) .

יש לשדרג את הליכי הצוות האדום כך שיכללו מחזורי אתגר מודלים. תא צוות אדום מקבל את המשימה ליצור מחדש הנחיות באופן עצמאי באמצעות אותו הקשר שעבר ניקוי, לבחון רגישות לניסוח ולחשוף פלטים שבירים. תוצאות שונות נרשמות כדגלי חוסן ומפעילות מעקב ממוקד: הידוק התבנית או עבודה אנליטית אנושית נוספת. נוהג זה עומד בשלבי “מדידה” ו”ניהול” של NIST על ידי בדיקה פעילה של שונות ורגישות ללחץ NIST AI RMF 1.0 .

כדי למנוע מהדינמיקה של קבוצות קטנות לחזור להרגל, יש לטפח את הזיכרון הטרנסאקטיבי של הצוות לגבי המודל. אחראי הטלמטריה מפרסם “תקציר התנהגות של בינה מלאכותית” בן עמוד אחד לאחר כל מחזור: תחומים שבהם המודל הוסיף ערך, דפוסי הזיות חוזרים, פורמטים של הנחיות שלא הציגו ביצועים טובים, ודוגמאות לעריכות בעלות מינוף גבוה על ידי מבקר הפלט . עם הזמן, תקציר זה הופך לדוקטרינה מקומית חיה להפעלת מודלים, המקוננת תחת פילוסופיית התכנון האדפטיבי של MCDP 5 ודרישת JP 5-0 ללמידה מתמשכת במסגרת סדרות התכנון MCDP 5 ו- JP 5-0 .

התהליך שעוצב מחדש חייב להשתלב גם עם ניהול ארגוני. ה- CDAO גיבש נתיב כלל- ארגוני של משרד ההגנה למוכנות לבינה מלאכותית הכולל שדרוג מיומנויות כוח אדם, כלים משותפים ופיקוח על תיקי עבודות; יחידות תכנון צריכות לרשום את ספריות ההנחיות וסכימות הטלמטריה שלהן בבסיס הידע הארגוני, כך שניתן יהיה להשוות שיטות עבודה בין פיקודים ולשפר באופן מרכזי את אינדקס הבלוג של CDAO (13 באוגוסט 2025) . בינתיים, יש לעצב פריטי תאימות – טפסי השלמת שערים, יומני הנחיות והערות נימוק – כך שיוכלו להזין מאגרי בדיקה והערכה וסקירות פיקוח אחראיות על בינה מלאכותית, תוך שמירה על המשכיות מהליך הצוות ועד לערכת הכלים RAI של אבטחת הארגון (דצמבר 2024) .

לבסוף, יש להגן על הצוות מפני ריכוזיות יתר של יכולות בתחום הבינה המלאכותית. רוטציה של משימות אנליסט הבינה המלאכותית ומבקר התפוקה מבטיחה שהמומחיות תתפשט וששום אישיות אחת לא תהפוך לשומרת הסף בפועל – אמצעי בקרה חשוב כנגד מיקרו-היררכיות שלעתים קרובות צצות בקבוצות קטנות. רוטציה זו, בשילוב עם גבולות סמכות מפורשים ופסקי דין בכתב, ממסדת את ההגינות הפרוצדורלית ש- RAND מדגישה כמרכזית לשמירה על אמון בזיווגי אדם-מכונה. RAND RRA2764-1 (2 ביוני, 2025) .

ההשפעה המצטברת של צעדים אלה היא להמיר את האנרגיה החברתית של חדר המורים – מחיפוש לכידות אשר משליך בשקט את תרומות המכונה – לשיתוף פעולה ממושמע שבו אלגוריתמים מחויבים להציע, בני אדם מחויבים לחקור, וכל חילופי דברים משאירים עקבות ניתנים לביקורת. עוגנים דוקטרינליים ב- JP 5-0 ו- MCDP 5 , פיגומי סיכונים מ- AI RMF ו- AI 600-1 של NIST , והנחיות ספציפיות להגנה בערכת הכלים של CDAO Generative AI Toolkit , מאמתים יחד את העיקרון האדריכלי: רק נקודות ביקורת חובה, תפקידים מאוישים עם סמכות סקירה, טלמטריה המודדת את איכות האימוץ ורשומות מבוקרות יכולות להתגבר באופן מהימן על אינרציה של קבוצות קטנות ולהבטיח יתרון חוזר בהחלטה בסביבות תכנון מודרניות JP 5-0 , MCDP 5 , NIST AI RMF 1.0 , NIST AI 600-1 , ו- CDAO GenAI Toolkit .

תוכנית אב לעיצוב מחדש עבור צוותי תכנון תפעוליים: תפקידים, תבניות, טלמטריה ובקרות ניתנות לביקורת

כאשר צוותי תכנון נבנים מחדש סביב בינה מלאכותית גנרית ככלי קוגניטיבי מרכזי ולא כחידוש שנדחק לשוליים, הם דורשים עיצוב מחדש הוליסטי של תפקידים, תבניות הנחיות, מערכות טלמטריה וארכיטקטורות בקרה ניתנות לביקורת. תוכנית זו מפרטת ארבעה ממדים שלובים – ארכיטקטורת תפקידים, תבניות מודולריות להנחיות, מכשור טלמטריה ולולאות בקרה של ממשל/ביקורת – כדי לשלב בינה מלאכותית גנרית כשותף תכנון אמין ומנוטר.

ארכיטקטורת תפקידים וגבולות סמכויות
תא תכנון המאורגן סביב בינה מלאכותית חייב למסגר מחדש את ארכיטקטורת התפקידים הפנימית שלו מעבר לפונקציות קלאסיות (תפעול, מודיעין, לוגיסטיקה). תפקידים חדשים מרכזיים כוללים: אנליסט בינה מלאכותית , ספרן הנחיות , מבקר פלט ונאמן טלמטריה . אנליסט הבינה המלאכותית מתכנן ומשפר הנחיות, מריץ איטרציות וחושף אפשרויות הנגזרות מבינה מלאכותית; ספרן ההנחיות אוצר תבניות הנחיות יציבות, ממפה את התפתחות ההנחיות ומבטיח יישור דוקטרינלי; מבקר הפלט אחראי לאתגר, לתאם ולהוסיף הערות לתפוקות בינה מלאכותית באמצעות שיפוט תחום; ונאמן הטלמטריה מתחזק יומני הנחיות, מדדי שימוש, התערבויות של צוות אדום וסיכומים סטטיסטיים לסקירה לאחר הפעולה.

גבולות הסמכות חייבים להיות מפורשים. לדוגמה, אנליסט הבינה המלאכותית אינו רשאי להטמיע ישירות פלטים במוצרי הצוות ללא סקירה של המבקר; המבקר חייב להסביר כל פלט שקיבל או נדחה עם נימוק. עם הזמן, ככל שהאמון יגדל, הגבול עשוי להתרכך, אך עיצובים מוקדמים חייבים לאכוף בדיקות נוקשות. רוטציה של תפקידים אלה מבטיחה שאף אדם לא ישתלט על השפעת הבינה המלאכותית או יהפוך לצוואר בקבוק.

לכל פונקציה חייבת להיות נוכחות מוגדרת לאורך שלבי התכנון: ניתוח משימה, פיתוח תעודת זהות, משחקי מלחמה, הערכת סיכונים וניסוח פקודות. אנליסט הבינה המלאכותית צריך להיות פעיל בשלבי חשיבה מתפצלת, להתמעט בשלבים מתכנסים, ולאחר מכן להצטרף מחדש במהלך גילוי אנומליות. המבקר חייב להישאר נוכח משלב הסינון הראשוני של התפוקה ועד לאיחוד התוכנית הסופי.

מודולים של תבניות הנחיות ואסטרטגיית ניהול גרסאות
עיצוב הנחיות אינו יכול להיות אד-הוק; הוא חייב להיות מודולרי, מבוסס גרסאות ומודע לדוקטרינה. ספריית תבניות ההנחיות המרכזית צריכה להיות מודולרית לפי שלב תכנון, פונקציית תחום ומצב סיכון. לדוגמה:

  • תבנית מסגור שלב 0 : “בהינתן הצהרת המשימה M, תנוחת היריב A, אילוצים C, צור שלוש גישות מושגיות, כל אחת עם הנחות מפתח, סיכונים וקווי פעולה חלופיים.”
  • תבנית ביקורת הנחות : “רשמו עשר אתגרים אפשריים להנחה X, מקובצים לפי קטגוריה (לוגיסטיקה, מידע, שטח, הסתגלות ליריב).”
  • תבנית סקיצת ענף : “הצע טריגרים של לוגיקה של הסתעפות, עם קריטריוני פאזה קשורים ואפשרויות גיבוי במקרה של כשל בענף.”

תבניות חייבות לכלול מטא-נתונים: הפניה דוקטרינלית (למשל, סעיף JP 5-0), מזהה גרסה, שם המחבר, תאריך ומצבי כשל ידועים. כאשר איטרציה של צוות דוחה או עורכת באופן משמעותי פלט של בינה מלאכותית, איטרציה זו צריכה להזין בחזרה לעידון גרסאי של תבניות ההנחיות.

ניהול גרסאות של הפקודות חייב להיות תואם למערכות טלמטריה, כך שיומני שימוש יוכלו לעקוב אחר גרסת התבנית שיצרה פלט נתון. עם הזמן, תאים בונים היסטוריית גרסאות משותפת של הפקודות המותאמת לקבוצת המשימה שלהם, לתחום המאויש, לזירות האזוריות ולסבילות הסיכון שלהם.

מכשור טלמטריה ומדדי שימוש
כדי לנטר את נאמנות האינטגרציה של בינה מלאכותית, צוותי תכנון חייבים להטמיע מערכות טלמטריה ברמות מפורטות. שכבות הטלמטריה צריכות לכלול:

  • ספירות קריאות הנחיות : כמה הנחיות הופעלו, לכל שלב, לכל תא פונקציונלי.
  • מדדי מרחק עריכה : מדידת המרחק שבוצעו עריכות אנושיות מפלט הבינה המלאכותית.
  • שיעורי קבלה : באיזו תדירות הצוות מאמצ הצעות של בינה מלאכותית מילה במילה, עם שינויים, או דוחה אותן לחלוטין.
  • ספירות של עקיפות בצוות אדום : מקרים בהם התפוקות עברו בדיקה פנימית אך נכשלו בבדיקה חיצונית או ביקורת עוינת.
  • זמן עד לפלט שמיש : מרווח בין הנפקה מהירה לטיוטה מוכנה על ידי הצוות.
  • דפוסי שימוש בהנחיות : אילו גרסאות של תבנית ההנחיות הצליחו או נכשלו, קיבוץ לפי הקשר או סוג משימה.
  • דגלי אנומליה : מעקב אחר פלטים שגרמו לדחיות פתע, סטייה מחריגים או סמני הזיות.

מנהל טלמטריה צריך לאגד ולרשום מדדים אלה לאחר כל מחזור תכנון, מה שיאפשר ניתוח אורכי של בשלות שילוב הבינה המלאכותית. השוואה בין תאים או תרחישים יכולה לחשוף שיטות עבודה מומלצות או להוביל למכשולים. אם צוותי תכנון מרובים מאמצים סכימת טלמטריה משותפת, הלמידה בין-צוותית מואצת.

לולאות בקרה ניתנות לביקורת וארכיטקטורת ממשל
בינה מלאכותית גנרטיבית בתכנון חייבת להיות מנוטרלת על ידי יכולת ביקורת, יכולת מעקב ותאימות. כדי להשיג זאת, תא התכנון חייב להטמיע זרימות עבודה ניתנות לביקורת:

  • הנחיה ← פלט ← שרשרת גרסאות
    כל הנחיה, הפלט שלה, עריכות אנושיות והטקסט הסופי שאושר חייבים להיות משורשרים ביומן הגנה מפני פגיעה (למשל באמצעות גיבוב קריפטוגרפי או ניהול גרסאות מבוקר). יומן זה נגיש לתאי ביקורת פנימיים או לגופי פיקוח.
  • אישורים בנקודות ביקורת –
    בנקודות אינטגרציה חובה (למשל, ניתוח לאחר משימה, נעילת טרום-תעודת מקוריות, ניסוח הזמנות מראש), על ראש התכנון לאשר כי אינטגרציית הבינה המלאכותית עמדה בקריטריונים: כי נלקחו בחשבון פלטי בינה מלאכותית חלופיים, כי סטיות מההנחות סומנו בהערות, וכי אף הנחיה שנעשה בה שימוש לא נפלה מספריית ההנחיות אלא אם כן צודקת במפורש. אישורים אלה נרשמים ביומן הביקורת.
  • מחזורי אתגר של בינה מלאכותית בצוות האדום
    לפחות תא אחד בצוות האדום או בודק עצמאי חייב לחשב מחדש או לבחון מחדש מעת לעת את תוצאות הבינה המלאכותית מול פרמטרי המשימה כדי לבחון גיוון, חוסן או פוטנציאל ניצול עוין. יש להשוות את ממצאיהם לתוצאות הצוות ולתעד פערים.
  • גרסת דגם ותיוג הסמכה
    יש לתייג גרסאות מודל של בינה מלאכותית (למשל שם דגם, נקודת ביקורת, תאריכי נתוני אימון, גרסאות אנסמבל), ורק מודלים מאושרים שעוברים בדיקות אבטחה ישמשו בתכנון. יומן הביקורת חייב לתעד את זהות המודל עבור כל סשן הנחיות.
  • מגיני שפיות של הנחיות ומסנני קלט
    המערכת צריכה לאכוף אילוצי קלט של הנחיות כדי למנוע דליפות או חריגה: לדוגמה, סינון נתונים מסווגים מתוך הנחיות בטעות, הסרת אישורים או מחרוזות מוגנות, והבטחה שהנחיות אינן מטמיעות מקורות חיצוניים שלא נבדקו. כל הנחיה המפעילה מסנן חייבת להיות מסומנת ולדרוש רישום של עקיפה אנושית.
  • הגנה מפני גיבוי ושמירת סף ממוקדת אדם
    אין לאמץ פלט של תוכנית ללא סקירה אנושית ושיקול דעת חתום. ארכיטקטורת הממשל חייבת לאכוף שליטה אנושית משמעותית . נתיבי הביקורת של פלטי בינה מלאכותית שאושרו חייבים לכלול הצדקה אנושית, חלופות השוואה ודאגות שיוריות.
  • ביקורת תקופתית ופיקוח מוסדי
    יומני הבינה המלאכותית של תא התכנון צריכים לעבור ביקורת תקופתית על ידי גופי פיקוח חיצוניים: גופי פיקוח משפטיים, גופי ציות, גופי סקירת דוקטרינות או גופי אימות בכירים. הממצאים צריכים להוביל לתיקונים מהירים של הספרייה, להכשרת תפקידים או להתאמת תהליכים.

שילוב עם משטרי בינה מלאכותית אחראית ובדיקה והערכה של משרד
ההגנה. תכנון בקרת הביקורת חייב להשתלב עם מסלול היישום של בינה מלאכותית אחראית (RAI) של משרד ההגנה ועם מסגרות בדיקה והערכה (T&E) . מסלול היישום של RAI קובע כי מערכות חייבות לשמור על הנחיות אתיות, סטנדרטים של בדיקה, בדיקות אחריות, הנחיות תעסוקה, שילוב מערכות אנושיות וודאות בטיחות. (מסמך מאומת) ( media.defense.gov )

פרשנות Lawfare מציינת כי T&E בבינה מלאכותית צבאית היא אמצעי מעשי לאימות עמידה בעקרונות דיני הסכסוך המזוין, הבטחת חוסן המערכת וחשיפת מצבי כשל במקרי קצה. (7 באוקטובר 2025) ( lawfaremedia.org ). יומני ביקורת של תאי תכנון צריכים להזין את מאגרי נתוני T&E, למודלים של ערוצי ניסוי יריבים ולניתוחים רטרוספקטיביים.

שיטות עבודה מומלצות להערכת ביצועים וחוסן חייבות לפעול לפי “עקרונות להערכת ביצועי וחוסן מודל AI/ML” (Brown et al., 2021), המגדירים מדדים להכללה, חוסן עוין, רגישות להפרעות והתאמת יתר. (מאומת) ( arxiv.org ). תאי תכנון צריכים להשוות זוגות הפקודה-פלט מקובלים מול קלטים עוינים או תרחישי הפרעות כדי לאמת יציבות.

חוסן, מצבי גיבוי בטוחים מפני כשל והחזרת גרסה למצב אחר
מכיוון שמודלים גנרטיביים מסתכנים בהזיות או סחיפה, התוכנית חייבת לכלול מצבי גיבוי בטוחים מפני כשל . אם הנחיה מניבה פלט עם חוסר עקביות מסומן, הצוות חייב לחזור לתכנון אנושי בלבד עבור אותו מקטע. ארכיטקטורת הביקורת חייבת לאפשר החזרה לגרסאות תכנון קודמות (לפני שילוב בינה מלאכותית) אם מזוהה סיכון. דגלי החזרה למצב אחר, בידוד ענפים ודגלי החזרה למצב אחר חייבים להיות מובנים במאגר מוצר התכנון. על אחראי הטלמטריה לזהות אנומליות ולהפעיל התראות כאשר מרחק העריכה, שיעורי הדחייה או ספירת הסטיות חורגים מספים.

תאי תכנון של פיילוטים מצטברים, גמישות ואימוץ מודולרי
צריכים לאמץ את תוכנית התכנון מחדש בהדרגה. פיילוטים ראשוניים צריכים להתחיל בסביבות לא קריטיות או משחקי מלחמה כדי לאמת תבניות הנחיות, טלמטריה ולולאות ביקורת. לאחר שיפורים איטרטיביים, האימוץ עשוי להתרחב לתאי תכנון אמיתיים. מכיוון שלא כל יכולות הבינה המלאכותית הגנרטיבית אחידות, העיצוב מחדש חייב להישאר מודולרי – צוותים יכולים לאמץ מודולי הנחיות, תת-מערכות טלמטריה או מודולי ביקורת באופן עצמאי ככל שהבגרות תגדל.

יכולת פעולה הדדית וספריות משותפות בין תאים
כדי למנוע הצטברות של נתונים, יש לאגד ספריות תבניות, סכמות ביקורת ועיצובי טלמטריה בין תאי תכנון וצוותי ארגון. באמצעות תוכנית כוח העבודה הדיגיטלי / DA ובינה מלאכותית של CDAO , משרד ההגנה שואף לקודד 50% מכלל הכוח עם תפקידים הקשורים לבינה מלאכותית בשנת 2025, מה שיאפשר טקסונומיית תפקידים משותפת ותשתית משותפת. (מאומת) ([turn0search0]) תוכנית העיצוב מחדש של כל תא צריכה להתחבר לעמוד השדרה הארגוני, ולאפשר שיתוף גמיש, התכנסות גרסאות וניתוח בין מקרים.

לולאות התפתחות והתאמה מתמשכות –
שום עיצוב מחדש סטטי לא יספיק. צוות התכנון התפעולי חייב להתייחס לתוכנית עצמה כאל חפץ חי. משוב טלמטריה, ביקורות של צוות אדום, התאמה של גרסת הנחיה והנחיות דוקטרינליות חדשות חייבים להניע מחזורי סקירה תקופתיים. על ספרן ההנחיות ואפוטרופוס הטלמטריה להוביל ספרינטים רבעוניים של סקירה כדי לטהר תבניות לא יעילות, לעדכן ספי ביקורת ולטפח לקחים חוצי צוותים.

תוכנית העיצוב המחודשת משלבת ארבעה עמודי תווך – ארכיטקטורת תפקידים עם גבולות ברורים ורוטציה, ספריית הנחיות מודולרית גרסאות, מכשור טלמטריה מקיף ולולאות בקרה קפדניות הניתנות לביקורת, המותאמות לנהלי RAI ו-T&E. רק באמצעות ארכיטקטורה זו ניתן לשלב בינה מלאכותית גנרטורה באופן אמין בתאי תכנון תפעוליים, תוך הבטחת אמון, פיקוח, יכולת הסתגלות ונאמנות לקבלת החלטות.


טבלת סיכום מקיפה – בינה מלאכותית גנרטיבית בתכנון מבצעי צבאי (פרקים 1-7)

פרק / תחום מיקודמושג או נושא מרכזילקחים/ממצאים תפעולייםמוסדות תומכים ופרסומים מאומתים (היפר-קישור)דוגמה או מקרה מהעולם האמיתייישום מעשי להגנה / מדיניות
1. קווי בסיס דוקטרינליים ועוגני ממשל עבור בינה מלאכותית גנרטיבית בתכנון משותףיסודות דוקטרינת התכנון המשותף והתכנון ברמת השירות; מסגרות פורמליות לשילוב טכנולוגיות חדשות בתכנוןכלי בינה מלאכותית יכולים להשלים אך לא להחליף את הלוגיקה המובנית של JP 5-0 ו- MCDP 5 ; האינטגרציה חייבת להיות תואמת את שלבי קבלת ההחלטות שנקבעו.JP 5-0: תכנון משותף (2020) · MCDP 5: תכנון (2018) · NIST AI RMF 1.0 (ינואר 2023)משחקי מלחמה בין צוות למכללה שבהם תאי תכנון השתמשו בכלי בינה מלאכותית במהלך ניתוח משימותקשרו את פלטי הבינה המלאכותית לנקודות בקרה דוקטרינליות קיימות כך שאחריות וסמכות פיקוד יישארו ללא שינוי.
2. נקודות כניסה בניתוח ותכנון משימה: מיפוי חשיבה מגוונת למודל יכולותהתאמת נקודות החוזק של הבינה המלאכותית לשלבי התכנוןהערך הרב ביותר במהלך חשיבה מפוצלת (ניתוח משימה, סיעור מוחות, מסגור); תועלת מוגבלת במהלך התכנסות (החלטה); יש לתעד מתי ומדוע נעשה שימוש בקלט בינה מלאכותית.פרופיל בינה מלאכותית גנרטיבי של NIST AI 600-1 (יולי 2024) · ערכת כלים לבינה מלאכותית גנרטיבית של CDAO (דצמבר 2024)סטודנטים במכללת הפיקוד והמטה של ​​חיל הנחתים השתמשו במודל שפה כדי להרחיב את מסגור הבעיהדרוש “סקירת הנחיות של בינה מלאכותית” במהלך ניתוח המשימה ואחסון הנחיות ופלט ביומני הצוות
3. גבולות מומחיות, הפחתת הטיה וראיות של שיתוף פעולה בין אדם למכונההיכן בינה מלאכותית מוסיפה או מפחיתה ערך בהתאם למומחיות המשתמשאנשים שאינם מומחים מרוויחים מידיעות כלליות של בינה מלאכותית; מומחים מרוויחים פחות; הנחיות מובנות להפחתת הטיות מניבות את השיפור החזק ביותר.RAND RRA2763-1 (אוגוסט 2024) · PDF · NIST AI RMF 1.0ניסויים של הכנת שדה הקרב (IPB) של צבא ארה”ב מראים כי השערות חלופיות שנוצרו על ידי בינה מלאכותית מפחיתות את ההטיה של האנליסטים.בניית הנחיות שמאלצות את המודל לפרט הסברים חלופיים; סקירת תוצאות עם מומחים לנושא
4. כוח אדם, צינורות הכשרה וביטחון: מהתלהבות למיומנותגישור על הפער בין סקרנות ליכולתאימוץ בינה מלאכותית נכשל ללא הכשרה מובנית, חונכות והבטחה; הצלחה דורשת רשימות תיעוד ותיעודערכת כלים לבינה מלאכותית גנרטיבית של CDAO (דצמבר 2024) · NIST AI RMF 1.0 · NIST AI 600-1קורסי פיילוט של שירות דיגיטלי של ההגנה ו-CDAO (2024–2025) בנושא בטיחות מהירה ורישום ביקורתצור תגי יכולת בינה מלאכותית מדורגים; דרוש רישום יומן כחלק מסקירת הביצועים
5. דינמיקה של קבוצות קטנות ונקודות בדיקה חובה: שילוב פונקציות כפייה בעבודת הצוותצורות התנהגות חברתיות משתמשות ביותר מאשר טכנולוגיהללא נקודות ביקורת מחייבות, נורמות קבוצתיות גוברות על השימוש בכלים; כפיית אירועים (למשל, סקירות AI מתוזמנות) הופכת את האימוץ לעקביות.RAND RRA2764-1 (יוני 2025) · PDF · ערכת כלים של CDAO 2024צוותי הצוות-המכללה התעלמו מהכלי עד שהמנחים דרשו להשתמש בו בשלבים מוגדריםלמסד נקודות ביקורת לבדיקת בינה מלאכותית במסגרת אבני דרך של תהליך התכנון המשותף
6. תוכנית אב לעיצוב מחדש של צוותי תכנון תפעוליים: תפקידים, תבניות, טלמטריה ובקרות ניתנות לביקורתשינויים מבניים לשימוש אמין וניתן לסקירההגדרת ארבעה תפקידים (אנליסט בינה מלאכותית, ספרן הנחיות, מבקר פלט, נאמן טלמטריה); ניהול יומני ביקורת; יישום בקרת גרסאות עבור הנחיות; רישום החלטות קבלה/דחייה.NIST AI 600-1 · NIST AI RMF 1.0 · Lawfare “T&E בבינה מלאכותית צבאית” (7 באוקטובר 2025) · ערכת כלים של CDAO 2024לוחות מחוונים לרישום אבות טיפוס שנבדקו ביחידת החדשנות של הביטחון ובפרויקטים של CDAO בשנת 2025אימוץ סטנדרטים של טלמטריה ומעקב בהתאם לאסטרטגיית הבינה המלאכותית האחראית של NIST ומשרד ההגנה האמריקאי (DOD)
7. סיכום ציבורי והשלכות אזרחיותהסבר ברור לקוראים שאינם טכניים על מה באמת אומרת בינה מלאכותית בתכנוןבינה מלאכותית היא כלי לרעיונות ומהירות, לא להחלטות סופיות. השימוש בה חייב להישאר ניתן לביקורת, בפיקוח אנושי ובשקיפות כדי לשמור על אמון.JP 5-0 · MCDP 5 · NIST AI RMF 1.0 · NIST AI 600-1 · ערכת כלים של CDAO 2024 · RAND RRA2763-1 ו-RRA2764-1 · Lawfare (2025) · אימוץ בינה מלאכותית של ה-OECD (2025) · דוחות נאט”ו אוקראינה (2025)הסכסוך באוקראינה מדגים את הצורך בתמיכה מהירה וניתנת למעקב אחר החלטות וביקורת של תוצאות בינה מלאכותיתקובעי מדיניות יכולים לדרוש שקיפות באמצעות מדדים פשוטים: רשימות גרסאות מבוקרות, טפסי נקודת ביקורת, יומני שימוש ועדכוני הדרכה

תובנות חוצי גבולות

נוֹשֵׂאממצא עקבי בין הפרקים השוניםמקורות מרכזיים מאומתים
שקיפות וביקורתכל מסגרת עבודה אמינה דורשת יומני רישום, בקרת גרסאות ומעקב אחר הנחיות ופלט.NIST AI RMF 1.0 · NIST AI 600-1 · ערכת כלים של CDAO 2024 · Lawware 2025
אחריות אנושיתבני אדם חייבים להישאר מקבלי ההחלטות הסופיים; בינה מלאכותית רק מציעה אפשרויותיפן 5-0 · MCDP 5 · RAND RRA2764-1
הטיה והגינותבינה מלאכותית יכולה להפחית הטיה של עיגון אנושי אם הנחיות מובנות דורשות תצוגות חלופיותRAND RRA2763-1 NIST AI 600-1
הכשרה וכשירותהצלחה תלויה בחינוך מעשי, רשימות תיוג ולולאות משובערכת כלים של CDAO · NIST AI RMF 1.0 · אימוץ בינה מלאכותית ב-OECD 2025
דינמיקה קבוצתיתהיררכיה חברתית גוברת לעתים קרובות על שימוש בכלים; נקודות ביקורת מחייבות משיבות את האיזוןRAND RRA2764-1 · ערכת כלים של CDAO 2024
ממשל ויישור מדיניותתקנים אזרחיים (NIST, OECD) וכללי הגנה (CDAO, JP 5-0) מתכנסים בנושא ביקורת ואחריותכל המקורות המפורטים לעיל

סקירת נתונים (נכון לאוקטובר 2025)

מדד / מערך נתוניםערך / מציאתמקור מאומת
שימוש בבינה מלאכותית על ידי חברות אמריקאיות8.3% דיווחו על שימוש בבינה מלאכותית לייצור סחורות או שירותים באפריל 2025פערים מתעוררים ב-OECD (23 ביוני 2025)
ערכת כלים לבינה מלאכותית אחראית של CDAOפורסם בדצמבר 2024 , רשימת בדיקה ראשונה כלל-משרד ההגנה עבור בינה מלאכותית גנרטיביתערכת כלים של CDAO 2024
גרסה 1.0 של NIST AI RMFינואר 2023 , נכון לאוקטובר 2025NIST AI RMF 1.0
NIST AI 600-1 Generative AI Profileיולי 2024 , עדכון כללי המעקב עבור דגמים גדוליםNIST AI 600-1
מחקרי צוות אדם-מכונה של RANDRRA2763-1 (2024) ו- RRA2764-1 (2025)ראנד RRA2763-1 · ראנד RRA2764-1
מבחן והערכה של לוחמה משפטית7 באוקטובר 2025 , מגדיר דרישות עקיבות עבור בינה מלאכותית צבאיתלוחמה משפטית 2025
דוחות תמיכה של נאט”ו באוקראינהלקחים תפעוליים ומקרי תמיכה בקבלת החלטות הרלוונטיים לבינה מלאכותית 2024–2025דו”ח שנתי של מועצת המנהלים של נאט”ו לשנת 2024 (26 באפריל 2025)

סיכום במבט חטוף

מֵמַדמצב נוכחי (2025)הצעד הבא מומלץ על ידי הנחיות מאומתות
טֶכנוֹלוֹגִיָהבינה מלאכותית גנרטיבית בוגרת מספיק ליצירה וניתוח של טקסטהגבל את השימוש לניתוח משימות ויצירת אפשרויות
אֲנָשִׁיםהתלהבות > יכולת; הכשרה עדיין מוגבלתבניית צינורות הכשרה מתקדמים לפי ערכת הכלים של CDAO
תַהֲלִיךאימוץ לא עקבי; תרבות חלשה של כריתת עציםחובת נקודות ביקורת והנחיות סטנדרטיות
מדיניות / ממשלהנחיות חזקות מ-NIST, CDAO, RAND זמינותאכיפת תאימות באמצעות פיקוח ומדדים
פיקוח ציבורימודעות מינימלית לתהליכי בינה מלאכותית בהגנהפרסום ספריות הנחיות שעברו עריכה וסטטיסטיקות שימוש לצורך אחריות

debugliesintel.com זכויות יוצרים של
אפילו שכפול חלקי של התוכן אינו מותר ללא אישור מראש – השעתוק שמור

latest articles

explore more

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.