בזמן שהאויב עובר למתקפות אוטונומיות, ה"הון האנושי" של ישראל הופך לצוואר בקבוק. המעבר להגנה מבוססת מכונה הוא כבר לא בחירה – הוא תנאי לשרידות התשתיות הקריטיות ב-2026.
סוף עידן ה"הון האנושי"
במשך שני עשורים, הנרטיב המרכזי של תעשיית הסייבר הישראלית נשען על נכס אחד: האדם. בוגרי 8200, מפקדים לשעבר ביחידות טכנולוגיות, אנשים שגדלו על פתרון בעיות בלחץ של שניות. הנרטיב הזה לא היה שיווקי בלבד – הוא היה נכון. ישראל בנתה יתרון אמיתי, מבצעי, מדיד. אבל יתרון שלא מתעדכן הוא חוב מתפתח.
הבעיה אינה בכישרון האנושי. הבעיה היא בקצב. כשמתקפה מבוצעת על ידי אלגוריתם שמשנה את חתימתו בכל רגע נתון, ומנצל פרצה שהתגלתה שש שעות קודם לכן, האנליסט הטוב ביותר בחדר הוא כבר לא הנכס המרכזי. הוא צוואר הבקבוק. לא בגלל חוסר כישרון – בגלל ביולוגיה. מוח אנושי לא מעבד 400,000 אירועי לוג לשנייה. לא קיים כזה.
המיתוס שהמוח הישראלי לבדו יגן על רשתות הכוח, מערכות המים ותשתיות הבריאות הוא לא עניין של גאווה לאומית – הוא ליקוי תפיסתי שיש לו מחיר מבצעי מדיד. הגנה של 2026 לא מנצחת בזכות פרומפט חכם. היא מנצחת בזכות מערכת בקרה שפועלת כשהאדם עוד ישן, כשהרשת תחת עומס, כשהאנליסט בסוף משמרת שתים-עשרה שעה.
אנחנו לא בונים פרומפט. אנחנו בונים מערכת בקרה.
כשהאדם כבר לא מהיר מספיק
הנתונים ידועים לכל מי שעוקב אחרי הדוחות של CISA, Mandiant ו-Unit 42 מהשנה האחרונה: עלייה של 45% במתקפות על תשתיות קריטיות ב-2024–2025 בהשוואה לשנתיים שקדמו להן. אבל הנתון המשמעותי יותר הוא לא הכמות – הוא הזמן.
זמן הניצול של פרצות (Time-to-Exploit) קוצר מממוצע של שלושה שבועות בשנת 2021 לפחות משמונה שעות ב-2025. כלומר, בין רגע הפרסום של CVE לרגע שבו אותה פרצה מנוצלת בשטח – חלון ההגנה כמעט נסגר. תהליכי ה-Patching הפנימיים של רוב הארגונים הממשלתיים נמדדים בימים. הפער בין שמונה שעות לשלושה ימים הוא לא פער תקציבי. הוא פער קטלני.
הפתרון אינו להעסיק אנליסטים מהירים יותר. הפתרון הוא אוטונומיה מבוקרת (Controlled Autonomy): המכונה מזהה, מבודדת ובולמת בזמן אמת. האדם מגדיר מדיניות, בוחן חריגות ומנהל את האסטרטגיה. חלוקת התפקידים הזו אינה ויתור על שיקול דעת אנושי – היא תנאי הכרחי לכך שלאדם יהיה בכלל על מה להפעיל שיקול דעת. מכונה שבולמת התקפה בארבע שניות מאפשרת לאדם לנתח בשקט. אדם שמנסה לבלום ולנתח בו-זמנית – לא עושה אף אחד מהם טוב.
מים, חשמל, בריאות: הסייבר שהורג פיזית
כשמדברים על הגנת סייבר לתשתיות קריטיות, הדיון נוטה לסחוף לכיוון קוד, פרוטוקולים ורשתות IT. זו טעות יסודית. הסכנה האמיתית מגיעה מהשכבה הפיזיקלית – מפקודה שנראית תקינה לחלוטין מבחינה קוד, אבל בפועל תפוצץ משאבה בגלל לחץ חריג, תגרום לתחנת כוח לצאת מסנכרון, או תשנה ריכוז כלור במים בצורה שאדם לא ישים לב אליה עד שיהיה מאוחר.
מתקפת Industroyer2 על תשתית החשמל האוקראינית ב-2022 לא פרצה דרך חולשת קוד רגילה. היא שלחה פקודות IEC-104 תקניות לחלוטין, אבל עם תזמון שגרם לניתוקים פיזיים מדורגים. לא אנטי-וירוס בעולם לא היה תופס אותה בשיטות סריקה מסורתיות. אף אנליסט לא היה מזהה את הדפוס בזמן אמת.
ה-AI שמגן על תשתיות פיזיות אינו עובד כמו מנגנון אנטי-וירוס. הוא עובד כמו מהנדס תהליכים שמבין פיזיקה: למד את הפרופיל הנורמלי של כל תחנה, כל משאבה, כל טורבינה – לחץ, טמפרטורה, קצב זרימה, תזמון פקודות. ברגע שפקודה חורגת מהמעטפת הפיזיקלית הצפויה, גם אם היא חתומה דיגיטלית ומקורה לגיטימי לכאורה – המערכת מדגלת אותה לפני הביצוע. לא אחרי. לפני.
זו למידה פיזיקלית (Physics-Informed ML) – מתודולוגיה שמשלבת מודלים של הנדסת תהליכים עם למידת מכונה. הטמעתה בתשתיות ישראל עדיין חלקית ולא אחידה. בין ספקי מים שונים, בין תחנות כוח לרשת ההולכה, בין בתי חולים לרשתות הרפואיות האזוריות – אין מדיניות מחייבת, אין תקן, ואין גורם שמרכז את הנושא. זו לאקונה שאי אפשר להמשיך להתעלם ממנה.
כיפת ברזל תודעתית
בנובמבר 2024 הופץ ברשתות Telegram סרטון של דמות בכירה ישראלית מודיעה על נסיגה מאזור אסטרטגי. הסרטון היה Deepfake. הוא זוהה – לאחר 41 דקות. ב-41 דקות, שווקים זזים, יחידות שדה מקבלות שאלות, ועיתונאים שולחים הודעות לדוברים. הנזק התודעתי אינו מחכה לאישור עובדתי.
זה לא אירוע חד-פעמי. זה מודל מבצעי. מניפולציית מידע הפכה לנשק אסטרטגי שמפעיל לחץ ישיר על מקבלי החלטות, מטיל ספק בפקודות מבצעיות ומייצר בלבול בשרשרת הפיקוד. ההגנה עליו אינה עניין של הסברה ציבורית, של עיתונאות עובדות, או של קמפיין אוריינות תקשורתית. היא עניין הנדסי לחלוטין.
נדרש מנגנון Counter-AI שעובד בשכבת המקור: כל הודעה רשמית יוצאת עם חתימה קריפטוגרפית אחידה שניתן לאמת בזמן אמת – ב-API פתוח לתקשורת, ב-SDK לפלטפורמות ניוזרום, וכחלק מתהליך הפצה ממשלתי מאובטח. מערכת אימות שמופעלת לאחר הנזק היא מערכת אימות לא שימושית. הפתרון הטכני קיים. ההחלטה המדינית ליישם אותו – לא.
מהנדסי התגובה – ה-SOC החדש
ה-SOC המסורתי נבנה סביב מודל אחד: אנשים שבוהים במסכים, מחפשים חריגות בתוך ים של לוגים. זה מודל שגיל ממוצע הנשחק בו הוא פחות משלוש שנים, ושיעור ה-Burnout בו גבוה מכל תחום אחר בתעשייה. לא בגלל שהעבודה קשה – בגלל שהיא בלתי אפשרית. לא נועד לאדם לסרוק מיליוני אירועים ביום ולהחליט בשניות. זה לא פגם אנושי. זה תכנון מערכת שגוי.
ה-SOC של 2026 לא נראה כך. הוא בנוי על AI Handlers – אנשים שאינם כותבים חוקי SIEM ולא צדים אנומליות ידנית, אלא מנהלים לוגיקה של מכונה: מגדירים גבולות התנהגות, מאשרים החלטות בלימה אוטונומיות במקרי קצה שהמכונה לא תוכנתה להחליט בהם לבד, ומבצעים Post-Incident Analysis שמשפרת את המודל בכל מחזור.
פרופיל זה שונה עמוקות מאנליסט SOC קלאסי. ה-AI Handler הטוב לא חייב להיות מומחה אבטחה ותיק. הוא חייב להבין כיצד מודל מקבל החלטות, לזהות היכן הלוגיקה שלו נשברת תחת לחץ, ולתחקר כשל בצורה מובנית. זה פרופיל הכשרה שונה לחלוטין. שוק ההכשרה הישראלי – צבאי ואזרחי כאחד – טרם גיבש אותו כתוכנית ליבה. זה פשוט עניין של זמן, אבל הזמן הוא בדיוק מה שאין לנו.
השאלה אינה "האם יש לנו מספיק אנליסטים". השאלה היא "האם אנחנו מכשירים את הסוג הנכון של אנשים".
סיכום אסטרטגי
ישראל נכנסת ל-2026 עם כוח אדם טכנולוגי מצוין, עם מוניטין בינלאומי בסייבר, ועם ניסיון מבצעי שאין לו תחליף. אלה נכסים אמיתיים. אבל ניהול סיכון של תשתיות קריטיות בעידן של מתקפות אוטונומיות לא מנצח בנכסים של 2015. הוא מנצח בנכסים שנבנים עכשיו, בהחלטות שמתקבלות עכשיו.
המעבר להגנה אוטונומית מבוקרת דורש שלושה דברים שאינם בגדר "רכש": שינוי קונספציה מבצעית ברמת ה-CISO ומטה – הבנה שהמכונה אינה כלי עזר אלא שחקן ראשי; מסגרת רגולטורית שמאפשרת למכונה לבצע פעולות בלימה בסמכות מוגדרת ומבוקרת מבלי לעצור לאישור אנושי בכל צומת; ומנגנוני Governance שמגדירים במפורש מי מאשר מה, בין אלגוריתם לאדם, ובאיזה קצב עדכון ניהול הסיכון מתנהל.
רוב הארגונים הישראלים עסוקים בשאלה הלא נכונה. הם שואלים "איזו פלטפורמה לרכוש". הם משווים ספקים, בודקים POC ומריצים RFP. כל זה נחוץ ואף אחד מזה לא מספיק. השאלה הנכונה היא כיצד מקבלים החלטות, מי מוסמך להחליט, ובאיזה קצב המבנה הארגוני מסוגל לנוע.
כלי ניתן לרכישה. מתודולוגיה לא. הפער אינו בטכנולוגיה — הוא במשילות (Governance).