אם בשנת 2018 התבשרנו על רכישות של חברות סטארטאפ ע"י ספקי ענן מובילים, על מנת לתת מענה לנושא הגירה לענן (רכישות דוגמת Velostrata ע"י Google ו-CloudEndure ע"י AWS), הרי שבשנת 2019 השקיעו ספקי הענן בהטמעת הפתרונות הללו כחלק מסל השירותים שלהם לנושא הגירת שרתים לענן וכעת החלו להתמקד בפתרונות לסביבות היברידיות.
בשנה החולפת היו שלוש הכרזות משמעותיות לנושא ענן היברידי ובמאמר זה ננסה לסכם (בהתאם לסדר ההכרזות) את עיקרי היכולות החדשות, אשר חלקן עדיין אינן זמינות לכלל הלקוחות.
גוגל משקיעה משאבים רבים בשנים האחרונות להפוך את Kubernetes והפתרון המנוהל Google Kubernetes Engine (GKE), לסטנדרט בעולמות הקונטיינרים.
פתרון Migrate for Compute Engine מאפשר לקחת שרתים פיזיים מהסביבה המקומית ושרתים וירטואליים מסביבת VMWARE ולהגר אותם בתצורת lift and shift לתוך סביבת Google Compute Engine. תוך כדי המעבר, ניתן לבצע התאמת סוג השרת (rightsizing), בכדי לחסוך בעלויות.
פתרון Migrate for Anthos מאפשר לקחת שרתים פיזיים מהסביבה המקומית, שרתים וירטואליים מסביבת VMWARE, וכן שרתים וירטואליים מספקי ענן אחרים (AWS, Azure) ולהגר אותם לתוך שירות הקונטיינרים המנוהל GKE, בדרך למודרניזציה ו-re-architecture של סביבת המחשוב הארגונית מבוססות Linux.
היתרון הבולט של Anthos הוא ניהול כלל סביבות ה- Kubernetes הארגוניות מתוך ממשק הניהול של GKE (לרבות סביבות ה-on premise וסביבות Kubernetes אצל ספקי ענן אחרים), דבר המקל על ניהול סביבות Kubernetes מרובות מהיבטי עדכוני אבטחה וניהול הרשאות.
פתרון Cloud Run for Anthos מאפשר לקחת את עולם הקונטיינרים לשלב הבא. היכולת לקחת סביבות GKE בענן או סביבות GKE מה- on premise או מעננים אחרים ולהגר אותם לסביבת מנוהלת לחלוטין של קונטיינרים בתצורת Serverless, כלומר ללא הצורך לעסוק בניהול ותחזוקת התשתית וכך התוכניתן מתפנה לעסוק נטו בקוד, ללא מגבלת שפה, Libraries או Binaries.
מיקרוסופט הכריזה על Azure Arc בחודש נובמבר 2019 והפתרון עדיין נמצא בשלבי Preview. הרעיון העומד מאחורי הפתרון – היכולת של ארגונים לנהל את סביבת המחשוב מתוך פורטל Azure (וכלי ה-CLI ), לרבות סביבות on premise, סביבות Kubernetes, שרתים וירטואליים ב- AWS או ב- GCP, שרתי Windows ו-Linux כאחד, Azure data services (דוגמת Azure SQL ו-Azure database for PostgreSQL Hyperscale) וסביבות Azure Stack Edge.
חבילת פתרונות Azure Arc מאפשרת ניהול מרכזי של יכולות דוגמת asset management, היכולת להכיל מדיניות (Azure policy) מרכזית על כלל משאבי הארגון, ניהול הרשאות (Roll-based access control) בצורה סטנדרטית, והיכולת לבצע תיעוד גישה למשאבים (auditing) בהתאם לדרישות compliance. הפתרון מאפשר ללקוחות לבצע deployment למספר רב של סביבות חדשות ממקומות שונים בעולם וב-scale גדול.
הפתרון מאפשר הפצת עדכוני תוכנה ב-scale גדול, תוך התבססות על best practices ו-source control הנהוגים בסביבות DevOps בענן (גם על סביבות on premise).
הפתרון מאפשר ניהול אחיד של היבטי אבטחת מידע על פני כלל סביבות המחשוב, דוגמת Azure security center לניטור היבטי אבטחת מידע והגדרת מדיניות הצפנת דיסקים, שימוש ב-Azure automation לצורך הפצת עדכוני אבטחה ותיעוד פעולות באמצעות Azure monitor.
חשוב לציין כי Azure Arc אינו מבצע provisioning של שרתים וירטואליים או שלKubernetes clusters – לנושאים אלו, ארגונים ימשיכו להשתמש בכלי ה-provisioning בהם הם רגילים להשתמש כיום.
פתרון AWS Outposts הוכרז בנובמבר 2018, אך החל מדצמבר 2019 הוא זמין ללקוחות.
הפתרון הינו חומרה ייעודית אשר הלקוח מתקין ב-data center המקומי ומאפשר ללקוח להריץ בסביבת ה-on premise שירותים דומים לשירותים הקיימים ב-AWS (דוגמת EC2 instances, Amazon EBS, Amazon EKS ובקרוב גם שירותי S3 ושירות בסיסי הנתונים המנוהל RDS), תוך שימוש באותו API בו משתמשים ב- AWS וכשירות מנוהל ע"י AWS מרחוק.
הפתרון מאפשר לארגונים לאחסן מידע מקומית, ללא הצורך לשנע אותו לענן (לעיתים מסיבות של רגולציה או של ביצועי תקשורת).
מכיוון ש- AWS Outposts מנוהל מרחוק ע"י AWS, כל נושא הניטור, עדכון והפצת עדכוני אבטחה באחריות AWS וכחלק מהתחזוקה השוטפת של ה-region אליו מחובר השירות.
הפתרון מאפשר להתחבר למשאבים בסביבת ה- data center המקומית באמצעותLocal gateway (LGW) בצורה פשוטה וקלה ולהרחיב את ה- VPC הארגוני מסביבת הענן לסביבת ה- on premise.
בדומה לקיים בסביבות הענן של AWS, החומרה של AWS Outposts מבוססת טכנולוגיית AWS Nitro, המבצעת חציצה בין שכבת הוירטואליזציה לבין שכבת החומרה ובכך מצמצת את שטח החשיפה והסיכון לביצוע מתקפות בין השרתים הוירטואליים לבין השרת המארח (ה- host).
מכיוון שמדובר על אותה חומרה הקיימת בענן של AWS, הלקוח יכול לבחור את סוג השרתים אותם הוא מעוניין לקבל כחלק מ-Outposts, לרבות שרתים המכילים מעבדי GPU.
עם היצע הפתרונות של ספקי הענן בשנים האחרונות בתחום הגירת שרתים לסביבות הוירטואליות, ולסביבות קונטיינרים בענן ובשנה האחרונה חלופות שונות לחיבור סביבות היברידיות, אני צופה כי בתקופה הקרובה, יותר ויותר ארגונים גדולים יוכלו לעשות צעדים לקראת חיבור ה- data centers לענן ציבורי, החל מסביבות פיתוח/בדיקות ועד סביבות production שלמות, תוך שימוש ב- scale, ביכולות שרידות, זמינות ואבטחה הקיימים בעננים ציבוריים.
החלופות שהוצגו במאמר זה יאפשרו גם לארגונים החוששים להוציא מידע מחוץ לארגון, ארגונים הסובלים מבעיות latency או שעדיין מתבססים על חומרה בסביבות המקומיות להנות משירותים מנוהלים מכיוון הענן ומאותם API’s הקיימים בסביבות הענן, תוך התבססות על ממשקי ניהול אחידים.
אם בשנת 2018 התבשרנו על רכישות של חברות סטארטאפ ע"י ספקי ענן מובילים, על מנת לתת מענה לנושא הגירה לענן (רכישות דוגמת Velostrata ע"י Google ו-CloudEndure ע"י AWS), הרי שבשנת 2019 השקיעו ספקי הענן בהטמעת הפתרונות הללו כחלק מסל השירותים שלהם לנושא הגירת שרתים לענן וכעת החלו להתמקד בפתרונות לסביבות היברידיות.
בשנה החולפת היו שלוש הכרזות משמעותיות לנושא ענן היברידי ובמאמר זה ננסה לסכם (בהתאם לסדר ההכרזות) את עיקרי היכולות החדשות, אשר חלקן עדיין אינן זמינות לכלל הלקוחות.
גוגל משקיעה משאבים רבים בשנים האחרונות להפוך את Kubernetes והפתרון המנוהל Google Kubernetes Engine (GKE), לסטנדרט בעולמות הקונטיינרים.
פתרון Migrate for Compute Engine מאפשר לקחת שרתים פיזיים מהסביבה המקומית ושרתים וירטואליים מסביבת VMWARE ולהגר אותם בתצורת lift and shift לתוך סביבת Google Compute Engine. תוך כדי המעבר, ניתן לבצע התאמת סוג השרת (rightsizing), בכדי לחסוך בעלויות.
פתרון Migrate for Anthos מאפשר לקחת שרתים פיזיים מהסביבה המקומית, שרתים וירטואליים מסביבת VMWARE, וכן שרתים וירטואליים מספקי ענן אחרים (AWS, Azure) ולהגר אותם לתוך שירות הקונטיינרים המנוהל GKE, בדרך למודרניזציה ו-re-architecture של סביבת המחשוב הארגונית מבוססות Linux.
היתרון הבולט של Anthos הוא ניהול כלל סביבות ה- Kubernetes הארגוניות מתוך ממשק הניהול של GKE (לרבות סביבות ה-on premise וסביבות Kubernetes אצל ספקי ענן אחרים), דבר המקל על ניהול סביבות Kubernetes מרובות מהיבטי עדכוני אבטחה וניהול הרשאות.
פתרון Cloud Run for Anthos מאפשר לקחת את עולם הקונטיינרים לשלב הבא. היכולת לקחת סביבות GKE בענן או סביבות GKE מה- on premise או מעננים אחרים ולהגר אותם לסביבת מנוהלת לחלוטין של קונטיינרים בתצורת Serverless, כלומר ללא הצורך לעסוק בניהול ותחזוקת התשתית וכך התוכניתן מתפנה לעסוק נטו בקוד, ללא מגבלת שפה, Libraries או Binaries.
מיקרוסופט הכריזה על Azure Arc בחודש נובמבר 2019 והפתרון עדיין נמצא בשלבי Preview. הרעיון העומד מאחורי הפתרון – היכולת של ארגונים לנהל את סביבת המחשוב מתוך פורטל Azure (וכלי ה-CLI ), לרבות סביבות on premise, סביבות Kubernetes, שרתים וירטואליים ב- AWS או ב- GCP, שרתי Windows ו-Linux כאחד, Azure data services (דוגמת Azure SQL ו-Azure database for PostgreSQL Hyperscale) וסביבות Azure Stack Edge.
חבילת פתרונות Azure Arc מאפשרת ניהול מרכזי של יכולות דוגמת asset management, היכולת להכיל מדיניות (Azure policy) מרכזית על כלל משאבי הארגון, ניהול הרשאות (Roll-based access control) בצורה סטנדרטית, והיכולת לבצע תיעוד גישה למשאבים (auditing) בהתאם לדרישות compliance. הפתרון מאפשר ללקוחות לבצע deployment למספר רב של סביבות חדשות ממקומות שונים בעולם וב-scale גדול.
הפתרון מאפשר הפצת עדכוני תוכנה ב-scale גדול, תוך התבססות על best practices ו-source control הנהוגים בסביבות DevOps בענן (גם על סביבות on premise).
הפתרון מאפשר ניהול אחיד של היבטי אבטחת מידע על פני כלל סביבות המחשוב, דוגמת Azure security center לניטור היבטי אבטחת מידע והגדרת מדיניות הצפנת דיסקים, שימוש ב-Azure automation לצורך הפצת עדכוני אבטחה ותיעוד פעולות באמצעות Azure monitor.
חשוב לציין כי Azure Arc אינו מבצע provisioning של שרתים וירטואליים או שלKubernetes clusters – לנושאים אלו, ארגונים ימשיכו להשתמש בכלי ה-provisioning בהם הם רגילים להשתמש כיום.
פתרון AWS Outposts הוכרז בנובמבר 2018, אך החל מדצמבר 2019 הוא זמין ללקוחות.
הפתרון הינו חומרה ייעודית אשר הלקוח מתקין ב-data center המקומי ומאפשר ללקוח להריץ בסביבת ה-on premise שירותים דומים לשירותים הקיימים ב-AWS (דוגמת EC2 instances, Amazon EBS, Amazon EKS ובקרוב גם שירותי S3 ושירות בסיסי הנתונים המנוהל RDS), תוך שימוש באותו API בו משתמשים ב- AWS וכשירות מנוהל ע"י AWS מרחוק.
הפתרון מאפשר לארגונים לאחסן מידע מקומית, ללא הצורך לשנע אותו לענן (לעיתים מסיבות של רגולציה או של ביצועי תקשורת).
מכיוון ש- AWS Outposts מנוהל מרחוק ע"י AWS, כל נושא הניטור, עדכון והפצת עדכוני אבטחה באחריות AWS וכחלק מהתחזוקה השוטפת של ה-region אליו מחובר השירות.
הפתרון מאפשר להתחבר למשאבים בסביבת ה- data center המקומית באמצעותLocal gateway (LGW) בצורה פשוטה וקלה ולהרחיב את ה- VPC הארגוני מסביבת הענן לסביבת ה- on premise.
בדומה לקיים בסביבות הענן של AWS, החומרה של AWS Outposts מבוססת טכנולוגיית AWS Nitro, המבצעת חציצה בין שכבת הוירטואליזציה לבין שכבת החומרה ובכך מצמצת את שטח החשיפה והסיכון לביצוע מתקפות בין השרתים הוירטואליים לבין השרת המארח (ה- host).
מכיוון שמדובר על אותה חומרה הקיימת בענן של AWS, הלקוח יכול לבחור את סוג השרתים אותם הוא מעוניין לקבל כחלק מ-Outposts, לרבות שרתים המכילים מעבדי GPU.
עם היצע הפתרונות של ספקי הענן בשנים האחרונות בתחום הגירת שרתים לסביבות הוירטואליות, ולסביבות קונטיינרים בענן ובשנה האחרונה חלופות שונות לחיבור סביבות היברידיות, אני צופה כי בתקופה הקרובה, יותר ויותר ארגונים גדולים יוכלו לעשות צעדים לקראת חיבור ה- data centers לענן ציבורי, החל מסביבות פיתוח/בדיקות ועד סביבות production שלמות, תוך שימוש ב- scale, ביכולות שרידות, זמינות ואבטחה הקיימים בעננים ציבוריים.
החלופות שהוצגו במאמר זה יאפשרו גם לארגונים החוששים להוציא מידע מחוץ לארגון, ארגונים הסובלים מבעיות latency או שעדיין מתבססים על חומרה בסביבות המקומיות להנות משירותים מנוהלים מכיוון הענן ומאותם API’s הקיימים בסביבות הענן, תוך התבססות על ממשקי ניהול אחידים.
Oops! Something went wrong while submitting the form