مراکز داده‌ی فردا شبیه امروز نخواهند بود؛ دلیلش چیست؟

هوش مصنوعی فشار بی‌سابقه‌ای بر طراحی، بهره‌برداری و محل استقرار مراکز داده وارد کرده و سازمان‌ها را وادار به بازاندیشی کامل در نقش و معماری دیتاسنترها کرده است.

نحوه برنامه‌ریزی، طراحی و اداره مراکز داده پیش از این هم زیر فشار بود، اما ورود هوش مصنوعی این فشار را به یک «آزمون تنشِ نسل‌ساز» تبدیل کرده؛ آزمونی که از بالا تا پایین، تعریف دوباره‌ای از اینکه مرکز داده چه می‌کند، چگونه کار می‌کند و کجا باید باشد، می‌طلبد.

«آنچه اکنون می‌بینیم زمین‌لرزه‌ای واقعی است»، دیو استرانگ، مدیر خدمات مشاوره و حرفه‌ای HPE در منطقه UKIMEA می‌گوید. «این بزرگ‌ترین تغییر جامع در تاریخ مراکز داده است.»

سال‌ها سازمان‌ها مدیریت مرکز داده را دارایی‌ای می‌دیدند که باید حداکثر استفاده از آن برد. هرچند یک دیتاسنتر امن، کارا و پربازده برای کسب‌وکار حیاتی بود، اما اغلب بارهای کاری قابل پیش‌بینی داشتند. حالا بارهای کاری پویا و سنگینِ هوش مصنوعی وارد میدان شده‌اند؛ نوآوری مبتنی بر AI در کسب‌وکار می‌آزماید که آیا زیرساخت مرکز داده می‌تواند پاسخگو باشد یا نه.

پاسخ HPE بر سه محور استوار است: آمادگی برای AI، اتصال‌پذیری و انرژی. برای پشتیبانی از این سه ستون، این شرکت راهکارهایی توسعه داده که دیتاسنتر را برای عصر هوش مصنوعی متحول می‌کند.

یک دارایی مولد درآمد

توان اجرای بارهای کاری AI می‌تواند تعیین کند آیا یک محصول دیجیتال جدید به‌موقع و موفق عرضه می‌شود یا یک فرایند کسب‌وکار به‌درستی خودکار می‌گردد؛ یا برعکس، سازمان زیر بار داده دفن شده و از رقبا عقب می‌ماند. از نگاه HPE، دیتاسنترِ آینده‌نگر باید «دارایی مولد درآمد» تلقی شود، نه مرکز هزینه‌ای که باید حداقل شود.

این اثر درآمدی می‌تواند در چند قالب ظاهر شود:

  • کاهش زمان دستیابی به ارزش: زیرساخت، نرم‌افزار و خدمات کاراتر، منحنی بهره‌وری سازمان را شتاب می‌دهند.
  • بهینه‌سازی فول‌استک: اجرای نرم‌افزار روی سخت‌افزار بهینه، خروجی‌های AI را سریع‌تر ارتقا می‌دهد.
  • خدمات جدید با کارایی بالا: فضای بیشتری برای نوآوری در کاربردهای نوین AI ایجاد می‌شود.
  • بازیافت انرژی و گرما: آنچه پیش‌تر هدررفت بود، می‌تواند هزینه‌ها را جبران کند.

استرانگ هشدار می‌دهد: «اگر مشتریان از نگاه کالایی به دیتاسنتر عبور نکنند و آن را اهرمی برای تغییر مدل درآمدی نبینند، درجا خواهند زد.»

طراحی فول‌استک برای بارهای کاری AI

برای سازمان‌هایی که می‌خواهند AI را در دیتاسنتر خود اجرا کنند، HPE مفهوم AI Factory را ارائه می‌دهد؛ رویکردی انتهابه‌انتها که دیتاسنتر را یک سیستم تولیدی می‌بیند: انرژی، داده و محاسبه وارد می‌شوند و خروجی، «توکن‌ها»یی به شکل بینش، تصمیم و خدمات دیجیتال جدید است.

کارخانه‌های AI به انضباط مهندسی متفاوتی نیاز دارند. سبد AI Factory شرکت HPE به‌صورت فول‌استک طراحی شده تا مدیران IT بتوانند هزینه و ریسک کل را بهینه کنند، نه اینکه در هر لایه جداگانه آتش‌نشانی کنند. زیرساخت، نرم‌افزار و خدمات از «لبه تا اگزاسکیل» با هم طراحی می‌شوند.

این فول‌استک شامل لایه‌های آشناست:

  • زیرساخت: توان، سرمایش و ایجاد سریع ظرفیت جدید.
  • محاسبه و ذخیره‌سازی: توازن بهینه میان CPUهای سنتی و پلتفرم‌های شتاب‌یافته GPU برای AI.
  • پشته‌های نرم‌افزاری: کیفیت داده، توسعه مدل و دسترسی به پلتفرم.
  • ابزارهای عملیاتی: اتوماسیون و AIOps برای حداقل‌سازی مداخله انسانی.

به‌گفته استرانگ، HPE مزیت «توانمندی انتهابه‌انتها» دارد؛ از ساخت دیتاسنتر و ارائه محاسبه و ذخیره‌سازی مناسب AI تا پشته نرم‌افزاری و دسترس‌پذیری پلتفرم.

نمونه‌ها نیز گویای این رویکردند: زیرساخت TELUS در کانادا نخستین کارخانه AI کاملاً حاکمیتی این کشور در کبک است که با ۹۹٪ انرژی تجدیدپذیر کار می‌کند. در بریتانیا، ابررایانه IsambardAI با معماری ModPod شرکت HPE ساخته شده و زیرساخت و پشته نرم‌افزاری کارخانه AI، خدمات ابتکار ملی AI این کشور (Carbon3.ai) را تغذیه می‌کند.

مکان، توان و منطق دیتاسنترهای ماژولار

برنامه‌ریزی سنتی دیتاسنتر از زمین شروع می‌شود: انتخاب سایت، مجوز، ساخت سازه بزرگ و پر کردن تدریجی آن. بارهای کاری AI این مدل را می‌شکنند. در حالی که یک رک IT معمولی ۶ تا ۸ کیلووات مصرف دارد، رک‌های AI در نقشه‌راه‌های جدید تا ۶۰۰ کیلووات پیش می‌روند؛ جهشی که مکان‌یابی را بیش از فضا، به مسئله انرژی و شبکه برق تبدیل می‌کند.

یکی از پاسخ‌های HPE، AI ModPodهاست: کانتینرهای چگال با ردپای کوچک که سریع مستقر می‌شوند و نزدیک منابع مناسب انرژی—از جمله تجدیدپذیر—قرار می‌گیرند. در کشورهایی مانند بریتانیا، گرفتن مجوز و ساخت دیتاسنتر کلاسیک ۱۸ تا ۲۴ ماه طول می‌کشد؛ طرح‌های پیش‌ساخته این زمان را به حدود ۶ ماه کاهش می‌دهند.

ماژولار بودن یعنی انرژی، مکان و حاکمیت داده همزمان حل شوند: خوشه‌های AI چگال کنار برق پاک، برنامه‌های حساس به تأخیر نزدیک کاربران، و مقیاس‌پذیری با افزودن ماژول‌ها به‌جای قمار روی یک اَبَرسایت. برای فضاهای موجود نیز باید کارایی به حداکثر برسد؛ از جمله با خنک‌سازی مایع مستقیم در سطح رک.

طراحی انرژی‌محور و بازیافت گرما

کارخانه‌های AI ذاتاً پرمصرف‌اند؛ بنابراین استراتژی انرژی به تصمیم معماریِ درجه‌یک تبدیل می‌شود. نخست، تأمین توان؛ دوم، مدیریت و بازیافت گرمای تولیدی.

همکاری HPE با Danfoss دقیقاً بر بازیافت گرما متمرکز است: ترکیب دیتاسنترهای ماژولار با فناوری بازیافت حرارت برای کاهش مصرف انرژی و تزریق گرمای مازاد به شبکه‌های گرمایش شهری یا کاربردهای صنعتی. خنک‌سازی مایع مستقیم می‌تواند مصرف انرژی را تا ۲۰٪ کاهش دهد. این رویکرد PUE را به حدود ۱.۱ می‌رساند و با بهبود ERF، حتی امکان درآمدزایی از قراردادهای برداشت گرما را فراهم می‌کند.

شبکه به‌مثابه سیستم گردش خون

بارهای کاری AI جابه‌جایی عظیم داده میان لبه، خوشه‌های آموزش و برنامه‌های پایین‌دست را با قیود سخت تأخیر می‌طلبند. شبکه‌های امن و آماده AI با AIOps و شبکه‌سازی مبتنی بر نیت، گلوگاه‌ها را برطرف می‌کنند: اتصال پرسرعت درون دیتاسنتر برای خوشه‌های GPU و مسیریابی هوشمند میان لبه و مرکز—همراه با کنترل‌های امنیتی برای محیط‌های توزیع‌شده.

به‌گفته استرانگ، راه‌حل صرفاً «پهنای‌باند بیشتر» نیست؛ بلکه توازن تصمیم‌گیری میان لبه و مرکز است. در پروژه‌ای ماهواره‌ای، پردازش نزدیک ایستگاه‌های رله و ارسال فقط داده لازم، کلید موفقیت بود.

خودکارسازی عملیات با AI

کارخانه AI را نمی‌توان با دستورالعمل‌های دیروز اداره کرد. هدف روشن است: عملیات روزمره با کمترین دخالت انسانی. این به پلتفرم‌های مشاهده‌پذیری و AIOps نیاز دارد که پایش مداوم انجام دهند، خرابی‌ها را پیش‌بینی کنند و بارها را پیش‌دستانه جابه‌جا کنند.

«اصل ماجرا نگهداشت پیشگیرانه است»، استرانگ می‌گوید. «می‌خواهیم مهندسان روی خلق کاربردهای هوش مصنوعی و آماده‌سازی سازمان برای آینده تمرکز کنند، نه خاموش‌کردن آتش زیرساخت.»