نحوه برنامهریزی، طراحی و اداره مراکز داده پیش از این هم زیر فشار بود، اما ورود هوش مصنوعی این فشار را به یک «آزمون تنشِ نسلساز» تبدیل کرده؛ آزمونی که از بالا تا پایین، تعریف دوبارهای از اینکه مرکز داده چه میکند، چگونه کار میکند و کجا باید باشد، میطلبد.
«آنچه اکنون میبینیم زمینلرزهای واقعی است»، دیو استرانگ، مدیر خدمات مشاوره و حرفهای HPE در منطقه UKIMEA میگوید. «این بزرگترین تغییر جامع در تاریخ مراکز داده است.»
سالها سازمانها مدیریت مرکز داده را داراییای میدیدند که باید حداکثر استفاده از آن برد. هرچند یک دیتاسنتر امن، کارا و پربازده برای کسبوکار حیاتی بود، اما اغلب بارهای کاری قابل پیشبینی داشتند. حالا بارهای کاری پویا و سنگینِ هوش مصنوعی وارد میدان شدهاند؛ نوآوری مبتنی بر AI در کسبوکار میآزماید که آیا زیرساخت مرکز داده میتواند پاسخگو باشد یا نه.
پاسخ HPE بر سه محور استوار است: آمادگی برای AI، اتصالپذیری و انرژی. برای پشتیبانی از این سه ستون، این شرکت راهکارهایی توسعه داده که دیتاسنتر را برای عصر هوش مصنوعی متحول میکند.
یک دارایی مولد درآمد
توان اجرای بارهای کاری AI میتواند تعیین کند آیا یک محصول دیجیتال جدید بهموقع و موفق عرضه میشود یا یک فرایند کسبوکار بهدرستی خودکار میگردد؛ یا برعکس، سازمان زیر بار داده دفن شده و از رقبا عقب میماند. از نگاه HPE، دیتاسنترِ آیندهنگر باید «دارایی مولد درآمد» تلقی شود، نه مرکز هزینهای که باید حداقل شود.
این اثر درآمدی میتواند در چند قالب ظاهر شود:
- کاهش زمان دستیابی به ارزش: زیرساخت، نرمافزار و خدمات کاراتر، منحنی بهرهوری سازمان را شتاب میدهند.
- بهینهسازی فولاستک: اجرای نرمافزار روی سختافزار بهینه، خروجیهای AI را سریعتر ارتقا میدهد.
- خدمات جدید با کارایی بالا: فضای بیشتری برای نوآوری در کاربردهای نوین AI ایجاد میشود.
- بازیافت انرژی و گرما: آنچه پیشتر هدررفت بود، میتواند هزینهها را جبران کند.
استرانگ هشدار میدهد: «اگر مشتریان از نگاه کالایی به دیتاسنتر عبور نکنند و آن را اهرمی برای تغییر مدل درآمدی نبینند، درجا خواهند زد.»
طراحی فولاستک برای بارهای کاری AI
برای سازمانهایی که میخواهند AI را در دیتاسنتر خود اجرا کنند، HPE مفهوم AI Factory را ارائه میدهد؛ رویکردی انتهابهانتها که دیتاسنتر را یک سیستم تولیدی میبیند: انرژی، داده و محاسبه وارد میشوند و خروجی، «توکنها»یی به شکل بینش، تصمیم و خدمات دیجیتال جدید است.
کارخانههای AI به انضباط مهندسی متفاوتی نیاز دارند. سبد AI Factory شرکت HPE بهصورت فولاستک طراحی شده تا مدیران IT بتوانند هزینه و ریسک کل را بهینه کنند، نه اینکه در هر لایه جداگانه آتشنشانی کنند. زیرساخت، نرمافزار و خدمات از «لبه تا اگزاسکیل» با هم طراحی میشوند.
این فولاستک شامل لایههای آشناست:
- زیرساخت: توان، سرمایش و ایجاد سریع ظرفیت جدید.
- محاسبه و ذخیرهسازی: توازن بهینه میان CPUهای سنتی و پلتفرمهای شتابیافته GPU برای AI.
- پشتههای نرمافزاری: کیفیت داده، توسعه مدل و دسترسی به پلتفرم.
- ابزارهای عملیاتی: اتوماسیون و AIOps برای حداقلسازی مداخله انسانی.
بهگفته استرانگ، HPE مزیت «توانمندی انتهابهانتها» دارد؛ از ساخت دیتاسنتر و ارائه محاسبه و ذخیرهسازی مناسب AI تا پشته نرمافزاری و دسترسپذیری پلتفرم.
نمونهها نیز گویای این رویکردند: زیرساخت TELUS در کانادا نخستین کارخانه AI کاملاً حاکمیتی این کشور در کبک است که با ۹۹٪ انرژی تجدیدپذیر کار میکند. در بریتانیا، ابررایانه IsambardAI با معماری ModPod شرکت HPE ساخته شده و زیرساخت و پشته نرمافزاری کارخانه AI، خدمات ابتکار ملی AI این کشور (Carbon3.ai) را تغذیه میکند.
مکان، توان و منطق دیتاسنترهای ماژولار
برنامهریزی سنتی دیتاسنتر از زمین شروع میشود: انتخاب سایت، مجوز، ساخت سازه بزرگ و پر کردن تدریجی آن. بارهای کاری AI این مدل را میشکنند. در حالی که یک رک IT معمولی ۶ تا ۸ کیلووات مصرف دارد، رکهای AI در نقشهراههای جدید تا ۶۰۰ کیلووات پیش میروند؛ جهشی که مکانیابی را بیش از فضا، به مسئله انرژی و شبکه برق تبدیل میکند.
یکی از پاسخهای HPE، AI ModPodهاست: کانتینرهای چگال با ردپای کوچک که سریع مستقر میشوند و نزدیک منابع مناسب انرژی—از جمله تجدیدپذیر—قرار میگیرند. در کشورهایی مانند بریتانیا، گرفتن مجوز و ساخت دیتاسنتر کلاسیک ۱۸ تا ۲۴ ماه طول میکشد؛ طرحهای پیشساخته این زمان را به حدود ۶ ماه کاهش میدهند.
ماژولار بودن یعنی انرژی، مکان و حاکمیت داده همزمان حل شوند: خوشههای AI چگال کنار برق پاک، برنامههای حساس به تأخیر نزدیک کاربران، و مقیاسپذیری با افزودن ماژولها بهجای قمار روی یک اَبَرسایت. برای فضاهای موجود نیز باید کارایی به حداکثر برسد؛ از جمله با خنکسازی مایع مستقیم در سطح رک.
طراحی انرژیمحور و بازیافت گرما
کارخانههای AI ذاتاً پرمصرفاند؛ بنابراین استراتژی انرژی به تصمیم معماریِ درجهیک تبدیل میشود. نخست، تأمین توان؛ دوم، مدیریت و بازیافت گرمای تولیدی.
همکاری HPE با Danfoss دقیقاً بر بازیافت گرما متمرکز است: ترکیب دیتاسنترهای ماژولار با فناوری بازیافت حرارت برای کاهش مصرف انرژی و تزریق گرمای مازاد به شبکههای گرمایش شهری یا کاربردهای صنعتی. خنکسازی مایع مستقیم میتواند مصرف انرژی را تا ۲۰٪ کاهش دهد. این رویکرد PUE را به حدود ۱.۱ میرساند و با بهبود ERF، حتی امکان درآمدزایی از قراردادهای برداشت گرما را فراهم میکند.
شبکه بهمثابه سیستم گردش خون
بارهای کاری AI جابهجایی عظیم داده میان لبه، خوشههای آموزش و برنامههای پاییندست را با قیود سخت تأخیر میطلبند. شبکههای امن و آماده AI با AIOps و شبکهسازی مبتنی بر نیت، گلوگاهها را برطرف میکنند: اتصال پرسرعت درون دیتاسنتر برای خوشههای GPU و مسیریابی هوشمند میان لبه و مرکز—همراه با کنترلهای امنیتی برای محیطهای توزیعشده.
بهگفته استرانگ، راهحل صرفاً «پهنایباند بیشتر» نیست؛ بلکه توازن تصمیمگیری میان لبه و مرکز است. در پروژهای ماهوارهای، پردازش نزدیک ایستگاههای رله و ارسال فقط داده لازم، کلید موفقیت بود.
خودکارسازی عملیات با AI
کارخانه AI را نمیتوان با دستورالعملهای دیروز اداره کرد. هدف روشن است: عملیات روزمره با کمترین دخالت انسانی. این به پلتفرمهای مشاهدهپذیری و AIOps نیاز دارد که پایش مداوم انجام دهند، خرابیها را پیشبینی کنند و بارها را پیشدستانه جابهجا کنند.
«اصل ماجرا نگهداشت پیشگیرانه است»، استرانگ میگوید. «میخواهیم مهندسان روی خلق کاربردهای هوش مصنوعی و آمادهسازی سازمان برای آینده تمرکز کنند، نه خاموشکردن آتش زیرساخت.»











ارسال دیدگاه