رک‌های تراشه‌های هوش مصنوعی بیش از حد سنگین‌اند

دیتاسنترهای قدیمی از نظر فیزیکی توان تحمل ردیف‌های طولانی GPU را ندارند؛ موضوعی که یکی از دلایل اصلی موج ساخت دیتاسنترهای عظیم مخصوص هوش مصنوعی است.

در بازه‌ای حدود ۱۵ ساله، از سال ۲۰۱۰ تا پایان ۲۰۲۴، تعداد دیتاسنترها در ایالات متحده چهار برابر شده است. این روند در سطح جهانی نیز کم‌وبیش مشابه است: دیتاسنترهای بیشتر، بزرگ‌تر و پرظرفیت‌تر. طبق داده‌های مؤسسه Uptime Institute، تنها در چهار سال گذشته، مجموعاً ۳۷۷ پروژه ساخت دیتاسنتر با ظرفیت بیش از ۱۰۰ مگاوات اعلام شده است.

اما پیش از آنکه شتاب تب‌آلود غول‌های فناوری برای افزایش توان پردازشی (که فعالان محیط‌زیست چندان با آن موافق نیستند) را بدیهی بدانیم، بد نیست به یک گزینه دیگر فکر کنیم: استفاده از زیرساخت‌های موجود. آیا می‌توان دیتاسنترهای فعلی را برای پاسخ‌گویی به نیازهای فناوری‌های جدید، به‌ویژه هوش مصنوعی، بازطراحی و به‌روزرسانی کرد؟ شاید این موج ساخت‌وساز ضروری نباشد؛ شاید همین تأسیسات موجود، با کمی ارتقا، کافی باشند.

این پرسش را با متخصصان دیتاسنتر در میان گذاشتم و پاسخ تقریباً یکسان بود: نه، دیتاسنترهای فعلی به‌سادگی قابل تبدیل به «کارخانه‌های هوش مصنوعی» نیستند. مشکل، کاملاً فیزیکی است؛ دیتاسنترهای قدیمی توان تحمل وزن فناوری‌های جدید هوش مصنوعی را ندارند. رک‌هایی که میزبان تراشه‌ها و GPUها هستند، آن‌قدر سنگین شده‌اند که کف دیتاسنترهای قدیمی زیر بار آن‌ها ترک برمی‌دارد.

کریس براون، مدیر فنی Uptime Institute، وضعیت را این‌گونه خلاصه می‌کند: «می‌توان دیتاسنترهای قدیمی را تا حدی بازسازی کرد، اما نه در حدی که نیاز بسیاری از این کارخانه‌های هوش مصنوعی را برآورده کند.» به گفته او، بخش‌های کوچکی از دیتاسنترهای کوچک ممکن است برای بارهای پردازشی محدودِ مبتنی بر هوش مصنوعی — مثلاً برای یک شرکت بزرگ — مناسب باشند، اما «در اغلب موارد، معنایش این است که ساختمان را خراب کنیم و از صفر بسازیم.»

مشکل اصلی، وزن رک‌های هوش مصنوعی است. رک‌ها همان کابینت‌های فلزی هستند که سرورها و تراشه‌ها را در خود جای می‌دهند. حدود ۳۰ سال پیش، در ابتدای فعالیت حرفه‌ای براون، وزن هر رک به‌طور میانگین بین ۴۰۰ تا ۶۰۰ پوند بود؛ چیزی در حد یک یخچال خانگی یا نهایتاً یک پیانوی کوچک. امروز اما وزن رک‌ها معمولاً بین ۱۲۵۰ تا ۲۵۰۰ پوند است؛ از یک خرس گریزلی تا وزن یک خودروی تویوتا پریوس. رک‌های تخصصی هوش مصنوعی حتی از این هم سنگین‌ترند و به گفته براون، وزن آن‌ها در آینده به حدود ۵۰۰۰ پوند خواهد رسید.

این افزایش وزن ناشی از فشرده‌سازی شدید تجهیزات الکترونیکی در رک‌هاست. فاصله میان GPUها هرچه کمتر باشد، انتقال داده سریع‌تر انجام می‌شود و آموزش مدل‌های هوش مصنوعی با اتلاف محاسباتی کمتری صورت می‌گیرد. رک‌های جدید با چگالی بالا، مملو از حافظه (که به کاهش عرضه جهانی RAM هم دامن زده) و صدها تا حتی هزار GPU هستند. در حالی که حدود یک دهه پیش، مصرف توان هر رک به‌طور متوسط ۱۰ کیلووات بود، رک‌های هوش مصنوعی امروز تا ۳۵ برابر بیشتر، یعنی حدود ۳۵۰ کیلووات مصرف می‌کنند. به گفته براون: «تا جایی که ممکن است همه‌چیز را در هر رک جا می‌دهند و رک‌ها را هم تا حد ممکن به هم نزدیک می‌کنند.»

مصرف برق بیشتر، به‌معنای تولید گرمای بیشتر است؛ گرمایی که باید قبل از ذوب شدن تراشه‌ها یا وقوع آتش‌سوزی دفع شود. خنک‌سازی با هوا جای خود را به سیستم‌های خنک‌کننده مایع داده است؛ مایعاتی که اغلب ترکیبی آب‌مانند و گاه سمی دارند. هر گالن آب بیش از ۸ پوند وزن دارد. کابل‌ها و باس‌وی‌ها را هم نباید فراموش کرد؛ مسیرهای مسی انتقال برق که در رک‌های مدرن ضخیم‌تر شده‌اند و به گفته براون، هر فوت آن‌ها حدود ۳۷ پوند وزن دارد.

براون تأکید می‌کند که مجموع وزن پردازنده‌ها، حافظه‌ها، تجهیزات خنک‌سازی و زیرساخت انتقال برق، فراتر از توان سازه‌ای دیتاسنترهای قدیمی است. بسیاری از این مراکز دارای کف کاذب هستند که حداکثر توان تحمل بار ثابت آن‌ها حدود ۱۲۵۰ پوند بر هر فوت مربع است. این در حالی است که بارهای دینامیک (مثل جابه‌جایی یک رک روی کف) نیازمند تحمل وزن به‌مراتب بیشتری هستند.

حتی اگر کف تقویت شود، مشکلات هندسی همچنان باقی است. کریس مک‌لین، رئیس شرکت Critical Facility Group، می‌گوید در دو دهه گذشته ارتفاع رک‌ها از ۶ فوت به ۹ فوت رسیده است؛ بلندتر از چهارچوب درهای صنعتی قدیمی. آسانسورهای باری هم اغلب توان تحمل وزن این رک‌های عظیم، تجهیزات جابه‌جایی آن‌ها و نیروی انسانی را ندارند.

به همین دلیل، شرکت‌های بزرگ فناوری در حال ساخت دیتاسنترهای جدید مخصوص هوش مصنوعی هستند. و زمانی که ظرفیت مراکز اختصاصی آن‌ها پر می‌شود، به سراغ دیتاسنترهای اجاره‌ای شرکت‌هایی مانند CoreWeave یا Digital Realty می‌روند؛ شرکت‌هایی که خودشان در حال ساخت مراکز جدید مبتنی بر هوش مصنوعی‌اند. به گفته براون، «در دو سال اخیر، عامل اصلی این رشد انفجاری، بلعیده شدن همه‌چیز توسط هوش مصنوعی بوده است.»

با این حال، نباید فراموش کرد که پردازش‌های غیرهوش مصنوعی همچنان وجود دارند و حتی در حال افزایش‌اند. دیتاسنترهای سنتی همچنان برای دانشگاه‌ها، بیمارستان‌ها، شرکت‌های متوسط و شهرداری‌ها حیاتی هستند. همان‌طور که مک‌لین می‌گوید، «همه این‌ها هنوز به دیتاسنترهای سنتی نیاز دارند. این نوع دیتاسنترها هرگز از بین نخواهند رفت.»