Selama bertahun-tahun, kisah tentangpusat datapenggunaan tenaga mengikuti arka yang boleh diramal. Pendigitalan semakin berkembang, pasti, tetapi keuntungan kecekapan daripada pelayan yang lebih baik, virtualisasi dan penyatuan awan mengekalkan jumlah penggunaan elektrik secara mengejutkan. Permintaan kuasa pusat data global berlegar sekitar 1 peratus daripada jumlah penggunaan elektrik - kira-kira 200 terawatt-jam setiap tahun - untuk bahagian yang lebih baik dalam satu dekad.
Zaman itu sudah berakhir.
Penumpuan AI generatif, perlombongan mata wang kripto, pengkomputeran tepi, dan pertumbuhan eksponen peranti bersambung telah memecahkan keluk kecekapan lama. Anggaran industri kini menunjukkan permintaan kuasa pusat data berkembang pada kadar tahunan yang tidak dilihat sejak awal 2000-an. Di sesetengah wilayah — Ireland, Virginia Utara, Singapura — pusat data sudah menyumbang 15 hingga 25 peratus daripada jumlah penggunaan elektrik, memaksa pengawal selia untuk mengenakan moratorium ke atas pembinaan baharu.
Berdasarkan latar belakang ini, pilihan infrastruktur yang pernah kelihatan seperti butiran teknikal — seni bina penyejukan, topologi pengagihan kuasa, perancangan ketumpatan rak — telah menjadi keputusan bilik lembaga pengarah. Kos tenaga bukan lagi item baris. Ia adalah kekangan kepada pertumbuhan.
Keberkesanan Penggunaan Kuasa, atau PUE, telah menjadi metrik kecekapan piawai industri pusat data selama hampir dua dekad. Ia adalah nisbah mudah: jumlah kuasa kemudahan dibahagikan dengan kuasa peralatan IT.
PUE 2.0 bermakna bahawa untuk setiap pelayan dan storan yang menjana kuasa watt, watt lain pergi ke penyejukan, pencahayaan, kehilangan penukaran kuasa dan overhed lain. PUE 1.2 bermakna overhed menggunakan hanya 0.2 watt setiap watt IT.
Industri ini telah menerima peringkat secara meluas berdasarkan PUE:
| Tahap | PUE | DCiE | Maksudnya |
|---|---|---|---|
| Platinum | <1.25 | >0.80 | Kecekapan bertaraf dunia, biasanya memerlukan penyejukan percuma atau penyejukan cecair |
| emas | 1.25 – 1.43 | 0.70 – 0.80 | Sangat cekap, boleh dicapai dengan reka bentuk moden dalam iklim sederhana |
| Perak | 1.43 – 1.67 | 0.60 – 0.70 | Boleh diterima untuk kemudahan yang lebih lama atau iklim yang lebih panas |
| Gangsa | 1.67 – 2.00 | 0.50 – 0.60 | Lazim untuk pusat data lama tanpa pengubahsuaian utama |
| Adil | 2.00 – 2.50 | 0.40 – 0.50 | Kecekapan yang lemah, kos operasi yang tinggi |
| miskin | >2.50 | <0.40 | Ketidakcekapan kritikal, berkemungkinan memerlukan perhatian segera |
Masalahnya ialah banyak organisasi sebenarnya tidak mengetahui PUE mereka. Mereka menganggarkan. Mereka meneka. Atau mereka mengukur hanya pada meter utiliti utama dan menganggap selebihnya.
Tinjauan industri 2023 mendapati bahawa hampir 40 peratus pengendali pusat data tidak pernah mengukur PUE pada tahap rak. Di antara mereka yang melakukannya, sebaran antara PUE yang dilaporkan dan sebenar adalah purata 0.3 mata — cukup untuk memindahkan kemudahan daripada Emas ke Perak tanpa disedari oleh sesiapa.
Memahami sebab PUE berbeza secara meluas bermula dengan melihat di mana kuasa meninggalkan pusat data.
Dalam kemudahan sejuk udara biasa dengan PUE sekitar 1.8, pecahan kelihatan lebih kurang seperti ini:
Beban penyejukan adalah pembolehubah terbesar. Kemudahan dalam iklim sederhana menggunakan udara luar untuk penyejukan percuma mungkin membelanjakan hanya 15 peratus daripada kuasa bukan ITnya untuk penyejukan. Kemudahan yang sama dalam iklim tropika dengan penyejukan mekanikal sepanjang tahun mungkin membelanjakan 40 peratus.
Inilah sebabnya mengapa penyedia colocation mengiklankan PUE di peringkat kemudahan tetapi menghantar PUE pada meter pelanggan — nombor berbeza, implikasi berbeza. Pelanggan membayar semua itu.
Pengurusan pusat data tradisional menganggap persekitaran yang agak statik. Rak telah diisi selama berbulan-bulan atau bertahun-tahun. Penyejukan boleh dilaraskan perlahan-lahan. Pengagihan kuasa terlalu besar dari hari pertama.
Era awan mengubah andaian. Rak kini mengisi hari. Beban kerja beralih merentas pelayan secara automatik. Kelompok AI berketumpatan tinggi mungkin menarik tiga kali ganda kuasa rak pengiraan tujuan am bersebelahan.
Perubahan ini telah memaksa pemikiran semula pengurusan infrastruktur. Tiga trend menonjol.
Pertama, ketumpatan meningkat secara tidak sekata.Rak pelayan standard sedekad lalu menghasilkan 5-8 kilowatt. Hari ini, rak serba guna menarik 10-15 kilowatt. Rak latihan pengkomputeran dan AI berprestasi tinggi secara rutin melebihi 30 kilowatt setiap rak. Ada yang melebihi 50 kilowatt.
Ini mewujudkan cabaran pengurusan terma yang sukar diselesaikan oleh penyejukan udara. Pada 20 kilowatt setiap rak, penyejukan udara kekal berkesan dengan pembendungan yang betul. Pada 30 kilowatt, ia menjadi marginal. Pada 40 kilowatt dan ke atas, penyejukan cecair bergerak daripada pilihan kepada perlu.
Kedua, perancangan kapasiti telah menjadi ramalan.Kaedah lama — beli kapasiti lebih daripada yang diperlukan dan biarkan ia terbiar — tidak lagi berfungsi pada skala. Kapasiti terbiar mempunyai kedua-dua kos modal dan kos penyelenggaraan berterusan.
Sistem pengurusan infrastruktur moden menggunakan data sejarah dan ramalan beban kerja untuk meramalkan masa kuasa, penyejukan atau ruang rak akan kehabisan. Sistem terbaik boleh mengesyorkan sama ada untuk mengkonfigurasi semula kapasiti sedia ada atau memesan perkakasan baharu, hari atau minggu sebelum kekangan menjadi kritikal.
Ketiga, keperluan keterlihatan mempunyai expanded.Pusat data tradisional mungkin menjejaki kuasa pada tahap PDU. Kemudahan moden memerlukan keterlihatan pada tahap rak, kadangkala pada tahap pelayan, dan semakin pada tahap beban kerja — mengetahui mesin atau kontena maya yang memacu kuasa mana.
Infrastruktur Pusat DataPerisian Pengurusan (DCIM) telah wujud selama lebih sedekad, tetapi penggunaan tetap tidak sekata. Kurang daripada separuh pusat data perusahaan telah menggunakan sistem DCIM penuh. Ramai yang menggunakan hanya sebahagian kecil daripada keupayaannya.
Sistem DCIM yang dilaksanakan dengan betul melakukan empat perkara:
Pengurusan aset.Setiap pelayan, suis, PDU dan unit penyejukan dijejaki dalam pangkalan data pengurusan konfigurasi (CMDB). Lokasi, penarafan kuasa, sambungan rangkaian, sejarah penyelenggaraan — semuanya. Ini kedengaran asas, tetapi banyak organisasi masih menjejaki aset dalam hamparan yang berbulan-bulan antara kemas kini.
Pemantauan masa nyata.Cabutan kuasa pada tahap PDU atau rak, suhu dan kelembapan pada titik bekalan dan pulangan, status sistem penyejukan, kesihatan bateri UPS. Penggera dicetuskan apabila parameter menyimpang dari titik set. Matlamatnya adalah untuk mengesan masalah sebelum ia menyebabkan masa henti.
Perancangan kapasiti.Sistem ini mengetahui jumlah kuasa dan kapasiti penyejukan yang tersedia, jumlah yang sedang digunakan dan jumlah yang dikhaskan untuk penggunaan masa hadapan. Ia boleh memodelkan kesan penambahan rak berketumpatan tinggi baharu atau menamatkan set pelayan lama.
Visualisasi.Kembar digital pusat data — rak demi rak, jubin demi jubin — menunjukkan keadaan semasa dan membolehkan pengendali mensimulasikan perubahan. Menambah 10 kilowatt beban ke baris ketiga, lajur empat: adakah itu melebihi kapasiti penyejukan? Sistem menjawab sebelum sesiapa memindahkan peralatan.
Pemotongan penggunaan tenaga pusat data bukanlah sesuatu yang misteri. Kaedahnya difahami dengan baik. Cabarannya ialah disiplin pelaksanaan.
Naikkan suhu udara bekalan.Kebanyakan pusat data berjalan sejuk — 18 hingga 20 darjah Celsius pada unit penyejukan kembali — kerana itulah yang selalu dilakukan oleh pengendali. Garis panduan ASHRAE kini mengesyorkan 24 hingga 27 darjah. Setiap kenaikan darjah mengurangkan tenaga penyejukan sebanyak kira-kira 4 peratus. Berjalan pada 26 darjah dan bukannya 20 darjah menjimatkan 20-25 peratus kuasa penyejukan.
Hilangkan percampuran udara panas dan sejuk.Pembendung lorong panas, pembendungan lorong sejuk atau saluran ekzos menegak memaksa udara penyejuk pergi ke tempat yang diperlukan dan bukannya berbasikal pendek melalui hadapan rak. Pembendungan sahaja biasanya mengurangkan tenaga penyejukan sebanyak 15-25 peratus.
Gunakan pemacu kelajuan berubah-ubah.Kipas dan pam berkelajuan malar membuang tenaga pada beban separa. Pemacu kelajuan berubah memadankan aliran udara dan aliran air dengan permintaan sebenar. Tempoh bayaran balik retrofit biasanya 1-3 tahun.
Optimumkan operasi UPS.Kebanyakan sistem UPS berjalan dalam mod penukaran dua kali secara berterusan — menukar AC kepada DC dan kembali kepada AC walaupun kuasa utiliti bersih. Sistem UPS moden boleh bertukar kepada mod eko apabila kualiti kuasa membenarkan, mencapai kecekapan 99 peratus dan bukannya 94-96 peratus. Tukar ganti ialah masa pemindahan singkat ke bateri jika kuasa utiliti gagal. Untuk beban IT dengan bekalan kuasa yang direka untuk pemindahan sedemikian, risikonya adalah minimum.
Gunakan pengagihan voltan lebih tinggi.Pengagihan kuasa pada 415V dan bukannya 208V mengurangkan kerugian pengagihan sebanyak kira-kira 25 peratus. Ini memerlukan PDU dan bekalan kuasa pelayan yang serasi, tetapi banyak peranti moden menyokongnya.
Syarikat Shanghai CPSY, perusahaan berteknologi tinggi dengan tumpuan pada infrastruktur pusat data, melaporkan PUE sebanyak 1.3 untuk penyelesaian pusat data modularnya. Ini meletakkan syarikat itu dalam peringkat Emas, bergerak ke arah Platinum.
Penjimatan tenaga sebanyak 25 peratus yang didakwa berbanding reka bentuk konvensional datang daripada pelbagai faktor. Sistem UPS modular dengan kecekapan 97.4 peratus pada tahap sistem mengurangkan kerugian pengedaran yang sebaliknya berjalan 15-20 peratus. Penghawa dingin ketepatan dengan pemampat kelajuan berubah-ubah dan kipas EC melaraskan output penyejukan agar sepadan dengan beban haba sebenar dan bukannya berjalan pada kapasiti tetap. Dan susun atur fizikal — pembendungan lorong panas, jarak rak yang optimum, lantai yang dinaikkan dengan jubin berlubang bersaiz betul — menangani pengurusan aliran udara yang menjejaskan banyak kemudahan sebaliknya yang cekap.
Portfolio pensijilan syarikat termasuk ISO 9001 (pengurusan kualiti) dan ISO 27001 (pengurusan keselamatan maklumat). Penggunaan pelanggannya termasuk perkongsian dengan Huawei, ZTE dan Inspur, dengan pemasangan eksport di Amerika Syarikat, United Kingdom, Jerman, Perancis dan Australia.
Selama bertahun-tahun, penyejukan cecair adalah teknologi khusus untuk pusat superkomputer. Itu berubah dengan cepat.
Kelompok latihan AI menggunakan NVIDIA H100 atau GPU B200 akan datang menjana 30-50 kilowatt setiap rak dalam konfigurasi penyejukan udara semata-mata. Pada ketumpatan ini, penyejukan udara memerlukan kadar aliran udara yang tinggi - kipas yang kuat, rak dalam dan kawalan haba yang masih kecil.
Penyejukan cecair terus ke cip mengeluarkan 60-80 peratus haba pada sumber. Cip berjalan lebih sejuk. Peminat berjalan lebih perlahan. Penghawa dingin bilik hanya mengendalikan baki haba daripada bekalan kuasa, memori dan komponen lain.
Keuntungan kecekapan adalah besar. Kemudahan dengan penyejukan terus-ke-cip melaporkan nilai PUE 1.1 hingga 1.2. Ganti rugi adalah kos modal yang lebih tinggi, pengurusan kebocoran yang lebih kompleks, dan keperluan untuk rawatan air gred kemudahan.
Penyejukan rendaman penuh — menenggelamkan seluruh pelayan dalam cecair dielektrik — menolak PUE di bawah 1.1 tetapi kekal khusus. Kebanyakan pusat data komersial akan menggunakan penyejukan terus ke cip dahulu, rendaman kemudian untuk zon berketumpatan tinggi tertentu.
Platform pusat data SHANGYU termasuk peruntukan untuk kedua-dua seni bina penyejukan udara dan cecair, dengan menyedari bahawa penggunaan berketumpatan tinggi pada masa hadapan akan memerlukan pengurusan haba berasaskan bendalir tanpa mengira reka bentuk kemudahan.
Kebanyakan pasukan operasi pusat data masih berfungsi secara reaktif. Penggera berbunyi. Seseorang menyiasat. Pembetulan digunakan. Kitaran berulang.
Peralihan kepada pengurusan ramalan memerlukan tiga keupayaan yang tidak dimiliki oleh banyak organisasi.
Data konfigurasi lengkap.Mengetahui apa yang ada di pusat data — setiap pelayan, setiap suis, setiap PDU, setiap unit penyejukan — adalah asasnya. Tanpa data CMDB yang tepat, perancangan kapasiti adalah tekaan.
Telemetri berbutir.Pengukuran kuasa aras rak adalah minimum. Pengukuran kuasa setiap pelayan adalah lebih baik. Atribusi kuasa tahap beban kerja adalah yang terbaik tetapi paling sukar untuk dicapai.
Analitis yang membezakan isyarat daripada hingar.Peningkatan suhu pada satu rak mungkin bermakna kipas gagal. Peningkatan suhu merentasi separuh pusat data mungkin bermakna kegagalan penyejuk. Sistem perlu membezakan dan mengesyorkan respons dengan sewajarnya.
Platform DCIM daripada SHANGYU menyediakan sokongan peranti SNMP dan Modbus, antara muka aplikasi berasaskan web dan Windows serta penyepaduan dengan kamera rangkaian untuk pengimejan yang dicetuskan oleh peristiwa. Matlamat yang dinyatakan adalah mudah: mengurangkan masa henti yang mahal, mengurangkan kos operasi harian melalui kawalan alam sekitar yang lengkap, dan meningkatkan keterlihatan dan kebolehkesanan pengurusan.
Penggunaan tenaga pusat data menyumbang kira-kira 1 peratus daripada permintaan elektrik global. Nombor itu kedengaran kecil sehingga dimasukkan ke dalam konteks. Ia lebih kurang bersamaan dengan jumlah penggunaan elektrik di United Kingdom.
Lebih penting lagi, kadar pertumbuhan semakin pesat. Unjuran industri menunjukkan permintaan kuasa pusat data meningkat pada 10-15 peratus setiap tahun hingga 2030, didorong oleh AI, penggunaan awan dan pengembangan berterusan peranti yang disambungkan. Pada kadar itu, pusat data akan menggunakan 3-4 peratus tenaga elektrik global menjelang akhir dekad.
Keuntungan kecekapan yang mengekalkan penggunaan kuasa rata untuk dekad sebelumnya datang daripada virtualisasi pelayan (mengurangkan kiraan pelayan fizikal), kecekapan pemacu yang dipertingkatkan (bergerak daripada cakera berputar ke SSD), dan penggunaan luas penyejukan percuma (menggunakan udara luar dan bukannya penyejukan mekanikal). Buah-buahan yang tergantung rendah itu sebahagian besarnya telah dipetik.
Gelombang kecekapan seterusnya akan datang daripada penyejukan cecair, pengedaran voltan lebih tinggi, kawalan penyejukan yang dioptimumkan AI, dan - mungkin yang paling penting - penjajaran yang lebih baik antara kapasiti infrastruktur dan beban IT sebenar. Bahagian terakhir itu memerlukan jenis keterlihatan masa nyata dan analitik ramalan yang disediakan oleh sistem DCIM tetapi beberapa kemudahan digunakan sepenuhnya.
Adakah anda tahu PUE sebenar anda, bukan nombor pada helaian spesifikasi?Jika anda tidak mengukur pada output UPS dan pada input peralatan IT, anda tidak tahu. Perbezaannya adalah overhed sebenar anda.
Adakah sistem penyejukan anda berlawan antara satu sama lain?Dalam kebanyakan pusat data, unit CRAC ditetapkan dengan jalur suhu dan kelembapan yang bertindih. Satu unit melembapkan manakala satu lagi melembapkan. Satu sejuk manakala satu lagi dipanaskan semula. Ini bukan perkara luar biasa. Ia juga tidak cekap.
Apakah cabutan kuasa terbiar pelayan anda?Data industri menunjukkan bahawa pelayan perusahaan biasa menarik 30-40 peratus kuasa puncak mereka apabila tidak melakukan apa-apa. Mematikan atau mematikan pelayan yang tidak digunakan ialah ukuran kecekapan ROI tertinggi yang tersedia. Ia juga yang paling terlepas pandang.
Bolehkah anda menaikkan suhu udara bekalan anda sebanyak dua darjah tanpa melanggar spesifikasi peralatan?Kemungkinan ya. Kebanyakan peralatan dinilai untuk suhu pengambilan 25-27 darjah. Kebanyakan pusat data berjalan pada 20-22 darjah. Jurang enam darjah itu mewakili tahun tenaga penyejukan yang tidak diperlukan.
Bilakah kali terakhir anda mengesahkan kecekapan UPS anda?Kecekapan papan nama diukur pada beban penuh dengan faktor kuasa yang sempurna. Kecekapan dunia sebenar pada beban separa dengan faktor kuasa dunia sebenar boleh menjadi 5-10 mata lebih rendah.