La refrigeración líquida por inmersión consiste en sumergir el servidor cubierto con densos hilos rojos y amarillos en un líquido similar al agua, solo que el líquido no es agua corriente, sino un refrigerante aislante especial, y el calor generado en el cálculo del servidor es absorbido por el refrigerante y luego entra en el ciclo de refrigeración externo.
El consumo de energía de un centro de datos se compone aproximadamente de equipos de comunicación y red, sistema de suministro y distribución de energía, iluminación y equipos auxiliares, y sistema de refrigeración, de los cuales la parte de refrigeración representa aproximadamente el 40% del consumo total de energía del centro de datos.
En el pasado, la refrigeración por aire se ha utilizado ampliamente debido a su bajo costo y simple implementación. Sin embargo, en los últimos años, con el auge de la computación de alta densidad, el rendimiento de los chips y servidores y la densidad de potencia por gabinete individual continúan mejorando, la refrigeración líquida sumergida comenzó a ser favorecida.
En los primeros días, los centros de datos aún solo podían depender de unas pocas computadoras centrales para completar los cálculos de datos locales, lo que no solo no podía realizar computación distribuida, sino que tampoco podía proporcionar servicios al mundo exterior. No fue hasta mediados de la década de 1990 que Internet surgió y tuvo un gran impacto en el mercado. Con la demanda de las empresas de apoyar las aplicaciones comerciales de Internet, los centros de datos fueron aceptados como un modelo de servicio para la mayoría de las empresas.
Después de 2010, con el auge de la tecnología de computación en la nube, los centros de datos en la nube han vuelto gradualmente a la palestra. En comparación con los anteriores, la infraestructura de los centros de datos en la nube está más escalada, estandarizada e inteligente, con menores costos de construcción y más servicios prestados.
Mirando hacia atrás en la historia del desarrollo de los centros de datos, es fácil ver que los datos se han convertido gradualmente en un nuevo factor de producción, y su importancia para el desarrollo de la productividad está en constante aumento.
Como todos sabemos, el portador del centro de datos es un equipo de TI, y la potencia de cálculo de todos los equipos de TI está determinada por el chip. Desde el punto de vista actual, el consumo de energía de los chips principales de todo el servidor está creciendo, e incluso en los últimos años ha habido una pendiente considerable hacia arriba. A medida que la potencia del chip del servidor crece de 100W, 200W a 350W, 400W, el consumo de energía del servidor se duplicará, lo que determina que la densidad de potencia por gabinete individual crezca de los primeros 4KW, 6KW a 15KW a 20KW.
Obviamente, bajo tal tendencia, el método tradicional de refrigeración por aire ya no puede satisfacer las necesidades de disipación de calor y refrigeración de los centros de datos. Actualmente, la tecnología de refrigeración por aire todavía se utiliza a gran escala. A medida que continuamos mejorando la tecnología de refrigeración por aire, como aumentar su volumen, área, tecnología de tubos de calor y varias tecnologías avanzadas, así como realizar varias optimizaciones a nivel del centro de datos con el nivel de rack y nodos, el PUE del centro de datos también se puede reducir a aproximadamente 1.2. Pero luego también descubrimos que incluso con todas estas optimizaciones, hasta el 20% del consumo de energía todavía se desperdicia en la refrigeración y el mantenimiento del centro de datos, más el consumo de energía de los ventiladores del sistema. Esto aún no es ideal para el objetivo de reducción de carbono.