La evolución de los centros de datos, a debate: visión de futuro y sostenibilidad
En una mesa redonda organizada por la revista Comunicaciones Hoy junto a SpainDC, representantes de compañías clave en el ecosistema de centros de datos — Luis Casero, Manager Global de Marketing de Producto en Vertiv; Óscar Bermúdez, responsable de Proyecto e Ingeniería en Socomec; Raquel Figueruelo, directora de Marketing y Desarrollo de Negocio en Digital Realty; Lorenzo Castillo, Chief Operation Officer en Templus, y Rubén García, Data Center Sales Director South Europe en Rittal — coincidieron, junto a Armando Layna como moderador, que la Península Ibérica reúne condiciones únicas para liderar la economía digital en Europa. Sin embargo, alertaron sobre la urgencia de actualizar las infraestructuras de distribución eléctrica y los marcos regulatorios para acompañar un crecimiento que ya no es potencial, sino real.
La Península Ibérica ha emergido como un destino clave para el desarrollo de centros de datos y nubes, atrayendo a la industria tecnológica debido a sus condiciones excepcionales. Armando Layna, profesional con más de 30 años en el entorno de los centros de datos y uno de los promotores de la asociación SpainDC, asociación que agrupa a 225 compañías del sector, destacó la importancia de España como una ubicación estratégica, lanzando a los participantes de la mesa redonda la pregunta de cuales son, desde su visión y experiencia, los factores determinantes para que así sea.
Raquel Figuerelo, de Digital Realty, respondió a esta cuestión subrayando que hay cuatro pilares clave que sostienen el crecimiento de un hub digital en la Península. “En primer lugar, la creciente demanda de servicios digitales por parte de la población exige infraestructuras que la sustenten. En segundo lugar, contamos con una excelente red troncal de telecomunicaciones. Tercero, la gran cantidad de datos generados, nuestro 'PIB digital', sigue creciendo de manera exponencial. Y, por último, los cables submarinos que conectan la región con otros continentes”, explicó, destacando que estos factores, junto con una infraestructura física bien conectada, son los que realmente impulsan la construcción de centros de datos.
Por su parte, Lorenzo Castillo comentó que las condiciones excepcionales de la Península Ibérica, como una red de telecomunicaciones capilar, son cruciales para la expansión de los centros de datos. “La liberalización de las telecomunicaciones permitió que pequeñas operadoras llegaran a zonas remotas, lo que nos ha permitido tener redes de alta y baja velocidad en todo el país”, comentó Castillo. Además, mencionó la necesidad creciente de descentralizar los datos de los grandes núcleos como Madrid y la importancia de las políticas europeas de conectividad, como la Agenda 2020.
Durante el debate también se abordaron los retos relacionados con la distribución de la energía. Luis Casero, de Vertiv, señaló que España no enfrenta un problema de generación energética, sino de transición y distribución. “El mix energético nacional es excelente, con un 50% de renovables y momentos en los que se cubre el 100% de la demanda. Esta situación favorece a los operadores para cumplir sus objetivos de sostenibilidad”, indicó Casero, resaltando también el papel fundamental de las asociaciones sectoriales como SpainDC.
En este sentido, Óscar Bermúdez, de Socomec, añadió que, a pesar de la abundancia de energía, el desafío sigue siendo la infraestructura para distribuirla de manera eficiente. “Hoy en día, hay una gran expansión de centros de datos hacia regiones como Aragón, Cataluña, el norte y el sur del país, más allá de Madrid”, señaló Bermúdez, destacando también la creciente importancia de la ciberseguridad y la seguridad física en el contexto de la evolución tecnológica.
Por su parte, Rubén García, desde Rittal, mostró su acuerdo con los factores señalados, alertando que la capacidad de distribución de energía es uno de los mayores retos para el crecimiento sostenido del sector. “Sin una infraestructura adecuada para abastecer de energía a los centros de datos, no podremos seguir desarrollándonos al ritmo que requiere el mercado digital”, afirmó Rubén.
Generación de empleo
Raquel Figuerelo puso sobre la mesa el hecho de que muchas veces se tacha a los centros de datos, por parte de los políticos, de no generar empleo. “Los centros de datos no son solo almacenes pasivos. Son infraestructuras críticas que habilitan la economía digital, y su impacto no se mide solo por los empleos directos, sino por el valor que generan a nivel global”, concluyó, enfatizando la importancia de entender la relevancia estratégica de los centros de datos en el tejido económico y digital de la Península.
En este sentido, Armando Layna subrayó el fuerte impacto económico y laboral de la industria del data center en España. “Si no existieran los centros de datos, no se crearían empleos”, afirmó con rotundidad. Según sus estimaciones, considerando empleos directos, indirectos e inducidos, la actividad relacionada con los centros de datos genera más de 500.000 puestos de trabajo en el país.
En cuanto a la toma de decisiones de inversión, Layna destacó un cambio significativo en los criterios de los grandes operadores: “Antes lo primero era la potencia, luego la conectividad... ahora lo primero es el suelo, especialmente el suelo grande, porque las grandes tecnológicas necesitan proyectos dimensionados a muchos años vista”. Señaló que estas empresas “valen por lo que son capaces de ofrecer a futuro”, del mismo modo que un CIO no sabe cómo serán sus servidores dentro de cinco años y prefiere cubrirse con la tecnología más avanzada del momento.
El compromiso del sector con la sostenibilidad también fue objeto de reflexión. “Queremos ser buenos vecinos y aportar valor a la sociedad, incluso compensando los inconvenientes que pueda generar un data center, como el calor residual”, explicó. En ese sentido, están proliferando diseños que permiten la recuperación de calor para su uso en centros de consumo, en línea con los objetivos de la Agenda 2030. Además, remarcó que España es ya una de las cinco mejores regiones del mundo en conectividad, lo que explica el creciente interés internacional.
Raquel Figuerelo ofreció una visión retrospectiva de la evolución del sector: “MAD1 (4 megavatios), nuestro primer centro de datos en Madrid, tardó 12 años en llenarse. MAD2 (2 megavatios), seis. MAD3 (6 megavatios), tres años. Y MAD4, que tiene 30 megavatios, apenas ha tardado año y medio y ya estamos ampliando”. Como explicó, este crecimiento está vinculado a la evolución de la demanda y al papel cada vez más relevante de los grandes operadores cloud, cuyos nodos de red son la infraestructura que más crece año a año.
Sobre el futuro de la interconexión, apuntó que “todo el mundo habla de IA, pero la IA no es más que una evolución del cloud computing, una evolución natural de los servicios digitales”. En esa línea, Digital Realty sigue apostando por ampliar sus infraestructuras existentes y desarrollar nuevas, como es el caso de Barcelona, donde están impulsando un nuevo nodo para diversificar las redes de telecomunicaciones y reforzar el papel internacional de la ciudad como punto de llegada de cables submarinos. Raquel subrayó que esta estrategia debe verse en clave ibérica, con Madrid, Barcelona y Lisboa como tres vértices esenciales de un mismo triángulo.
Armando coincidió en esta visión y añadió un matiz: “España no compite entre regiones, compite contra países de nuestro entorno como Italia, que nos ha adelantado en algunos aspectos por una menor burocracia”. Reivindicó, en este sentido, una mayor colaboración institucional: “Si queremos que vengan grandes empresas, hay que preparar el terreno, y los políticos tienen que ayudarnos”.
En el debato se abordó también el auge del Edge computing y la necesidad de capilaridad territorial. Según Lorenzo Castillo, el objetivo de Templus es llegar este año a 20 centros de datos en operación en la península ibérica: “Eso es el Edge para nosotros. Queremos que el usuario tenga la misma experiencia esté donde esté, y para ello consolidamos centros, incluso aprovechando infraestructuras infrautilizadas, con un estándar técnico común”.
Lorenzo lamentó que muchas administraciones públicas sigan apostando por construir centros de datos propios, lo que en su opinión supone una infrautilización de recursos: “No se dan cuenta de que los datos ya no están en sus servidores. Están en la nube. Tu dato está flotando. Y ese es el error”.
Del hierro al dato: un nuevo paradigma de arquitectura digital
El diálogo avanzó hacia una reflexión profunda sobre el papel pedagógico del sector en su relación con las Administraciones Públicas. Armando destacó cómo ciertas decisiones estratégicas —como el caso de los 62 millones que la Comunidad de Madrid anunció para construir su propio centro de datos— finalmente se redirigieron hacia modelos más eficientes: “Fuimos todos a decirle a la presidenta que no cometiera ese error, y nos hizo caso. Finalmente se ha licitado en data centers profesionales, que sí están preparados para asumir ese tipo de cargas y exigencias”, señaló. Y añadió: “Es importante hacer ver a las administraciones que no tiene sentido invertir en infraestructura electromecánica que será obsoleta en siete años. Ese dinero tiene que destinarse a capacidades tecnológicas reales, no a hierro”.
En esa misma línea, Lorenzo Castillo subrayó cómo desde Templus aplican esa misma lógica pedagógica al acompañar a sus clientes, muchos de ellos del sector público, en un cambio de mentalidad: “Todavía hay técnicos y asesores que piensan que construir el centro propio es más seguro. Pero les mostramos que la seguridad real está fuera de sus edificios, en entornos profesionales, con infraestructuras modernas, certificadas y adaptadas a una evolución constante”. La clave, según explicó, está en diseñar centros de datos de forma modular y escalonada, con un crecimiento alineado con la demanda y siempre bajo parámetros de sostenibilidad y normativas europeas: “Nuestro objetivo es llegar a un PUE inferior a 1,5 en 2027 y a menos de 1,3 en 2030, con consumo cero de agua ese mismo año. Todo esto, unido a certificaciones de ciberseguridad, nos permite ofrecer una propuesta robusta, confiable y adaptable”.
Armando Layna aprovechó para poner el foco en un elemento a veces olvidado: el uso del agua. “Ahora diseñamos los centros para consumo cero, con circuitos cerrados, pero también habría que pensar si no es una torpeza no usarla en zonas donde el agua sobra. La resiliencia también es adaptabilidad contextual”, apuntó, enlazando con el recuerdo de MAD1 de Interxion (actual Digital Realty), “una universidad para todos nosotros”, donde comenzaron las primeras adaptaciones de edificios a las exigencias del ‘colocation’ profesional.
El debate entonces derivó hacia cómo ha evolucionado la arquitectura IT en los últimos 20 años. “Entonces las densidades de potencia eran ridículas, y no sabíamos ni lo que era el PUE”, recordó Layna. “Ahora se nos piden auténticas barbaridades de potencia. Y como bien decía Mariano, si el dato ha engordado, también lo han hecho las necesidades energéticas… aunque paradójicamente ocupa menos espacio”.
Rubén García —desde el punto de vista de fabricante como Rittal, empresa pionera y uno de los referentes tecnológico en el diseño y fabricación de soluciones integrales para el data center estandarizado y a medida— remarcó ese cambio de tendencia en el mercado, evolución que también ha impactado en la visión de muchas organizaciones públicas. “Se está evolucionando hacia la arquitectura del dato. El control hoy está en la red. Aunque algunas siguen pidiendo modelos antiguos, el cambio es evidente. Incluso estamos trabajamos ya con micro datacenters”.
Respecto a las administraciones públicas, los portavoces comentaron que “muchas todavía tienen los servidores en el cuarto de las escobas”. “Las arquitecturas IT actuales ya no responden a los problemas de antes”, señalaron desde la mesa. “Hoy las arquitecturas son interdistribuidas, y nadie puede mantener eso por sí solo. Primero externalizas la parte básica, luego el nodo de red, y terminas subiendo las cargas críticas al cloud”.
Raquel Figueruelo sintetizó el trasfondo de este cambio con claridad: “Hoy una empresa vale lo que valen sus datos. Si te vas a fusionar o a ser adquirida, lo que se analiza es tu capacidad de gestionar y mover el dato”. En su opinión, la arquitectura IT ha pasado de ser computación y almacenamiento a ser red y conectividad. “El almacenamiento es barato. El valor está en el dato en tránsito, y eso solo lo gestiona bien quien controla su red”. Y lanzó un mensaje directo al sector público: “Salvo casos concretos como el de Madrid, muchas administraciones siguen en cuartos de escoba. Y muchas empresas también. Siguen pensando que IT es hierro. Pero hoy IT es arquitectura del dato. Y ese dato hay que saber dónde ponerlo y cómo moverlo”.
Oscar Bermúdez aportó una reflexión sobre la ciberseguridad a raíz de los recientes ciberataques al Hospital Clínic de Barcelona. “Este tipo de incidentes ponen en valor la necesidad de infraestructuras profesionales, como las de Templus o Digital Realty, con normativas estrictas y capacidades reales de respuesta”.
Lorenzo Castillo matizó: “La seguridad también depende del cliente. Nosotros somos como un hotel que garantiza una buena habitación: climatización, energía, conectividad. Pero si el huésped deja la ventana abierta, no es culpa del hotel. Aun así, ofrecemos sistemas de monitorización, trazabilidad y cumplimiento normativo para asegurar la máxima garantía”.
Refrigeración líquida y nuevos desafíos energéticos
En la segunda parte de la mesa redonda, Luis Casero puso el foco en uno de los grandes vectores de transformación de los centros de datos actuales: el auge de la refrigeración líquida y la necesidad de adaptar la infraestructura energética a las cargas derivadas del uso intensivo de inteligencia artificial.
“El punto clave es la densidad de potencia. Cuando los chips alcanzan potencias de diseño térmico de 700-800 vatios, o los racks superan los 40 kW, el aire ya no es suficiente para disipar el calor”, afirmó Casero. En ese punto, tecnologías como la refrigeración líquida —ya sea directa al chip (direct-to-chip) o por inmersión— se vuelven necesarias.
Aunque no se trata de una sustitución del aire, sí supone un cambio significativo en la infraestructura, con la introducción de nuevos componentes que hasta hace poco no existían: placas de contacto térmico en los equipos IT, redes secundarias de fluidos y unidades de distribución de refrigerante (CDU). “Hablamos de refrigeración, pero con equipos completamente nuevos, que requieren especialización y conocimientos distintos a los tradicionales”, recalcó.
En cuanto al consumo de agua, Casero matizó que depende del circuito primario, como sucede con otros sistemas de ventilación, mientras que el circuito secundario cerrado —donde está la novedad— no implica un uso directo de agua.
Cargas de IA: un nuevo reto para los SAIs
El avance de la IA no solo influye en la refrigeración, sino también en el suministro eléctrico. “Más potencia y más densidad afectan a toda la cadena de alimentación, desde la red hasta el chip”, explicó. Los servidores de IA tienen perfiles de carga pulsantes, diferentes de los IT tradicionales, lo que plantea retos para los sistemas de alimentación ininterrumpida (SAIs). Por ello, la compañía ha invertido en simuladores de cargas de IA para validar sus soluciones en entornos reales.
Además, Casero apuntó hacia un futuro en el que los centros de datos serán capaces de operar como microredes energéticas, combinando generación renovable, células de combustible y almacenamiento en baterías. Estos sistemas permitirán desconectarse de la red en momentos críticos o incluso verter energía, una tendencia que empieza a verse en regiones con problemas de disponibilidad energética, aunque aún no se ha extendido en España.
A continuación, el debate giró hacia el futuro energético de los centros de datos, abordando tanto tecnologías emergentes como los desafíos normativos en eficiencia y sostenibilidad. En este sentido, Armando Layna explicó cómo el Ministerio de Defensa ya está considerando la implantación de micronucleares en sus planes de autogeneración, una tendencia que podría extenderse a los grandes centros de datos. “Yo no me voy a poner en contra cuando un organismo como el Ministerio de Defensa ya contempla estas soluciones”, señaló. A su juicio, más allá de las tecnologías convencionales, es necesario observar hacia dónde se orientan los marcos regulatorios, que empiezan a incluir condiciones como la obligatoriedad de recuperar calor en instalaciones de más de medio megavatio.
Oscar Bermúdez añadió que la evolución hacia cargas energéticas más complejas —como las propias de la inteligencia artificial— exige que las UPS se adapten a nuevos perfiles, algo que ya está en el foco de los fabricantes. “Además de la eficiencia energética, tenemos normativas exigentes como la 'Energy Efficiency Directive', que desde septiembre de 2023 obliga a los centros de datos de más de 500 kW a publicar su consumo energético”, explicó. Algunos países como Francia incluso han reducido ese umbral.
En este contexto, el concepto de eficiencia se refuerza como un elemento competitivo. Bermúdez destacó que muchas grandes instalaciones ya cumplen ratios PUE cercanos a 1,3 o incluso inferiores. “Esto puede impulsar la migración desde pequeños centros hacia infraestructuras más grandes y eficientes”, dijo. Por su lado, Raquel Figuerelo puso el acento en la necesidad de evaluar también el impacto económico de estas obligaciones: “Dependerá de cuánto sea la multa, porque puede darse el caso de haya a quien no le compense cumplir con los requisitos”.
Hacia modelos de UPS modulares
Respecto a la evolución tecnológica, Oscar Bermúdez subrayó que se ha alcanzado un techo en eficiencia de UPS convencionales, con valores cercanos al 97%. Para avanzar, propuso considerar la integración de tecnologías como el carburo de silicio, o nuevas funcionalidades como la capacidad de inyectar a la red la energía almacenada en baterías.
Luis Casero añadió que es momento de dejar de hablar exclusivamente de SAIs y comenzar a referirse a ellos como centros de energía o centros de potencia, por su papel creciente en la gestión activa del consumo y la integración con renovables y almacenamiento. “No se trata solo de proteger la carga, sino de participar en el ecosistema energético”, afirmó.
En ese sentido, Bermúdez explicó que desde Socomec también están trabajando en soluciones de almacenamiento energético pensadas inicialmente para aplicaciones industriales o de recarga eléctrica, pero adaptables a microredes en entornos de centros de datos.
Finalmente, los participantes abordaron la evolución de las UPS hacia modelos modulares. Casero explicó que la tendencia ya no es solo añadir módulos a un chasis común, sino diseñar el crecimiento desde el principio con escalabilidad y repetibilidad. Bermúdez reforzó esta idea: “Antes se sobredimensionaban las instalaciones, pero eso generaba ineficiencias. Hoy se busca adaptar la potencia instalada a la necesidad real y facilitar el crecimiento progresivo sin inversiones desproporcionadas desde el inicio”.
Además, Rubén García destacó la eficiencia operativa de los sistemas modulares actuales, en los que los distintos módulos se turnan para repartir el desgaste, mejorando así la vida útil de todo el sistema.
Visión de futuro
En la última parte de la mesa, los participantes ofrecieron una mirada de futuro al sector de los centros de datos. Rubén García destacó que el reto más inmediato pasa por la estandarización y automatización de los procesos, con el fin de construir de forma más rápida y eficiente. En su opinión, los centros de datos del futuro serán más densos en capacidad, energéticamente más eficientes, sostenibles y mucho más integrados en la sociedad: “Serán infraestructuras verdes, híbridas y con menos consumo de agua”.
Luis Casero apuntó que, aunque el sector está en el foco por su consumo energético, es necesario hacer pedagogía para explicar su verdadero impacto: “Antes para hacer un trámite había que coger el coche, ir a una oficina… con el impacto ambiental que supone, ahora todo es digital. Y los CPDs son esenciales para esa digitalización”.
Armando Layna subrayó que el consumo energético de los data centers está directamente relacionado con el uso que hace la sociedad de los servicios digitales: “Los centros de datos consumen cuando un ciudadano hace una petición de datos. Si no enciendo Netflix, el cubo de Netflix no consume. No hay que demonizar el centro de datos, porque el que consume es el usuario”. Además, destacó la importancia de preparar el terreno para grandes inversiones internacionales: “Bienvenidas sean todas las especulaciones si sirven para que las grandes nubes quieran venir aquí. Si no preparamos la pista, no aterrizan”.
Óscar Bermúdez advirtió que, aunque hay mucha inversión anunciada, no todos los proyectos llegarán a ejecutarse. Cree que solo los más fiables, sostenibles y seguros sobrevivirán, y reclamó mayor concienciación por parte de la sociedad y los políticos: “El CPD es una instalación crítica, tiene un propósito esencial. Por otra parte, nos falta un poco de formación y especialización”.
Lorenzo Castillo apuntó hacia la integración total del centro de datos en el entorno urbano y social, pasando de grandes instalaciones a modelos más compactos y distribuidos: “El dato tiene que estar más cerca del usuario. Tendremos CPDs que compartirán recursos como el calor y el frío con los edificios del barrio, generando simbiosis energética y siendo buenos vecinos”. Mencionó un proyecto en Barcelona como ejemplo de esta nueva forma de entender los centros de datos, totalmente conectados con el ecosistema que los rodea.
Finalmente, Raquel Figueruelo destacó la madurez creciente de un sector que va a más: “Es un sector que crece, que ofrece oportunidades laborales, y que tiene impacto positivo desde el principio. Es el único que nace con criterios de sostenibilidad. Somos el sector de moda”.
Vídeo resumen de las conclusiones de los ponentes del debate sobre Centros de Datos.


























