Bij de uitbreiding van het datacenter van Interconnect was het niet alleen de vraag welke koeling er moest komen, maar ook waar en met welke capaciteit. Leverancier STULZ kwam met het beste antwoord.
De complexiteit van het project in Eindhoven was de grootste uitdaging, maar Interconnect vertrouwde op de technici en koelinstallaties van STULZ, waarmee al sinds 2005 wordt samengewerkt.
Interconnect is een datacenter- en cloudspecialist en met twee datacenters (in ’s-Hertogenbosch en Eindhoven). In totaal beschikt Interconnect, leverancier van betrouwbare hybride IT-infra-structuren, over een datacentervloeroppervlak van 6.800 m2. Een datacenter moet altijd operationeel blijven. Back-upsystemen zijn dan van het grootste belang, zowel op het gebied van koeling als van elektriciteit. Zonder elektra is er immers ook geen koeling. Tevens dient een datacenter zo energiezuinig mogelijk te opereren, waarbij de Return On Investment (ROI) zo hoog mogelijk is.
Verschillende koelvermogens
De wensen van Interconnect voor dit project waren duidelijk. Er kwamen negen serverruimtes met drie verschillende koelvermogens: 400 kW, 800 kW en 1000 kW. Het stond echter nog niet vast in welke serverruimte welk vermogen gerealiseerd zou moeten worden. Uiteindelijk werd besloten om de infrastructuur zodanig aan te passen dat op de bovenste twee verdiepingen zowel de 1000 kW-zalen als de 400 kW-zalen gerealiseerd kunnen worden. In eerste instantie wilde men een nog hoger koelvermogen in het datacenter aanbrengen, maar dit was niet mogelijk door de beperkte verdiepingshoogte.
Om aan de bovenstaande eisen en uitdagingen te kunnen voldoen, is er gekozen voor in totaal zes STULZ CyberCool 2 chillers met elk een koelvermogen van 1200 kW geplaatst op het dak. In de serverruimtes zelf is gekozen voor één type STULZ-unit (CyberAir 3) om zo de efficiëntie te verhogen.
De CyberCool 2 en de CyberAir 3 zijn de meest energiezuinige oplossingen in vergelijking met overeenkomstige oplossingen in de markt. Dit vertaalt zich in een zichtbaar lager energieverbruik. De ROI is hierbij hoog en de units verdienen zichzelf uiteindelijk helemaal terug.
Compleet
In de 400 kW-serverruimtes leveren de STULZ-units een koelvermogen van 200 kW per unit, in de 800 kW- en 1000 kW-serverruimtes leveren zij minder dan 200 kW per unit, maar worden er uiteraard meer units geplaatst. De CyberCool 2 chillers zijn alle zes voorzien van de meest energiezuinige componenten, inclusief de mogelijkheid tot de Vrije Koeling-modus. Completer is bijna niet mogelijk.
De totale koelinstallatie bevat drie water gescheiden koelsystemen, waarvan er één helemaal kan uitvallen (de installaties zijn opgebouwd uit N+1). Zo zijn er in een 400 kW-zaal drie CyberAir 3-units geplaatst met elk een koelvermogen van 200 kW. Er staat dus een koelvermogen opgesteld van 600 kW en elke STULZ-unit krijgt zijn koelwater uit een ander koelsysteem. Als er een unit defect zou raken, wordt het benodigde koelvermogen alsnog gerealiseerd door de andere twee units.
Op het dak van het datacenter is eenzelfde situatie gerealiseerd. Op elk koelsysteem zijn twee chillers aangesloten en indien er zelfs twee chillers uitvallen (welke dan ook), blijft de koeling nog steeds gewaarborgd in het gehele datacenter.
Uniek
De unieke factor in het project is de keuze voor het plaatsen van zes (zee)containers op het dak van het datacenter. In deze zes containers zijn verschillende onderdelen ondergebracht, waaronder de buffervaten, maar ook de adiabatische koeling van CAREL (ChillBoosters).
Een voordeel van deze adiabatische koeling is dat het koelvermogen toeneemt bij het stijgen van de buitentemperatuur. Bij traditionele compressorkoeling neemt dat vermogen juist af. Het systeem koelt de lucht voordat deze door de chiller aangezogen wordt. Zo levert 100 liter water ongeveer 69 kW aan afkoeling met maar 0,25 kW aan opgenomen vermogen (door de pomp). Dit zorgt voor een reductie van het energieverbruik op de warmste dagen van het jaar. Daarnaast is het gebruikte koudemiddel - water - volledig milieuvriendelijk in tegenstelling tot traditionele koudemiddelen.
Warmtenet
Naast de keuze voor adiabatische koeling speelden ook de kosten een grote rol bij de keuze om een deel van de installatie in zes separate containers onder te brengen. Verder gaf dat ook het voordeel dat de installaties beter zijn beschermd tegen bijvoorbeeld weersinvloeden. De hele koelinstallatie is ook nog voorzien van de mogelijkheid om in de toekomst de warmte die geproduceerd wordt in de serverruimtes af te geven aan bijvoorbeeld een warmtenet.
Een woordvoerder van STULZ stelt tot slot: “Door de complexiteit van het project was het vanaf het begin niet altijd duidelijk wat er precies nodig en gewenst was in het datacenter. Maar door de goede communicatie en samenwerking met Interconnect is het project erg soepel verlopen. Wij halen erg veel voldoening uit een dergelijk project. Onze engineers kunnen zo in samenwerking met de klant op hoog niveau acteren en de meest efficiënte en betrouwbaarste koeloplossing voor een datacenter realiseren.”
Luister ook naar de toelichting en commentaren in het volgende filmpje:
STULZ realiseerde de koeling in dit datacenter samenwerking met Interconnect, PVM Logistiek, Isolatiebedrijf Berger, Van Kessel Installaties en Konstruktiebedrijf Hercules.