Green Futureレポート

Green Future Report
カーボンニュートラルに貢献する

「次世代型データセンター」プロジェクト 「次世代型データセンター」 プロジェクト

株式会社NTTファシリティーズは、2024年5月から「次世代型データセンター」のプロジェクトに取組んでいます。情報処理技術や通信技術などの進歩に対応しつつ、カーボンニュートラル実現にも貢献できる、新しいデータセンターとはどのようなものなのでしょうか。プロジェクトメンバーに解説してもらいました。

本レポートはサステナブルウェブデザインの手法に基づいて作成しています。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 向井太一氏 設計・意匠 松浦裕己氏 設計・設備 木幡悠士氏
データセンターは情報化社会に欠かせないインフラ About Data Center
編集部

そもそも、データセンターとはどのような施設なんですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

データセンターは、サーバーをはじめとするコンピューターやデータ通信機器などの装置を設置・運用することに特化した施設です。1960年代以降、金融機関を中心に大企業がコンピューターによる情報システムを導入するようになると、大量のデータを処理するために専用の施設を建設するようになりました。

編集部

それがデータセンターのルーツなんですね。

はい。そして1970年代から80年代にかけての銀行ATMの普及、90年代のインターネットの普及、2010年代のクラウドサービスの普及など、情報処理技術や通信技術の進歩に伴って扱うデータ量が飛躍的に増加したことで、データセンターの需要もますます高まっています。今後、生成AIの普及などもあり需要はさらに高まっていくでしょう。メールのやり取りやネット通販などができるのは、どこかでデータセンターが働いてくれているからなんですよ。

図-1:データセンターの内部。サーバーが統一規格のラックに収められています。
図-1:データセンターの内部。サーバーが統一規格のラックに収められています。
編集部

私たちの生活にとって欠かせない存在なんですね。今後さらに大量のデータを処理できるようにするためには、サーバーの性能を上げたり、サーバーを増やせばいいのでは?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 設計・設備 木幡悠士

もちろんそうなのですが、コンピューターのプロセッサ(中央演算処理装置/CPUやGPU)は、計算やデータ処理を行う際に電力を消費して、その電気エネルギーが熱エネルギーに変わります。その熱で適正温度を超えると異常を起こしてしまうので、プロセッサは温度を下げるために処理速度を落とすようになっています。

編集部

それでは作業効率が悪くなってしまいますね。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

処理の際に熱が生じるのは一般的なパソコンも同じですが、データセンターは処理するデータ量が膨大な分、大きな熱が生じます。特に2020年代になって登場した生成AIは、GPU(画像処理装置)を搭載したサーバーが欠かせないのですが、このGPUサーバーは排出される熱がとても大きくて、今までの冷却方式では確実に力不足になります。

編集部

ということは、これからのデータセンターはいかに効率よくサーバーを冷却できるかが鍵になりますね。

編集部

今まではサーバーをどうやって冷却していたんですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 向井太一氏

従来は、サーバーに冷風を当てる空冷方式が主流でした。みなさんのパソコンでも、ブーンとファンが回って冷却していますが、それと基本的には同じです。一般的な空冷方式の冷却能力は1ラックあたり10キロワット前後。しかし生成AI向けの大規模なデータセンターでは1ラックあたり100キロワット以上の冷却能力が必要だと考えられていて、この数値は年々高くなっています。

編集部

次世代型データセンターでは、どんな冷却方式を採用するんですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

空気の代わりに液体を使って冷やす液冷方式です。液冷方式には、CPUやGPUのチップの上に設置されたコールドプレートという金属板に冷却用の液体を循環させることで熱を奪って冷却する「コールドプレート方式」と、冷却液で満たしたラックにサーバーを丸ごと浸す「液浸方式」がありますが、私たちが今検討しているのは前者のコールドプレート方式です。

図-2:サーバーの冷却方式の特徴。
図-2:サーバーの冷却方式の特徴。
編集部

液冷は空冷に比べて冷却能力が高いんですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・設備 木幡悠士氏
冷却する対象から熱を奪い、送るために気体や液体などの流体を媒体として用いる場合、その冷却能力は以下のような式で表すことができます。
冷却能力=媒体の比熱 1gあたりのその物質の温度を1度あげるのに必要な熱量×媒体の密度×流量×温度差
つまり比熱や密度が大きな流体を媒体として用いると、より少ない流量、小さな温度差で多くの熱を送ることができます。一般的に気体よりも液体の方が比熱や密度は大きく、例えば水の場合、比熱は空気の4倍、密度は空気の800倍にもなります。また液体の方が気体より熱伝達率が高く、熱を吸収しやすいといった特性があるため、より効率的に冷やすことが可能なんです。
編集部

今まで液冷方式のデータセンターはなかったんですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

液冷方式のサーバー自体は以前からあって、研究用のスーパーコンピューターなどに採用されていました。また一部を空冷方式から液冷方式に変更して運用しているデータセンターはすでにあります。しかし私たちが取り組んでいるのはすべてのサーバーを液冷方式にしたデータセンターで、これは現段階では存在しません。これまではそこまでの冷却性能は求められていませんでした。でも、これからは需要が必ずあるとにらんで、「もし液冷サーバーありきでいちからデータセンターをつくるならどんなものができるかを考えよう」というのが、次世代データセンタープロジェクトの主旨になります。

図-3:液冷方式のサーバー冷却方法。
図-3:液冷方式のサーバー冷却方法。
編集部

液冷データセンターは環境にとってどんなメリットがあるのですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 向井太一氏

データセンターにおいて効率よく冷やせるということは、その分冷却のために消費する電力も少なくて済み、温室効果ガスの排出も抑制することができます。

編集部

効率よく冷やせて省エネなんですね。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

空冷方式では、空気を送るためにファンを回す大きな動力が必要になりますが、液冷ではこれが不要になります。また空冷サーバーでも液冷サーバーでも、サーバーの熱で温められた媒体を再びサーバーに送り届ける際には、チラーや冷却機と呼ばれる屋外の設備で熱を外に放出して冷やす必要があります。この媒体を冷やすための屋外設備は、データセンターの空調設備の中で最も消費電力が大きいんです。しかし、液体は空気より多くの熱を送れるので、図-4にあるように、送る温度を高くでき、効率よく冷却することができます。

図-4:空冷と液冷の冷却方法および媒体温度の比較。
図-4:空冷と液冷の冷却方法および媒体温度の比較。
編集部

空気ほど冷やしてから送り込まなくてよいから、使用する電力を大きく削減できるんですね。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・設備 木幡悠士氏

熱は温度の高い物体から低い物体へと移動する性質があります。サーバーを冷やした後の冷却液は空気と違って外気温よりも高いために、外気に接するだけで自然に放熱して冷えてくれますので、外気温などの条件によっては冷却機を用いる必要もなくなります。次世代データセンタープロジェクトでは、データセンターに設置されるサーバーを全て液冷方式サーバーとすることによって、データセンター全体の消費電力量の約20%を占めるサーバー冷却用消費電力を約50%削減できると試算※1しています。

※1 NTTファシリティーズが構築する空冷方式のデータセンターの消費電力との比較による試算値
図-5:空冷データセンターと液冷データセンターの省エネルギー性能比較。
図-5:空冷データセンターと液冷データセンターの省エネルギー性能比較。
編集部

ところで、次世代型データセンターの外壁はなぜ輝いているんですか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

じつはこれも排熱に関係しています。この外壁は 「プレクールコイルウォール™※2」と呼んでいるのですが、輝いているのは熱伝達率の高い銅でできた管をラジエーター状に張り巡らせているから。銅でできた管を通じて液冷サーバーの冷却水を循環させます。

※2「プレクールコイルウォール™」は商標登録出願中です
編集部

外壁全体を活用して、外気を使った自然冷却を行おうというわけですね。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・設備 木幡悠士氏

また建物の周囲に水を張ったゾーンを設け、水が蒸発する際に周囲から吸収する気化熱によってさらに放熱を促進します。これによって、冬季などは「プレクールコイルウォール™」の省エネルギー性能はより向上する見込みです。

編集部

なるほど。液冷サーバーを前提とすることで、建物全体をこれまでにない発想で設計して省エネルギーにつなげているんですね。

図-6:次世代型データセンターの断面構成と「プレクールコイルウォール(TM)」の廃熱回収の概要。
図-6:次世代型データセンターの断面構成と「プレクールコイルウォール™」の廃熱回収の概要。
編集部

次世代型データセンターには他にも特長はありますか?

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・設備 木幡悠士氏

空冷式サーバーの場合、冷却効率を上げるためにはサーバー同士の間隔を空けて空気の通りをよくしたほうがよいのですが、液冷式サーバーはその必要がありません。ですから1つのラックに設置できるサーバーの数を増やすことができます。サーバーは従来より5倍ほど高集積・高密度化※3すると予測され、サーバー室の面積は約3分の1まで縮小されると試算しています。

※3 NTTファシリティーズが構築するデータセンターにおいて採用の多いサーバーの1ラックあたりの消費電力と、販売中の液冷サーバーの1ラックあたりの消費電力の比較により算出
編集部

省エネだけでなく、省スペース化もできるんですね。そうすると今までより施設を小さくにすることも可能ですね。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

そうですね。施設自体をコンパクトにまとめたり、あるいは将来を見越してスペースに余裕を残しておくなど、敷地の利用計画や立地の選択肢が増える※4と思います。そして私たちは新しいビジョンとして、地域に開かれたデータセンターを構想しています。

※4 行政への確認・協議等が必要となります
NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 向井太一氏

データセンターは郊外の住宅地に建設されるケースもあるのですが、一般の方にはあまりなじみのない施設なので、周辺にお住まいの方から「何ができるんだろう」「何をやっている所なんだろう」と不安に思われることもあります。ひとつの提案としてデータセンターの土地の一部を公園のようなコミュニティスペースとして開放すれば、受け入れてもらいやすくなるのではと考えています。また、サーバーからの廃熱を施設内オフィスの暖房や給湯に利用するほか、周辺地域への温水熱源として利用すれば、地域全体の省エネルギーにも貢献できます。そうした地域社会と調和し、周辺住民のみなさまに愛されるようなデータセンターの実現をめざしています。

図-7:次世代型データセンターのイメージパース。
図-7:次世代型データセンターのイメージパース。
編集部

最先端の情報通信技術を支えながら、サステナブルな社会の実現にも貢献できる、とてもやりがいのあるプロジェクトですね。

NTTファシリティーズ データセンターエンジニアリング事業本部 設計・意匠 松浦裕己氏

このプロジェクトは社内の有志で始めた取組みですが、ビジョンについて意見を出しあうなかで、さまざまな新しい発見があります。随時新しい要素を追加しながら検討し、これからのデータセンターのビジョンを打ち出し続けたいです。また2025年4月にはデータセンターの冷却システムの検証施設「Products Engineering Hub for Data Center Cooling(仮称)」も完成する予定です。

図-8:プロジェクトと並行して、東京都武蔵野市のNTT武蔵野研究開発センタ内に構築中の「Products Engineering Hub for Data Center Cooling(仮称)」。冷却機を必要としない液冷空調を始めとするさまざまな空調機器の実機とともに、AIデータセンターを想定した模擬負荷装置も設置。機器の性能検証や技術者育成に加え、ショールームとしても活用する予定です。
図-8:プロジェクトと並行して、東京都武蔵野市のNTT武蔵野研究開発センタ内に構築中の「Products Engineering Hub for Data Center Cooling(仮称)」。冷却機を必要としない液冷空調を始めとするさまざまな空調機器の実機とともに、AIデータセンターを想定した模擬負荷装置も設置。機器の性能検証や技術者育成に加え、ショールームとしても活用する予定です。
NTTファシリティーズ データセンターエンジニアリング事業本部 設計・設備 木幡悠士氏

データセンターの消費電力は、日本全体の消費電力の1~2%を占めていると言われています。NTTファシリティーズはデータセンター専業の事業部を持っている日本唯一の設計事務所で、国内の新築データセンターの約3割の設計を手がけ、さらに物販を含めると関与率は7割※5を超えています。その重みを考えて、このプロジェクトを通じて日本の消費電力削減に貢献していきたいですね。

※5 2023年から2025年に竣工予定のデータセンターへの関与比率(件数ベース、NTTファシリティーズ調べ)
編集後記

今回のGreen Futureレポートは、読者の利便性と環境への配慮を最優先に考える「サステナブルウェブデザイン」の手法に基づいて作成しました。①画像の使用量を極力減らし、 ファイルサイズを小さくできる画像形式「webp」を採用。②LEDディスプレイの消費電力が比較的大きい白色を避け、地に薄いグレーやグリーンを使用。などの工夫によって、ページ読み込みにかかる時間や消費エネルギーを削減しています。

Green Future Report	カーボンニュートラルに貢献する	「次世代型データセンター」プロジェクト	本レポートはサステナブルウェブデザインの手法に基づいて作成しています。	(C)NTT FACILITES, INC.	株式会社NTTファシリティーズは、2024年5月から「次世代型データセンター」のプロジェクトに取組んでいます。情報処理技術や通信技術などの進歩に対応しつつ、カーボンニュートラル実現にも貢献できる、新しいデータセンターとはどのようなものなのでしょうか。プロジェクトメンバーに解説してもらいました。
私たちが解説します!	NTTファシリティーズ データセンター エンジニアリング事業本部	設計・意匠 向井太一	設計・設備 木幡悠士
1	データセンターは情報化社会に欠かせないインフラ	About Data Center
編集部	そもそも、データセンターとはどのような施設なんですか?
向井	データセンターは、サーバーをはじめとするコンピューターやデータ通信機器などの装置を設置・運用することに特化した施設です。1960年代以降、金融機関を中心に大企業がコンピューターによる情報システムを導入するようになると、大量のデータを処理するために専用の施設を建設するようになりました。
編集部	それがデータセンターのルーツなんですね。
松浦	はい。そして1970年代から80年代にかけての銀行ATMの普及、90年代のインターネットの普及、2010年代のクラウドサービスの普及など、情報処理技術や通信技術の進歩に伴って扱うデータ量が飛躍的に増加したことで、データセンターの需要もますます高まっています。今後、生成AIの普及などもあり需要はさらに高まっていくでしょう。メールのやり取りやネット通販などができるのは、どこかでデータセンターが働いてくれているからなんですよ。
図-1:データセンターの内部。サーバーが統一規格のラックに収められています。
編集部	私たちの生活にとって欠かせない存在なんですね。今後さらに大量のデータを処理できるようにするためには、サーバーの性能を上げたり、サーバーを増やせばいいのでは?
木幡	もちろんそうなのですが、コンピューターのプロセッサ(中央演算処理装置/CPUやGPU)は、計算やデータ処理を行う際に電力を消費して、その電気エネルギーが熱エネルギーに変わります。その熱で適正温度を超えると異常を起こしてしまうので、プロセッサは温度を下げるために処理速度を落とすようになっています。
編集部	それでは作業効率が悪くなってしまいますね。
松浦	処理の際に熱が生じるのは一般的なパソコンも同じですが、データセンターは処理するデータ量が膨大な分、大きな熱が生じます。特に2020年代になって登場した生成AIは、GPU(画像処理装置)を搭載したサーバーが欠かせないのですが、このGPUサーバーは排出される熱がとても大きくて、今までの冷却方式では確実に力不足になります。
編集部	ということは、これからのデータセンターはいかに効率よくサーバーを冷却できるかが鍵になりますね。
2	発熱の飛躍的な増大に対応する液冷方式サーバー	About liquid-cooled servers
編集部	今まではサーバーをどうやって冷却していたんですか?
向井	従来は、サーバーに冷風を当てる空冷方式が主流でした。みなさんのパソコンでも、ブーンとファンが回って冷却していますが、それと基本的には同じです。一般的な空冷方式の冷却能力は1ラックあたり10キロワット前後。しかし生成AI向けの大規模なデータセンターでは1ラックあたり100キロワット以上の冷却能力が必要だと考えられていて、この数値は年々高くなっています。
編集部	次世代型データセンターでは、どんな冷却方式を採用するんですか?
松浦	空気の代わりに液体を使って冷やす液冷方式です。液冷方式には、CPUやGPUのチップの上に設置されたコールドプレートという金属板に冷却用の液体を循環させることで熱を奪って冷却する「コールドプレート方式」と、冷却液で満たしたラックにサーバーを丸ごと浸す「液浸方式」がありますが、私たちが今検討しているのは前者のコールドプレート方式です。
空冷方式 冷風を当てて熱を奪う 冷風 サーバーが積まれたラック 液冷方式(コールドプレート方式) 冷却用の液体を循環させて熱を奪う 冷却用の液体 コールドプレート サーバーが積まれたラック データ処理量の急速な拡大=発熱の飛躍的な増大 図-2:サーバーの冷却方式の特徴。
編集部	液冷は空冷に比べて冷却能力が高いんですか?
木幡	冷却する対象から熱を奪い、送るために気体や液体などの流体を媒体として用いる場合、その冷却能力は以下のような式で表すことができます。	冷却能力=媒体の比熱(1gあたりのその物質の温度を1度あげるのに必要な熱量)×媒体の密度×流量×温度差	つまり比熱や密度が大きな流体を媒体として用いると、より少ない流量、小さな温度差で多くの熱を送ることができます。一般的に気体よりも液体の方が比熱や密度は大きく、例えば水の場合、比熱は空気の4倍、密度は空気の800倍にもなります。また液体の方が気体より熱伝達率が高く、熱を吸収しやすいといった特性があるため、より効率的に冷やすことが可能なんです。
編集部	今まで液冷方式のデータセンターはなかったんですか?
松浦	液冷方式のサーバー自体は以前からあって、研究用のスーパーコンピューターなどに採用されていました。また一部を空冷方式から液冷方式に変更して運用しているデータセンターはすでにあります。しかし私たちが取り組んでいるのはすべてのサーバーを液冷方式にしたデータセンターで、これは現段階では存在しません。これまではそこまでの冷却性能は求められていませんでした。でも、これからは需要が必ずあるとにらんで、「もし液冷サーバーありきでいちからデータセンターをつくるならどんなものができるかを考えよう」というのが、次世代データセンタープロジェクトの主旨になります。
循環する冷却液でコールドプレートの熱を奪い高発熱プロセッサを冷やす コールドプレート 放熱 冷却機 空調機 コールドプレート以外の部分を空気で冷却 発熱の35%を冷却* 液冷方式のサーバーラック 冷却液を各サーバーに分配 冷却液分配機 放熱 冷却機 発熱の65%を冷却 プロジェクトではサーバーの発熱量の約65%を液冷方式により冷却できる*と試算しています。サーバーにはプロセッサ以外にも発熱する部分があり、そこは空冷方式で冷やします。 *現在販売されている液冷サーバーのスペックにより算出。サーバーの種類や構成、メーカーにより液冷、空冷のモデル比率は異なります 図-3:液冷方式のサーバー冷却方法。
3	消費電力を大幅に抑えることで温室効果ガス抑制に貢献	Contribution to carbon neutrality
編集部	液冷データセンターは環境にとってどんなメリットがあるのですか?
向井	データセンターにおいて効率よく冷やせるということは、その分冷却のために消費する電力も少なくて済み、温室効果ガスの排出も抑制することができます。
編集部	効率よく冷やせて省エネなんですね。
松浦	空冷方式では、空気を送るためにファンを回す大きな動力が必要になりますが、液冷ではこれが不要になります。また空冷サーバーでも液冷サーバーでも、サーバーの熱で温められた媒体を再びサーバーに送り届ける際には、チラーや冷却機と呼ばれる屋外の設備で熱を外に放出して冷やす必要があります。この媒体を冷やすための屋外設備は、データセンターの空調設備の中で最も消費電力が大きいんです。しかし、液体は空気より多くの熱を送れるので、図-4にあるように、送る温度を高くでき、効率よく冷却することができます。
液冷方式のほうが空冷方式と比べ高い湿度帯でも効率よく冷やせ、消費電力を抑制 空冷方式 プロセッサ 空気15~30℃ 空気25~40℃ 空調機 水10~25℃ 水20~35℃ 冷却機 放熱 液冷方式冷却液を循環させてサーバー内のコールドプレートから熱を送る 冷却液30~50℃ コールドプレート 冷却液40~60℃ 液体は高い湿度帯で熱を送ることができる 冷却液分配機 水20~40℃ 水30~50℃ 冷却機 放熱 屋外施設で熱を放出 ※冷却の構成と湿度帯は一例です。 図-4:空冷と液冷の冷却方法および媒体温度の比較。
編集部	空気ほど冷やしてから送り込まなくてよいから、使用する電力を大きく削減できるんですね。
木幡	熱は温度の高い物体から低い物体へと移動する性質があります。サーバーを冷やした後の冷却液は空気と違って外気温よりも高いために、外気に接するだけで自然に放熱して冷えてくれますので、外気温などの条件によっては冷却機自体を用いる必要もなくなります。次世代データセンタープロジェクトでは、データセンターに設置されるサーバーを全て液冷方式サーバーとすることによって、データセンター全体の消費電力量の約20%を占めるサーバー冷却用消費電力を約50%削減できると試算※1しています。	※1 NTTファシリティーズが構築する空冷方式のデータセンターの消費電力との比較による試算値
液冷方式でサーバーの冷却に必要なエネルギーを削減 空冷データセンター使用エネルギー 液冷データセンター使用エネルギー 冷熱生成→冷却液を冷やすための電力を削減 空気搬送→冷却に必要なファンを回す電力を削減 水搬送→奪った熱を搬送する電力を削減 約50%削減* ※データホールの空調換気設備の消費電力量を対象とし、コールドプレートでの熱処理量をサーバー発熱の6割として試算。 図-5:空冷データセンターと液冷データセンターの省エネルギー性能比較。
編集部	ところで、次世代型データセンターの外壁はなぜ輝いているんですか?
松浦	じつはこれも排熱に関係しています。この外壁は「プレクールコイルウォール(TM)※2」と呼んでいるのですが、輝いているのは熱伝達率の高い銅でできた管をラジエーター状に張り巡らせているから。銅でできた管を通じて液冷サーバーの冷却水を循環させます	※2「プレクールコイルウォール(TM)」は商標登録出願中です
編集部	外壁全体を活用して、外気を使った自然冷却を行おうというわけですね。
木幡	また建物の周囲に水を張ったゾーンを設け、水が蒸発する際に周囲から吸収する気化熱によってさらに放熱を促進します。これによって、冬季などは「プレクールコイルウォール(TM)」の省エネルギー性能はより向上する見込みです
編集部	なるほど。液冷サーバーを前提とすることで、建物全体をこれまでにない発想で設計して省エネルギーにつなげているんですね。
銅管をラジエーター状に設置プレクールコリスフォールTM 温まった冷却水 外気で自然に冷却 自然冷却後の冷却水 冷却塔 電気設備 サーバー室 空調機 搬送機 水を張ったゾーン 気化熱による冷却 図-6:次世代型データセンターの断面構成と「プレクールコイルウォール(TM)」の廃熱回収の概要。
4	地域に開かれ、住民に愛される、新しいデータセンター像を提案	Proposal for a New Data Center Image
編集部	次世代型データセンターには他にも特長はありますか?
木幡	空冷式サーバーの場合、冷却効率を上げるためにはサーバー同士の間隔を空けて空気の通りをよくしたほうがよいのですが、液冷式サーバーはその必要がありません。ですから1つのラックに設置できるサーバーの数を増やすことができます。サーバーは従来より5倍ほど高集積・高密度化※3すると予測され、サーバー室の面積は約3分の1まで縮小されると試算しています。	※3 NTTファシリティーズが構築するデータセンターにおいて採用の多いサーバーの1ラックあたりの消費電力と、販売中の液冷サーバーの1ラックあたりの消費電力の比較により算出
編集部	省エネだけでなく、省スペース化もできるんですね。そうすると今までより施設を小さくにすることも可能ですね。
松浦	そうですね。施設自体をコンパクトにまとめたり、あるいは将来を見越してスペースに余裕を残しておくなど、敷地の利用計画や立地の選択肢が増える※4と思います。そして私たちは新しいビジョンとして、地域に開かれたデータセンターを構想しています。	※4 行政への確認・協議等が必要となります
向井	データセンターは郊外の住宅地に建設されるケースもあるのですが、一般の方にはあまりなじみのない施設なので、周辺にお住まいの方から「何ができるんだろう」「何をやっている所なんだろう」と不安に思われることもあります。ひとつの提案としてデータセンターの土地の一部を公園のようなコミュニティスペースとして開放すれば、受け入れてもらいやすくなるのではと考えています。また、サーバーからの廃熱を施設内オフィスの暖房や給湯に利用するほか、周辺地域への温水熱源として利用すれば、地域全体の省エネルギーにも貢献できます。そうした地域社会と調和し、周辺住民のみなさまに愛されるようなデータセンターの実現をめざしています。
©NTT FACILITES, INC.	図-7:次世代型データセンターのイメージパース。
編集部	最先端の情報通信技術を支えながら、サステナブルな社会の実現にも貢献できる、とてもやりがいのあるプロジェクトですね。
松浦	このプロジェクトは社内の有志で始めた取組みですが、ビジョンについて意見を出しあうなかで、さまざまな新しい発見があります。随時新しい要素を追加しながら検討し、これからのデータセンターのビジョンを打ち出し続けたいです。また2025年4月にはデータセンターの冷却システムの検証施設「Products Engineering Hub for Data Center Cooling(仮称)」も完成する予定です。
図-8:プロジェクトと並行して、東京都武蔵野市のNTT武蔵野研究開発センタ内に構築中の「Products Engineering Hub for Data Center Cooling(仮称)」。冷却機を必要としない液冷空調を始めとするさまざまな空調機器の実機とともに、AIデータセンターを想定した模擬負荷装置も設置。機器の性能検証や技術者育成に加え、ショールームとしても活用する予定です。
木幡	データセンターの消費電力は、日本全体の消費電力の1〜2%を占めていると言われています。NTTファシリティーズはデータセンター専業の事業部を持っている日本唯一の設計事務所で、国内の新築データセンターの約3割の設計を手がけ、さらに物販を含めると関与率は7割※5を超えています。その重みを考えて、このプロジェクトを通じて日本の消費電力削減に貢献していきたいですね。	※5 2023年から2025年に竣工予定のデータセンターへの関与比率(件数ベース、NTTファシリティーズ調べ)
編集後記「サステナブルウェブデザイン」	今回のGreen Futureレポートは、読者の利便性と環境への配慮を最優先に考える「サステナブルウェブデザイン」の手法に基づいて作成しました。①画像の使用量を極力減らし、ファイルサイズを小さくできる画像形式「webp」を採用。②LEDディスプレイの消費電力が比較的大きい白色を避け、地に薄いグレーやグリーンを使用。などの工夫によって、ページ読み込みにかかる時間や消費エネルギーを削減しています。	※記載内容は2025年3月現在のものです。