IT이야기2012. 3. 14. 08:30
Akamai(아카마이)의 서버는 현재 105,000대의 서버로 운영중이라고 한다. 78개국의 ISP와 1900여개의 망에서 서비스 중이다. (Data Center Knowledge의 'Akamai Now Running 105,000 Servers' )

Akamia의 NOC(Network Operating Center)

[ Akamia의 NOC(Network Operating Center) (출처 : Pingdom ]

Akamai도 2~3년 사이(2009년에 48,000대)에 2배 이상 증가했다. 저쪽 동네는 쓴다하면 10만대 이상, 좀 덜 써도 몇만대하는 곳은 여러 군데인 것 같다. Akamai 외의 서버 대수는 Data Center Knowledge에서 꾸준히 업데이트를 하고 있다. (멋져~~) ( 'Who Has the Most Web Servers?' )

  • Akamai Technologies: 105,000대 (company, 2012.3월)
  • OVH: 100,000대 (company, 2011.7월)
  • SoftLayer: 100,000대 (company, 2011.12월)
  • Rackspace: 79,005대. 클라우드 서비스로 급증 (company, 2011.12.30)
  • Intel: 75,000대 (company, 2011.8월)
  • 1&1 Internet: 70,000대 이상 (company, 2010.2월)
  • Facebook: 60,000대 (추정치, 2009.10월)
  • LeaseWeb: 36,000대 (company, 2011.2월)
  • Intergenia: (PlusServer/Server4You), 30,000대 (company, 2011년)
  • SBC Communications: 29,193대 (Netcraft)
  • Verizon: 25,788대 (Netcraft)
  • Time Warner Cable: 24,817대 (Netcraft)
  • HostEurope: 24,000대 (Company)
  • AT&T: 20,268대 (Netcraft)

구글은 공식적인 서버대수를 발표하지 않기 때문에 몇대인지는 명확하지는 않지만, 2011년에 대략 90만대로 추정된다.

NHN은 2013년 상반기 오픈을 목표로 춘천 데이터센터를 짓고 있다. 1만5천평 규모에 1500억원을 투자한다.
서버는 구글이나 페이스북처러 조립서버로 구성한다는 얘기가 들린다. 그리고 서버는 PSU을 없애고 AC전원이 아닌 DC전원을 공급받을 것이라고 한다. AC전>원이라면 AC -> DC로 전환할 때 전력 손실이 발생한다. 그런데 DC전원을 공급받으므로 전력 손실이 줄어들어 효율이 높아질 것이다.

NHN 도시첨단산업단지 조감도. 춘천 데이터센터

[ NHN 도시첨단산업단지 조감도. 도로 아래쪽이 데이터센터로 추정 ]


현재의 네이버 서버와 춘천 데이터센터가 오픈할 시점의 서버는 몇대일지 궁금해진다.


* 관련글
2011/04/20 - Facebook의 데이터센터와 서버
2010/06/30 - 페이스북(Facebook)의 서버 대수는 6만대 이상?
2009/06/01 - 해외 주요 업체의 서버 대수는?
2009/04/10 - 구글, 구글 서버와 데이터센터 발표자료를 풀 동영상으로 공개

Posted by 좋은진호

댓글을 달아 주세요

  1. 오호 구글이 90만대의서버로 돌리다니 ㄷㄷㄷ...

    2012.03.14 19:21 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 추정치이긴 합니다만, 작년중순 기준으로 90만대입니다.
      지금은 더 넘겠죠.

      2012.03.15 00:49 신고 [ ADDR : EDIT/ DEL ]
  2. IDC 조감도 멋지네요...
    NHN도 다음처럼... 이전을 계획 하고 있을까요???
    분당에 사옥을 지어서 그럴꺼 같진 않은데...

    2012.03.21 14:32 [ ADDR : EDIT/ DEL : REPLY ]
    • IDC 다중화 개념으로 간다면,
      이전이 아니라 확장 개념이 맞을 것 같아요.

      2012.03.22 18:10 신고 [ ADDR : EDIT/ DEL ]

IT이야기2011. 4. 20. 21:02
오리건주 프린빌(Prineville, Oregon)에는 약 30만 square feet크기(9만5천평)의 페이스북(Facebook) 데이터센터가 있다. 현재 절반인 15만 square feet가 운영중이며, 올 하반기에 나머지 절반이 완성될 것이다. 이 데이터센터와 페이스북 서버가 4월초에 Open Compute Project( http://opencompute.org/ )를 통해 공개가 되었다.

[ 페이스북 데이터센터 내부. 출처 : Open Compute Project ]


[ 페이스북 서버 샤시. 출처 : Open Compute Project ]


[ 페이스북 서버 조립. 출처 : Open Compute Project의 동영상 중에서 ]


페이스북 서버에 간략하게 요약하면.
  • 1U보다 더 큰 1.5U 크기의 서버. 그래서 보다 큰 방열판과 팬을 사용하여 온도 효율성이 높아졌다.
  • 샤시는 심플하다. 페이스북은 '무허영심(vanity free)'이라고 표현했다. 멋진 말이다. 군살을 쏙 뺀 반드시 필요한것만 들어있는 구조다.
  • AMD보드 : AMD 옵테론 6100시리즈, 24 DIMM 메모리 슬롯
  • 인텔 보드 : 인텔 제온 5500 또는 5600, 18 DIMM 메모리 슬롯
  • 자체 제작한 서버는 구매한 서버보다 38%정도 높은 효율. 24% 저렴
  • 파워서플라이 : 94.5%의 고효율. 2009년 당시 구글서버가 85~90%였다.
  • 전원은 2개가 연결되는데, 하나는 277V AC 주전원(일반적인 208V보다 높은 것은 효율을 위해). 다른 하나는 48V DC 백업전원(48V DC는 캐비넷형태의 UPS에 연결됨). 구글서버는 12V DC전원만 사용한다.
페이스북 데이터센터와 서버에 대해서는 4월 초에 나온 글이 인터넷에 많을 것이니, 추가된 내용들만 적어보겠다.


1. 페이스북 데이터센터의 태양광 시설

페이스북은 이 데이터센터에 태양광발전시설을 구축하여 100KW의 전기를 생산한다. 1년을 기준으로 204,000KWh의 전기를 생산할 것으로 기대하고 있다. 1년 20만KWh라면, 하루 5.6시간을 생산했을 때를 가정한 것 같다.
365일 X 5.6h X 100KW = 약 20만KWh

태양광발전으로 생산되는 에너지는 전체 에너지 사용량에 비하면 비중이 상당히 낮다. 그린피스에서도 에너지 사용면에서 좋지 않은 데이터센터로 지적했다.

[ 페이스북 데이터센터의 태양광 발전시설. 출처 : Swinny.net (URL은 아래 '사진' 출처에) ]


하지만 데이터센터의 에너지 효율은 상당히 높다. 데이터센터의 에너지효율은 PUE수치로 나타내는데, 이 수치가 1에 가까울수록 높은 효율을 나타낸다. 구글은 2009년에 평균 PUE가 1.22라는 놀라운 수치를 보였으며, 구글의 데이터센터 중에는 1.1x인 곳도 있다. PUE가 1.2만 되어도 예술의 경지에 이르렀다고 하는데, 페이스북의 새 데이터센터는 놀랍게도 PUE가 1.07이다. 즉, 거의 전력 손실없이 운영되고 있다는 뜻이다.

 
2. 데이터센터 추가 동영상과 사진

금요일에 저널리스트와 프린빌(Prineville) 지역 공무원을 대상으로 페이스북 데이터센터 투어가 있었나보다. Data Center Knowledge의 'Video: Inside Facebook’s Server Room' (2011.4.18) 글에 약 8분짜리 데이터센터 투어 동영상을 볼 수 있다.

[ 페이스북 데이터센터와 Jay Park. 출처 : 위 Data Center Knowledge 동영상 캡쳐 ]

[ 서버 전원부. 하나는 277V AC전원. 하나는 48V DC전원. 출처 : 위 Data Center Knowledge 동영상 캡쳐 ]

[ 페이스북 서버랙. 출처 : 위 Data Center Knowledge 동영상 캡쳐 ]


투어를 시켜준 사람이 'Director of Datacenter Engineering'(데이터센터 엔지니어링 부서 이사 정도?) 'Jay Park'이란 분이다. 전기분야 엔지니어이신데, 미국 교포일까? 이름도 그렇기도 하고, 동영상이나 사진을 보면 우리 나라 사람 같아 보인다.

Rackspace에서 근무하시는 분이 데이터센터를 방문하여 올린 사진도 있다
* Photo tour of Facebook’s new datacenter (Scobleizer 블로그, 2011.4.16)

[ 페이스북 데이터센터 로비의 모니터화면. 출처 : 위 Scobleizer 블로그 ]


로비 모니터에 데이터센터 상태를 모니터링할 수 있는 화면이 있다고 한다. 내부 온도는 18~27도(화씨 66~82도), 습도는 24~41% 정도다. 습도는 적정수준인데, 온도는 높은 구역도 있다. 외부 공기를 끌어다가 냉각을 해서 조금 높은 것일 수도 있겠다. 그리고, 오른쪽 상단에 표시된 현재 PUE는 1.08(?)으로 환상적이다. ^^

페이스북의 다른 데이터센터 사진을 보고 싶다면 타임지(TIME)에서 공개한 사진이 있다. 타임지는 2010년 올해의 인물로 페이스북의 '마크 주커버그(Mark Zuckerberg)'를 선정(2010년 12월중순)했다. 그래서, 타임지는 페이스북의 또다른 데이터센터인 캘리포니아주 산타클라라(Santa Clara, California)의 데이터센터 사진을 일부 제공했었다.
* A Glimpse Inside a Facebook Server Farm - Photo Essays (TIME, 9장의 사진)



* 데이터센터 관련글

- 2009/10/07 - [IT이야기] MS의 시카고 데이터센터 사진 공개
- 2009/04/03 - [IT이야기] 구글 데이터 센터 내부 공개, 그 안을 들여다보자
- 2009/04/10 - [IT이야기] 구글, 구글 서버와 데이터센터 발표자료를 풀 동영상으로 공개
- 구글 데이터센터의 놀라운 전력 효율 (2009.10.27, 커피닉스)
- 애플 신규 데이터센터 (2009.7.16, 커피닉스)
- 애플 신규 데이터센터 (2009.8.14, 커피닉스)
- 터키 이스탄불의 Vodafone 데이터센터, 폭우로 물에 잠겨 (2009.9.16, 커피닉스)

* 서버대수 관련글

- 2010/06/30 - [IT이야기] 페이스북(Facebook)의 서버 대수는 6만대 이상? (서버대수와 데이터센터)
- 2009/06/01 - [IT이야기] 해외 주요 업체의 서버 대수는?
- Facebook 사용자 4억명 돌파, 그리고 서버수 (2010.2.12, 커피닉스)

* 사진

- Solar-powered Facebook Data Center (2011.4.16, 페이스북 태양광 발전시설)
- Inside Facebook’s Not-So-Secret New Data Center (2011.4.7, 페이스북 데이터센터 사진 9장)

Posted by 좋은진호

댓글을 달아 주세요

  1. 페이스북의 데이터 센터와 서버에 대하여 좋은 정보 얻어갑니다. 좋은 하루 되십시오.

    2011.04.21 13:59 [ ADDR : EDIT/ DEL : REPLY ]
  2. 우와~~~

    멋지네요...^^;

    잘 지내고 계시죠???

    오늘은... 비가 오네요...

    즐거운 주말 보내세요~~~

    2011.04.22 14:24 [ ADDR : EDIT/ DEL : REPLY ]
    • 구글도 멋진데, 페이스북도 참 멋지죠.
      처음엔, 구글 서버는 DC전원을 쓰는데 페이스북은 AC전원쓰면, 페이스북이 더 안 좋지 않나라는 생각을 했습니다. 근데, 얘네들 설명을 들으니 이해가 되더라구요. UPS등 중간단계 모두 빼버리고, 거의 다이렉트로 연결된 AC전원. 그래서 손실이 없어진거죠. 백업전원용으로 UPS와 연결된 DC입력단자를 별도로 두고.

      참 머리 좋다라는 생각을 했어요. ^^

      2011.04.23 01:14 신고 [ ADDR : EDIT/ DEL ]
  3. view on 으로 퍼갈께요~~~

    2011.04.22 14:25 [ ADDR : EDIT/ DEL : REPLY ]

IT이야기2010. 6. 30. 23:25
Datacenter Knowledge의 Rich Miller 글 'Facebook Server Count: 60,000 or More'에서 Facebook의 서버 대수는 6만대 이상일 것으로 추측하고 있다.

지난주에 있었던 Velocity 2010 컨퍼런스에서 Facebook의 'Tom Cook'의 프리젠테이션 자료를 토대로 서버 대수를 추측했다. 프리젠테이션에 포함된 차트에는 년도는 있지만, 서버 대수에 대한 수치는 없다. 그러나 이 차트의 성장 곡선의 비율로 대수를 할 수 있다.
facebook server footprint

[ Facebook 서버 증가 차트 ]


2009년 11월 Facebook의 CTO인 Jeff Rothschild(제프 로스차일드)은 서버가 3만대 이상이라고 밝혔다. 차트에서 2009년 후반에 있는 평평한 지점이 대략 이 3만대 이상이 되는 지점일 것이다. 그러면 차트 맨 오른쪽 2010년 초에는 그 때의 두배 정도 되므로, 서버 대수는 6만대 이상으로 추측이 가능하다. Facebook의 이용규모에 비해서는 서버 대수가 생각보다는 적다는 느낌이다. Memcached, HipHop(PHP를 C++로 변환하여 성능 개선), Varnish(분산 및 캐싱 웹서버), Cassandra(NoSQL) 등의 효율적인 운영 덕분일까?

[ 현재 운영중인 Facebook의 Data Center 내부 ]


[ 현재 운영중인 Facebook의 Data Center 내부 (랙에 장착된 서버 뒷면. 케이블링이 깔끔하다.) ]


[ 현재 운영중인 Facebook의 Data Center 내부 ]

※ 위 이미지 출처 : Datacenter Knowledge 블로그 등

Facebook유저는 작년 1월에 1억 5천명이었는데, 올해 2월에는 2배가 넘는 4억명으로 급성장했다. 이렇게 급성장하는 서비스를 대비하여 Facebook은 Facebook 최초의 자체 데이터 센터를 Prineville에 건설중이다. 규모는 147,000 Square Foot(SF, 약 13,600여 제곱미터). FIFA의 국제규격 축구장 넓이가 7140제곱미터 이니깐, 축구장 2배 정도의 규모라고 보면 된다. 건설 사진은 Facebook에 공개되어 있다.

Facebook의 Prineville Data Center

[ Facebook의 Prineville Data Center 조감도 ]

※ 이미지 출처 : Facebook 공식 블로그 'Breaking Ground on Our First Custom Data Center'


소셜미디어의 성장이 놀랍다.
그런데, 트위터는 몇 대일까?


* 서버대수 관련글

- Facebook 사용자 4억명 돌파, 그리고 서버수 (2010.2.12)
- 2009/06/01 - [IT이야기] 해외 주요 업체의 서버 대수는?

* 데이터센터 관련글

- 2011/04/20 - [IT이야기] Facebook의 데이터센터와 서버
- 2009/10/07 - [IT이야기] MS의 시카고 데이터센터 사진 공개
- 2009/04/03 - [IT이야기] 구글 데이터 센터 내부 공개, 그 안을 들여다보자
- 2009/04/10 - [IT이야기] 구글, 구글 서버와 데이터센터 발표자료를 풀 동영상으로 공개
- 구글 데이터센터의 놀라운 전력 효율 (2009.10.27)
- 애플 신규 데이터센터 (2009.7.16)
- 애플 신규 데이터센터 (2009.8.14)
- 터키 이스탄불의 Vodafone 데이터센터, 폭우로 물에 잠겨 (2009.9.16)

Posted by 좋은진호

댓글을 달아 주세요

  1. 많은 수의 서버와 깔끔한 케이블링..... 관리자가 참 피곤하겠습니다......

    2010.07.01 10:30 [ ADDR : EDIT/ DEL : REPLY ]
  2. 서버 늘리고 서버 늘리고..그리드다 클라우딩이다..뭔가 획기적으로 양보단 질(산술적으로 처리가능한..)이 필요해 지지 않을까 싶어요...막말로 몇 십년 뒤엔 공동서버묘지 뭐 이런..idc 장소가 생겨날런지..^^;

    2010.07.02 16:15 [ ADDR : EDIT/ DEL : REPLY ]
    • 예. 클라우드, 가상화 등으로 양보다는 질적 향상을 꽤하는 것도 있을테고,
      한편으로 데이터의 안정적 보관과 서비스 유지를 위해 대수를 늘려가는 양적 증가 현상도 있을 것 같습니다.

      2010.07.04 22:37 신고 [ ADDR : EDIT/ DEL ]
  3. 저런데서 근무하면 1년 내내 덥지는 않을 것 같아요.

    2010.07.07 01:32 [ ADDR : EDIT/ DEL : REPLY ]
  4. 정상두

    우오!! 멋집니다. 이것도 100원 ㅎㅎㅎ 므흐흐

    2010.07.07 15:21 [ ADDR : EDIT/ DEL : REPLY ]
  5. 좋은 정보에 좋은 일도 같이 하시군요. 잘 읽었습니다. :)

    2010.10.08 09:50 신고 [ ADDR : EDIT/ DEL : REPLY ]

IT이야기2010. 2. 2. 08:56
거실에 놓여있는 테이블을 사용하여 서버 랙(Rack)을 구축할 수 있는 아주 재미난 프로젝트(?)가 있다. 사진은 IKEA(이케아)의 LACK시리즈 side table이다. 이 테이블의 다리 끝에서 끝까지 '21과 5/8'인치이고, 다리 안쪽의 간격은 표준랙 크기와 똑같은 19인치이다. 따라서, 19인치 크기인 랙용 서버나 네트웍 스위치를 넣을 수 있다.

IKEA LACK시리즈 side table

[ IKEA의 LACK side table ]



'LackRack'( http://lackrack.org/ )은 IKEA의 side table을 이용하여 손쉽게 모듈형태의 가정용 데이터센터(서버실)을 구축할 수 있는 방법을 제시해준다. 1U짜리 장비를 최대 8대까지 넣어둘 수 있다고 한다.(이 테이블의 구조상 '올려둔다'보다는 '넣어둔다.'라는 표현이 더 어울릴 것 같다.)

LackRack

[ 테이블 5개로 구성한 랙 (사진 출처 : LackRack 사이트) ]


LackRack은 이런 점이 좋다.

  • 인테리어 소품이 될 수 있다.
  • 테이블을 원래 목적 그대로 사용할 수도 있다.
  • 실제 서버 랙(rack)을 구매하는 것보다 저렴하다. LACK시리즈의 side table은 1만원선이면 살 수 있다.
  • 다양한 색상으로 꾸밀 수 있다. 서버 랙은 은색, 검정색 계통이 대부분인데, IKEA의 LACK은 검정, 흰색, 하늘색, 노란색, 빨간색, 월넛 등의 색상이 있다.


테이블의 변신. 재밌지 않은가? '벽돌로 할 수 있는 10가지'처럼 '테이블로 할 수 있는 10가지'의 답을 찾아보는 것도 재밌을 것 같다. 테이블이 달라 보이고, 의자가 새롭게 보일 수 있다.

[ 일반적으로 사용하는 표준 랙 ]


Posted by 좋은진호

댓글을 달아 주세요

  1. 재미있는 컨셉의 가구네요. 다만 서버 소음이 심해서 여러대를 가정에서 돌리기에는 ... ^^;

    2010.02.02 09:28 [ ADDR : EDIT/ DEL : REPLY ]
    • 그렇죠. 소음이 심하겠죠.
      그러나 집에 서버를 둔다면 랙에 장착해도 소음이 심할것이라서, 저렴한 가격과 인테리어 요소를 주 관점으로 봐야할 것 같습니다.

      2010.02.04 00:30 신고 [ ADDR : EDIT/ DEL ]
    • 의외로 나무 재질이 소음이나 진동을 잘 흡수합니다.
      저도 서버실에나 들어가야할 장비(15베이 DAS)를 하나 쓰는데, 이게 철제 책상이나 랙에서는 소음과 진동이 심한데, 나무 책상에서는 소음이나 진동이 매우 적습니다.
      소음에는 그 자체 소음도 있고, 공진 소음도 있는데, 나무가 공진 소음을 어느 정도 해소해 줍니다.

      2021.01.16 13:10 신고 [ ADDR : EDIT/ DEL ]
  2. 알 수 없는 사용자

    부러워요~ 저도 가정용 서버를 구축하려고 힘쓰는 사람인데...
    현실적으로 힘들어서~!좋은정보 감사~!ㅋ

    2010.02.02 09:36 [ ADDR : EDIT/ DEL : REPLY ]
  3. 나름 모양새가 좋긴 한데, 옆이 뚫린게 모양새가 영 ^^;
    소음이나 발열도 생각해볼 문제입니다.

    2010.02.02 10:00 [ ADDR : EDIT/ DEL : REPLY ]
  4. 소..소음이.....물론 저정도를 쓰실 분이면 그정도는 당연히 감안하시는 분들이겠지만.. 제 일도 아닌데 괜히 걱정 되는군요. ㅎㅎ ^_^;

    2010.02.02 13:00 [ ADDR : EDIT/ DEL : REPLY ]
    • 소음이 문제긴 합니다. 랙에 설치해도 소음문제는 어쩔 수 없죠.
      집에서 1U, 2U 서버를 여러대 돌린다면 단독주택에서, 별도 방에 마련해서 해야할 듯. ㅋㅋ

      2010.02.04 00:33 신고 [ ADDR : EDIT/ DEL ]
  5. 집에다가 전용선을 설치할만 사람들이라 생각됩니다...
    소음때문에 별도의 방도 필요할 듯하고... 아무튼 저리 살려면 역시 돈이 많아야겠습니다...
    그래도 집에 서버가 있으니 마음은 편하겠습니다..... 유지보수가 떨어져 있는 것보다 훨씬 유리할테니까요..

    2010.02.04 09:35 [ ADDR : EDIT/ DEL : REPLY ]
    • 제목은 '가정용'이라고 썼지만, 젤 적합한 곳은 작은 사무실일겁니다.
      콘솔작업하러 IDC까지 갈필요가 없어서, 좋긴하겠네요. ^^

      2010.02.06 01:21 신고 [ ADDR : EDIT/ DEL ]
  6. 이거 대박이네요~

    대학교 1~2학년 시절, 집에서 펜티엄 100으로 리눅스 서버 돌리던 기억이...

    2010.02.04 11:08 [ ADDR : EDIT/ DEL : REPLY ]
  7. 알 수 없는 사용자

    오오 ㅋㅋ 대단

    2010.02.04 17:46 [ ADDR : EDIT/ DEL : REPLY ]
  8. 어찌 보면 고풍스럽기도 하고 어찌 보면 가구가 좀 아깝기도 한 구성이네요

    2010.02.05 13:09 [ ADDR : EDIT/ DEL : REPLY ]
  9. ㅎㅎㅎ... 가정에서 저정도의 장비를 구비 한다면... 소음+전기료 상당 하겠네요...

    ^^

    잘 지내시죠???

    2010.03.10 16:23 [ ADDR : EDIT/ DEL : REPLY ]
    • ㅎㅎ 그렇겠죠. 가정보다는 작은 사무실이나 대학 연구실에 적합할 것으로...

      잘 지내고 있습니다.
      강아쥐님의 블로그도 자주 찾아뵈어야 하는데... ^^

      2010.03.12 23:42 신고 [ ADDR : EDIT/ DEL ]
  10. 올만이네요 형~ 가구 대박....

    2010.04.14 17:10 [ ADDR : EDIT/ DEL : REPLY ]
    • 미르도 테이블 하나 사서 사무실에 만들어. ㅎㅎ

      날씨 급변동. 건강 잘 챙기게.

      2010.04.14 19:22 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 10. 7. 18:50
70만 Square feet 크기(약 6만 5천 제곱미터)의 초대형 데이터센터인 MS의 시카고 데이터센터의 를 운영의 사진 몇 장이 공개됐다.

- 윗층은 전형적인 데이터센터 형태인 반면에
- 아랫층은 세계에서 가장 큰 컨테이너형 데이터센터이다.

윗층은 총 4개의 12000 square feet크기의 서버 룸을 갖고 있다.
아랫층은 1단계 마무리되었고, 1단계 마무리로 56개의 컨테이너를 운영할 수 있다. 2단계도 56개의 컨테이너가 들어설 것이므로, 아랫층 데이터센터에는 총 112개의 컨테이너가 들어설 것이다.
각 컨테이너는 2천대의 서버가 들어간다. 따라서 계산상으로는 112 X 2000 = 약 224,000 여대의 서버를 수용할 수 있다.

 1) 데이터센터내 컨테이너 모습
※ 큰 사진은 Inside Microsoft's Chicago Data Center 에서 볼 수 있음

2) 컨테이너내 서버 (중앙 통로)
※ 큰 사진은 Microsoft Chicago: Center-Aisle Container 에서 볼 수 있음

3) 컨테이너내 서버 (측면)

4) 전력, 냉각 시설

※ 위 사진은 모두 Data Center Knowledge 에서


그리고, MS는 36초짜리 동영상을 공개했다. Microsoft Chicago Data Center Container Bay (실버라이트 설치 필요)

참고로 애플은 노스 캐롤리나(Maiden, North Carolina)에 50만 square feet(약 4만 6천 제곱터)의 초대형 데이터센터를 구축 준비중이다. 이 애플의 데이터센터는 클라우드 서비스를 위한 것으로 추측되고 있다. 애플 데이터센터에 대해서는 아래 관련글을 참고하길 바란다.

MS, 애플, 그리고 구글의 6억 달러 규모의 캐롤리나 데이터센터까지 데이터센터의 삼국지를 보는 듯 하다.


* 관련글 :

- 애플, 새로운 데이터센터 구축 계획 (2009.7.16)
- Apple, eBay의 데이터센터 임원진 'Olivier Sanche'를 영입 (2009.8.14)
- 2009/08/16 - [IT이야기] - Microsoft의 초기 웹사이트는 이렇게 생겼다
- 2009/06/01 - [IT이야기] - 해외 주요 업체의 서버 대수는?
- 2009/04/10 - [IT이야기] - 구글, 구글 서버와 데이터센터 발표자료를 풀 동영상으로 공개
- 2009/04/03 - [IT이야기] - 구글 데이터 센터 내부 공개, 그 안을 들여다보자

Posted by 좋은진호

댓글을 달아 주세요

  1. 수준이 거의 커다란 공장 같군요...
    엄청납니다...

    2009.10.07 19:21 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. 엄청나네요..

    2009.10.07 20:06 [ ADDR : EDIT/ DEL : REPLY ]
    • 놀랍죠. ^^
      우리 나라 데이터센터가 슈퍼같다면, 저긴 창고형 대형마트라고 해야할 듯.

      2009.10.08 18:59 신고 [ ADDR : EDIT/ DEL ]
  3. 그 규모에 입이 다물어지지 않습니다..

    2009.10.08 13:31 [ ADDR : EDIT/ DEL : REPLY ]
    • 20~30만 SF. 규모의 데이터센터도 대형이라고 하는데, 50만 이상이면 그 규모가 얼마나 큰 건지 놀랍기만 합니다. 축구장은 저리가야죠. ㅋㅋ

      2009.10.08 19:00 신고 [ ADDR : EDIT/ DEL ]
  4. 정말 장관이군요... 구경하러 가고 싶네요~

    2009.10.08 21:47 [ ADDR : EDIT/ DEL : REPLY ]
    • 저런 극비 시설을 공개하는 경우가 거의 없을테지만,
      저도 보고 싶어요. ^^

      2009.10.09 12:41 신고 [ ADDR : EDIT/ DEL ]
  5. 중소업체의 조그만 전산실은 그냥 비교자체를 불허하는군요.

    2009.10.09 13:09 [ ADDR : EDIT/ DEL : REPLY ]
  6. 멋지네요~ 컨테이너에 넣으면 냉각효율이 더 좋을까요?

    2009.10.09 17:40 [ ADDR : EDIT/ DEL : REPLY ]
    • 컨테이너 데이터센터로 만들면, 모듈화가 되니 구축 시간을 단축할 수 있겠지.

      2009.10.10 01:29 신고 [ ADDR : EDIT/ DEL ]
  7. ^^ 엄청 크네요.... 헐...

    2009.10.17 11:36 [ ADDR : EDIT/ DEL : REPLY ]
    • 그러게 말입니다. 저쪽 동네는 뭘 해도~~ 규모가 참 커요. 나중에 애플 신규 데이터센터가 조금이라도 공개가 된다면 또 한 번 놀라지 않을까... ^^

      2009.10.21 01:55 신고 [ ADDR : EDIT/ DEL ]
  8. [클라우드의 충격] 3장 PDF 파일 올려두었습니다. 구글의 데이터센터 가동 현황을 볼 수 있는 챕터로 올려두었습니다. ^^* ==> http://jpub.tistory.com/60

    2009.10.29 14:28 신고 [ ADDR : EDIT/ DEL : REPLY ]

IT이야기2009. 6. 1. 13:45
Data Center Knowledge에 'Who Has the Most Web Servers?' 라는 흥미로운 글이 올라왔다. Netcraft자료, 해당 회사에서 직접 공개한 자료를 통계로 하여 서버 대수가 정리되어 있고, 이외 최소한 5만대 이상일 것 같은 업체를 추측하였다.

이외 추측한 서버 대수이다.
micosoft
google
ebay
facebook

  • 구글은 2006년 자료에 따르면 45만대였다. ( 추가 참고 : http://truefeel.tistory.com/133 ) 현재는 몇 대일까? 백만대라고 예상하는 경우도 있다.
  • Microsoft는 21만대 이상 예상. 시카고의 컨테이너형 데이터 센터가 운영되면 그 이상이 될 것이다. 계산상으로는 시카고 데이터센터에 150개~220개의 컨테이너가 들어가는데, 서버수로는 30만대까지 들어갈 수 있다고 한다.
  • eBay는 5만대 예상. 놀라운 것은 데이터 보유량이다. Greenplum data warehouse에는 6.5 petabyte(1 PB = 1000 TB)의 데이터가, Teradata data warehouse에는 2 petabyte의 데이터가 있다.
  • Facebook은 2008월 4월에 1만여대 이상의 서버로 운영중이였다고 한다. 2억명의 유저와 400억개의 포토가 저장되어 있다. 1일 4000천만개의 포토가 신규 등록된다고 하니 놀라울 따름. 현재는 5만대로 추측.
국내 주요 사이트는 과연 몇대의 서버를 있을까? 몇년전에 네이버가 5천~6천대 얘기가 있었으니 지금쯤은 1만대가 넘었을지 않을까 싶다. 지금은 2만대 이상 운영하고 있다고 한다. 그리고 정식오픈한 검색서비스 큐로보(www.qrobo.com)가 2만대.


* 관련글


Posted by 좋은진호

댓글을 달아 주세요

  1. 알 수 없는 사용자

    정말 억~ 소리 나는군요.

    2009.06.03 10:50 [ ADDR : EDIT/ DEL : REPLY ]
  2. 매일경제 2009.03.23자 기사
    http://news.mk.co.kr/newsRead.php?rss=Y&sc=40200001&year=2009&no=180806
    '...NHN은 서버만 2만대 이상을 운용하고 있을 정도로 국내 최대 규모 인터넷 인프라스트럭처를 자랑한다.'라고 쓰였네요. 본문 내용 수정했습니다.

    2009.06.10 00:11 신고 [ ADDR : EDIT/ DEL : REPLY ]
  3. 티스토리도 한 3000대는 될까여? ㅎㅎㅎㅎ
    그나저나 세계적으로 급격히 불어나는 서버들 때문에 전력 사용량이나 탄소 발생량도 엄청 증가한다고 하던데 고효율 서버 개발이 절실할듯 하네요.

    2010.07.20 00:53 [ ADDR : EDIT/ DEL : REPLY ]

IT이야기2009. 4. 10. 13:39
4.1일 마운틴뷰에서 있었던 'Google Data Center Efficiency Summit'행사의 주 세션 3개에 대한 풀 동영상을 구글이 직접 유튜브(YouTube) 에 공개했다. 또한 이번 행사 페이지( http://www.google.com/corporate/green/datacenters/summit.html )가 마련되어 있다. 이 페이지에서 동영상과 각 발표자료 문서(구글 문서도구 '프리젠테이션'으로 제공)까지 그대로 볼 수 있다. 이 모든 것을 숨김없이 공개한 구글. 구글아~~ 고맙다.

Google Efficient Data Centers Summit - 1 of 3 (2시간 23분)
  • Welcome (구글의 Urs Hoelzlee)
  • Standards from The Green Grid (Green Grid의 John Tuccillo)
  • Insights Into Google's PUE (구글의 Chris Malone & Ben Jai)
  • What's Next for the Data Center Industry (EPA의 Andrew Fanara)


Google Efficient Data Centers Summit - 2 of 3 (2시간 15분)
  • Data Center Efficiency Best Practces (아마존의 James Hamilton)
  • Google Data Center Video Tour (구글의 Jimmy Clidaras)
  • Best Practices Q&A


Google Efficient Data Centers Summit - 3 of 3 (49분)
  • Sustainable Data Centers & Water Management (구글의 Bill Weihl & Joe Kava)
  • Wrap-Up (구글의 Luiz Barroso & Urs Hoelzle)


6분 37초짜리 구글의 켄터이너 데이터센터 투어 동영상까지 함께 올렸다. 참석자들이 찍어서 올린 것보다 나은 화질. 



Posted by 좋은진호

댓글을 달아 주세요

  1. 개념을 완전히 파악하지는 못했지만 어쨌든 둘러보고 갑니다.

    2009.04.10 13:58 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. 알 수 없는 사용자

    진호님. 이것도 트랙백 걸겠습니다. 좋은 자료 감사해요~ ㅋ

    2010.01.18 10:27 [ ADDR : EDIT/ DEL : REPLY ]
    • 데이터센터를 전문으로 하는 기자분이 있다는 걸 처음 알았습니다. 자주 방문해야겠습니다. 감사합니다.

      2010.01.18 18:03 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 4. 3. 23:20
4.1일 마운틴뷰에서 있었던 'Google Data Center Efficiency Summit'을 통해서 구글 데이터센터 내부의 모습과 자체 설계 조립한 서버가 공개되었다. 이번 행사는 데이터 센터의 효율성 개선을 위해 혁신을 논의하려고 엔지니어와 경연진을 대상으로 한 구글의 행사였다고 한다.

데이터센터는 내부의 모습은 이번에 처음(외부 공개는 이번 처음으로 알고 있음)으로 공개됐다. 그 이전에는 휴대폰으로 찍은듯한 저화질수준의 사진 몇장만 볼 수 있었다. 그 것도 데이터센터 내부를 봤다고 하기에는 무리인 랙 몇개 정도의 작은 공간만 사진에 담겨있다.

이번에 공개된 동영상과 발표자료를 보면, 데이터센터 내부는 마치 공장을 보는 듯한 느낌이다. 가장 큰 특징은 모듈화된 구조로, 콘테이너 박스안에 서버와 스토리지를 넣는다는 것이다. 구글은 이런 형태의 시설을 2005년 후반부터 이용하고 있으며, 40피트 컨테이너에는 최대 1,160대의 서버가 들어간다고 한다. 실제 45개 컨테이너에 약 4만대의 서버가 들어있다.

google data center
[ 구글 데이터 센터 내부. 이미지 출처 : 'Google’s Container Data Center Video Tour'  ]

google data center의 서버

[ 컨터이너 내부. 출처 : 위 URL ]


  • 컨테이너를 이용한 모듈화
  • 1개 컨테이너에 최대 1,160대 서버
  • 45개 컨테이너에 약 4만대의 서버
  • 엔지니어는 스쿠터를 타고 이동
  • 자체 설계, 조립한 서버 사용. 케이스 없는 누드(?) 서버
  • 중앙식 UPS가 아닌 분산화된 UPS(서버 설명할 때 다시 얘기하겠음)
  • 컨테이너당 전력소비량 250Kw
  • 10MW
  • 컨테이너 바닥에 쿨링 시스템 (전면 'Cold Aisle' 측이 27℃ 유지)
※ Hot Aisle과 Cold Aisle이 있는데, 찬공기를 끌여들이는 전면을 Cold Aisle, 반대로 공기가 배출되는 뒷면을 Hot Aisle이라고 함.

'Inside A Google Data Center' (점심 때 봤을 땐 조회수 2천정도 였는데, 많이 늘었네 ^^)


'Google’s Container Data Center Video Tour' 에서 발표자료 일부(사진 촬영)를 볼 수 있다.

구글의 서버를 살펴보자.

구글의 UPS 효율성은 몇%일까? 놀라지 마라~~ 무려 99.9%이다. 이 효율은 바로 구글 서버 설계에 숨겨있다.
일반적으로 파워서플라이는 12V, 5V, 3.3V등 여러 전압을 제공한다. 그러나 실제로 사용하는 전압은 정해져 있고, 미사용 전압으로 변환한다는 것은 효율의 저하를 가져온다. 구글은 이중에서 12V(노란색 케이블)만 메인보드에 제공하고, 모두 없앴다. HDD로 5V전압은 메인보드에서 제공한다. 그리고, 서버에 배터리까지 장착했다. 이 배터리는 서버에 장착된 on-board 개념의 분산화된 UPS다. UPS를 서버단위까지 분산화했다니 놀랍지 않은가. 이로써 효율을 99.9%으로 끌어올렸다.

google server (구글 서버)
[ 구글 서버. 사진 중앙이 배터리 부분. 이미지 출처 : 'Close up an Old Google Server, and eWaste'  ]

google server (구글 서버)

[ 구글 서버. 출처 : 위 URL ]


  • 기가바이트 메인보드 (사진으로 확인 가능)
  • 2 CPU
  • 2개의 HDD
  • 8개의 메모리
  • 서버 케이스 없음
  • 서버에 배터리 장착(중앙식 UPS가 아닌 서버에 배터리를 붙여 구현한 분산화된 UPS, on-board UPS 개념, lead-acid 배터리)
'Google's Web Servers, Revealed'


구글 서버는 자체 설계한 부분이 많다는 것은 구글 자체 논문 발표, 책('구글을 지탱하는 기술') 등을 통해서 알고 있었다. 하지만 서버에 직접 배터리를 장착한다는 놀라운 사실은 처음 알았다. 데이터센터도 일반적인 센터 구조와 비슷할 것이라고 여겼는데(몇년전 저해상도 사진에서는 일반적 랙구조였음. 구글 데이터센터가 여러 곳이므로 일반적 랙구조도 있을 수 있겠지만), 내 상상력은 안드로메다에 두고 왔구나 싶다.

HW 설계 기술, 데이터 센터 설계 기술, 센터 운영력에서도 기술과 상상력을 보여준 구글이다. '역시 구글이다'라는 생각이 든다.

Posted by 좋은진호

댓글을 달아 주세요

  1. 후덜덜.. 생각할 수 있는 기회를 주고, 그 생각을 구현할 수 있게 환경을 마련해주는 구글.. 멋집니다. 기존 업계에서 해오던 방식에서 벗어나는 작업을 하는 걸 두려워하는 대부분의 기업과는 정말 다르군요.. 구글은 정말 구글스럽네요.

    2009.04.03 23:42 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. 구글 서버를 조립하면서 즐거워했을 구글 Geek들의 모습이 그려지는 듯 합니다.
    좋은 글 감사합니다.

    2009.04.04 08:53 [ ADDR : EDIT/ DEL : REPLY ]
    • 역시 Geek들인 것 같아요. 투입을 기다리는 서버가 차곡차곡 쌓여있을 것 같은 장면이 떠오릅니다.

      감사합니다.

      2009.04.04 13:48 신고 [ ADDR : EDIT/ DEL ]
  3. 구글, 이동형 데이터센터 미 특허 취득
    http://media.daum.net/digital/it/view.html?cateid=1077&newsid=20071018080014068&p=dt
    2007년 10월에 구글이 '컨테이너' 데이터센터에 대한 특허를 취득했었군요.

    2009.04.04 13:52 신고 [ ADDR : EDIT/ DEL : REPLY ]
  4. darkhi

    배터리에 대한 자세한 설명은 없는게 당연하겠지만..
    배터리가 항시 켜져있어야 하는것일까요
    배터리라는 부분은 제가 잘 모르지만 디카나 핸드폰같은 경우에는 일정 시간이 지나면
    방전이 되게 되어 있고 수명이 길지 않은 편인데..
    4만대의 배터리가 일정 기간 단위로 교체되어져야 하는 부분은 비용이 상당하겠네요..
    물론 서버라는 자체가 안정성을 최우선으로해야 하는 부분이니 감수해야겠지만요..
    그래도 남다른 생각이 새로운 발전을 이끌수 있는 계기가 되어 좋은 듯 싶습니다.

    2009.04.05 01:39 [ ADDR : EDIT/ DEL : REPLY ]
    • 글에도 있듯이 lead-acid 배터리입니다. 자동차용, UPS 등에서 사용하는 배터리입니다. 완전충전해두는게 좋고, 완전방전은 안하는게 좋습니다. 수명도 길죠.

      저가용 서버를 사용하므로 부품의 교체는 많겠지만, 그래도 비용면이나 안정성에서는 오히려 나을 것입니다. 안정성이 높은 것은 다중화가 되어 있깄때문이죠. 이 부분에 대한 것은 구글 논문을 읽으시거나 '구글을 지탱하는 기술'을 읽어보시면 도움이 됩니다.

      2009.04.05 23:45 신고 [ ADDR : EDIT/ DEL ]
  5. 아주, 간략하면서도 쌈빡하게 글을 작성 하시는 분이군요...저도 지난 주 저 글을 읽고 번역을 해야 한다는 일종의 강박 관념으로 일요일을 꼴닥 세웠다능...>_<...컨테이너를 사용해서 어디든지 옴ㄹ겨 다닐 수 있도록 하겠다는 발상, 신선하지만 새로운건 아니지요...홍콩의 홍콩 은행 같은 경우는 이미 수 십년 전에 조립식 건물을 짓고 여차하면 분해해서 튈 생각까지도 가지고 있었으니 말입니다... 제 트랙빽 붙입니다...전 한 뉴스의 기사를 전면 번역해서 오린 글입니다...함 오셔서 봐 주세용~...

    2009.04.05 23:34 [ ADDR : EDIT/ DEL : REPLY ]
    • CNet에 올라온 글을 번역하셨군요. 감사합니다.
      오~ 은행에서 분해형 건물을 짓다니.

      모듈형 데이터센터가 새로운 건 아니죠. 맞습니다. SUN, HP POD, MS 등에서 이미 해왔거나 진행중이니 말이죠. 그러나 말씀하신대로 '신선'하고, 그들은 이분야에 '선두주자'입니다. 애플의 '아이폰'이 스마트폰의 시초는 아니죠. 그러나 신선합니다. 바로 이게 더 중요한 것 같습니다.
      구글은 모듈형 데이터센터를 보편화하여 운영하는 가장 대표적인 곳일 것입니다. 그들은 바로 '이노베이터'이자 '얼리어댑터'라고 할 수 있습니다.

      번역하신 글 읽으러... go ^^

      2009.04.06 19:25 신고 [ ADDR : EDIT/ DEL ]
  6. 글 읽으면서 저 UPS의 성능이 얼마나 될까 살짝 궁금해졌습니다. 과연 정전상태에서 얼마나 버틸 수 있는지 말이죠.

    2009.04.06 11:57 [ ADDR : EDIT/ DEL : REPLY ]
    • 별도 UPS도 있을 것으로 보입니다. 네트웍 장비, 보안장비, 감시장비들도 감안하면 있어야 할 것 같아요.

      그리고 저 서버에 붙인 배터리는 start할 때나 다른 A/C등으로 전환할 때 사용하는 것으로 보입니다. 주 전원이 안들어올 때 다른 곳에서 공급할 때까지 버텨주는 용도의 것이 아닐까...

      이 얘기는 제 추측입니다. ^^

      2009.04.06 19:49 신고 [ ADDR : EDIT/ DEL ]
    • 명확한 답이 있네요.
      http://perspectives.mvdirona.com/2009/04/01/RoughNotesDataCenterEfficiencySummit.aspx 블로그에 구글 발표 요약내용이 있습니다.
      그중 'Only enough power in UPS to allow generators to start or to switch to other A/C supply.' 부분

      UPS에는 발전기를 가동할 만큼이나 다른 A/C 전원장치로 전활할 만큼의 전력만 있다라는 것. 따라서 그리 많은 양이 아니고 전환시까지의 버티기용. ^^
      주전원 외에 다른 전원을 공급해줄 시설(또는 전원시설의 이중화)을 갖고 있다는 얘기가 되겠네요.

      2009.04.08 23:53 신고 [ ADDR : EDIT/ DEL ]
    • 제 보잘것 없는 질문에 친히 정보를 찾아서 답변까지 해주시고, 고맙습니다.

      2009.04.09 10:56 [ ADDR : EDIT/ DEL ]
  7. 컨테이너... 헐... IDC의 모듈화가 앞으로의 화두가 될수도 있겠네요... ㅎㅎㅎ

    서버 케이스도... 완전... ㅡ.ㅡ 대박이고...

    뭐... 먼지(dust)만 안 쌓인다면... 효율성은... 극대화 되겠군요...

    흠... 스쿠터도 완전히 깹니다...

    돈 버는 회사는 역시 따로 있군요...

    뭐... 어떤 글에서 보니깐... 구글이 되고 싶은 네이버와 네이버가 되고 싶은 네이트 란... 글이 있던데...

    ^^ 보고 배워야 될듯 하네요...

    2009.04.06 17:38 [ ADDR : EDIT/ DEL : REPLY ]
    • 컨테이너형은 SUN, HP POD, 그리고 MS까지 뛰어든 상태입니다. 이동성과 시간절약할 수 있는 최적의 조건이니깐요.
      상상(가능성)을 현실로 만든이들.. 멋지죠? ^^

      2009.04.06 19:49 신고 [ ADDR : EDIT/ DEL ]
  8. 트랙백타고 왔습니다. "역시 구글!" 이죠.

    2009.04.07 02:05 [ ADDR : EDIT/ DEL : REPLY ]
  9. 컨테이너 DC는 SUN이 유명하길래, SUN이 특허를 가지고 있나 싶었는데, Google이었군요. 흐흐
    작업상 DC를 자주 드나드는 편입니다만, Google의 서버는 놀라울 뿐입니다. 부럽기도 하고요... 흐흐

    2009.04.10 13:22 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 저도 컨테이너형 데이터센터를 처음 알게된게 SUN이었는데, 실용적으로 활용하는 면에서는 구글이 한수위이네요. http://truefeel.tistory.com/149 의 발표자료 문서도 한번 살펴보시기 바랍니다. 구글 서버 PT를 보니 이해가 아주 잘 되게 쓰여있더군요.

      2009.04.11 01:12 신고 [ ADDR : EDIT/ DEL ]
  10. 구글에는 폭포를 이용해서 냉각과 발전을 하는 IDC도 있다고 들었는데 이거랑 관련이 있나요? 그나저나 스쿠터를 타고 이동하는 엔지니어라니 멋지군요 ^^

    2009.08.13 09:14 [ ADDR : EDIT/ DEL : REPLY ]
    • 미국의 대형 데이터센터들은 전력 확보를 위해서 대형 댐 옆에 짓는 경우가 많습니다. 구글도 마찬가지구요. 그리고, 같은 강을 따라 데이터센터가 강을 따라 생기기도 합니다.


      가장 흥미로운 곳은 일명 '제임스 본드 악당(James Bond Villain)' 데이터센터입니다. 스톡홀롬 Vita Berg Park의 지하 30미터 아래 벙커에 위치해 있어요. 실제 냉전시대 군사용 지하벙커로 사용되던 곳에 지어진 데이터센터입니다. ^^

      http://www.archdaily.com/9257/pionen-%E2%80%93-white-mountain-albert-france-lanord-architects/
      https://www.youtube.com/watch?v=qwlATf9xse4

      올 상반기에 이 데이터센터에 대해 글 한 번 쓸려고 했는데, 못 썼네요. ^^

      2009.08.15 00:46 신고 [ ADDR : EDIT/ DEL ]
  11. jyp

    좋은 자료입니다. 제 블로그에 트랙백 좀 걸겠습니다. 앞으로도 데이터센터관련 좋은 글 많이 올려주세요!!

    2010.01.18 10:20 [ ADDR : EDIT/ DEL : REPLY ]
  12. [잇글링] 이 글이 [랜선까는석현]님에 의해 스크랩되었습니다.(보러가기 : http://www.itgling.com/spot/7623 )

    2010.10.06 20:52 [ ADDR : EDIT/ DEL : REPLY ]
  13. 웹서핑하다 왔는데 역시 구글다운 서버입니다.
    일반적인 idc형태와는 다른방식.
    다른서버..

    여러 회로를 가지고노는넘으로서 감히 말씀드리자면,
    저렇게 psu에서 12v만을 공급하여 5v따위 서브보드를 통해 생성 공급하는것은
    일단 12v 배터리를 복잡한 ups와 다른 간단한회로로 직결할 수 있으며
    인버터 장치가 필요없어 내용처럼 99.9% 효율이 가능하며 안정성에 있어 엄청난 이득을 줍니다.

    일반적 ups는 ac를 dc로 변환하고 배터리를 충-방전 감지회로와 다시 인버팅하여 ac를 출력하는데 이 과정에서 손실이 생기고 ups자체도 비싸집니다.
    또 순간단전시 순간리플이 생길 수 있으며 이를 생기지 않게하려면 상시인버팅 회로를 구성해야되는데 그럼 효율이 더 떨어집니다.
    저런 체제는 psu유닛의 고장까지도 대비할 수 있고
    순간 단전시 아무런 전원불안정 없이 서버를 살려둘 수 있게됩니다.
    물론 정전시 배터리의 방전에 능동적 대처는 안되지만(수많은 서버의 배터리를 일제히 갈아줄순없으니)
    idc상황상 완전 정전은 없고
    백업 변전 시설이나 자가발전 등 이미 여러루트를통해 충분히 보상되고 있을테니
    어디까지나 전력계통의 변화를 줘야되는 순간단전을 견디면 되는경우가 대부분이라.(또 완전정전에 버텨날 idc는 없음으로)
    매우 훌륭한 구성이 되겠심다.

    배터리 수명 역시 걱정할게 없는게 (솔찍히 배터리에 대해서는 잘 모릅니다만..) 납-연축 배터리라는 가정하에 수명 5년 정도로 봐도
    어짜피 그 시기라면 퍼포먼스 하락이나 하드디스크 신뢰성문제로 서버의 하드웨어 교체나 점검이 필요한시기라 서버 점검/교체시 배터리를 같이보면 되니 관리 측면에서 별도 ups시설대비 절대 효율성 떨어지지 않을겁니다.

    서버마다 모듈화된 배터리는.
    개인용 서버pc를 두대 돌리면서 운용할때 구상하는 방식이지만(제 홈페이지는 구글이 아니라-- ㅋ 필요가 없어 적용은 안합니다)
    구글은 저런 얼리아답터가 pc를 운용하는듯한 모양새로 idc서버를 운영하다니.
    정말 구글다운 발상이며 대단하다 보여지네요

    2011.09.06 20:52 [ ADDR : EDIT/ DEL : REPLY ]
    • 지식이 해박하시네요.

      뛰는 놈 위에 나는 놈이 페이스북인 것 같습니다. 서버까지 오는 단계를 줄여서 효율은 페이스북의 효율은 더 좋습니다.
      페이스북의 데이터센터는 http://truefeel.tistory.com/197

      2011.09.07 19:57 신고 [ ADDR : EDIT/ DEL ]
  14. 마푸

    메인보드가 기가바이트꺼네요. 구글의 요구대로 OEM 납품했을걸로 추측되는데 그대로 기가바이트 상표가 찍혀있네요. 전력 절감을 위해 사용한 기술들은 신기술이라기보다는 남들이 시도하지 않은 것들을 시도했다는데서 높은 점수를 주고 싶네요.
    더군다나 안정성을 최고로 추구하는 보수적인 서버기술에서 그랬다는게 신선하군요.

    2012.10.18 10:01 [ ADDR : EDIT/ DEL : REPLY ]
    • 안정성은 다수의 서버로 해결이 되니깐, 다른 중요 요소인 효율성을 위해 발상의 전환이 절실했을 겁니다.
      페이스북의 데이터센터의 효율성은 더욱 놀랍습니다. ^^

      2012.10.18 19:37 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 3. 17. 19:01
1~2월에 시스코에서 서버 시장에 진출한다는 언론보도가 있었다. 그리고 시스코는 16일 서버 진출에 대한 공식 선언을 했다. 시스코의 서버시장 진출에서 가장 중요한게 봐야할 것은 UCS(Unified Computing System) 개념. 'Unified'단어에서도 알 수 있듯이 서버, 네트웍, 스토리지, 가상화 SW가 하나로 묶어 통합된 하나의 아키텍쳐를 제공한다는 것이다. 그들은 이 UCS가 데이터센터용으로 새로운 표준 아키텍쳐가 되기를 기대하고 있다.

간략한 사항은 다음과 같다. ('Data Center Knowledge'의 글에 따르면 4월 초에 상세한 사항이 나올 예정)
  • 비용 절감 : 설비 비용(CAPEX) 최대 20%, 운영 비용(OPEX) 최대 30%까지 절감한다고 주장
  • 인텔 네할렘(Nehalem) 프로세서(새로운 제온 프로세서)
  • 10G 네트웍 지원
  • 가상화 기술
  • GUI, CLI환경의 'Cisco UCS Manager'를 이용하여 중앙에서 통합관리할 수 있다. API 제공
  • 6U 블레이드 샤시 ('UCS 5108' 모델의 경우)
  • 1U half 슬롯 크기의 서버 8대(아래 첫번째 사진) 또는 full 1U 서버 4대(두번째 사진)장착 가능

시스코의 UCS B-Series 블레이드 서버(사진에는 'UCS 5108'이라고 적혀있다.)의 사진이다. 플리커에 올라온 'Unified Computing Telepresence Press Conference' 에서 3000x2400 크기의 사진을 볼 수 있다.

Cisco UCS blade server
Cisco UCS blade server

[ 사진 출처 : 위 플리커 주소에서 ]

블레이드 서버를 만드는 IBM, HP, 선마이크시스템즈, Dell에는 어떤 영향을 미칠까? 파이를 나눠먹을 것인가, 더 커질 것인가? 현시점에서 이를 알기는 어렵다. 다만 서로 자극을 받아 혁신적인 플랫폼을 만들어내기를 바랄 뿐이다.

Posted by 좋은진호

댓글을 달아 주세요

  1. 보안기능은 빠져있는 건가요?

    2009.03.18 09:45 [ ADDR : EDIT/ DEL : REPLY ]
  2. 가상화 솔루션 업체들도 클라우드 컴퓨팅을 전략목표로 삼고있는 상황이니 시스코의 이런 전략은 제대로 들어맞지않을까 하네요.
    트랙백 감사합니다.

    2009.03.19 10:16 [ ADDR : EDIT/ DEL : REPLY ]
    • 예. 단순히 서버를 내놨다라고 하면 끌릴지 않는데, 여러 업체를 끌어들이고, 새로운 플랫폼의 방향을 제시했다는 점에서 주목할만합니다. 특히 가상화, 클라우드, 통합, 그린IT 등 이슈가되는 사항을 새로운 플랫폼에서 모두 들어볼 수 있다는 면에서 말이죠.

      가상화에 대한 정보를 얻기 위해서 yueisu님의 블로그에 자주 가야겠습니다. ^^

      2009.03.20 09:22 신고 [ ADDR : EDIT/ DEL ]
  3. ㅡ.ㅡ 글쎄요... 위에 글들은... 어차피 그 시대에 마추어 붙이기 나름이라고 봅니다.

    시스코 서버 제품이 얼마나... 성공할지가 궁금 하네요...

    IBM의 Sun 인수설에... 시스코의 서버사업 진출과도... 관계가 있다고 하더군요...

    2009.03.30 23:14 [ ADDR : EDIT/ DEL : REPLY ]
    • 그렇죠. 이름 붙이기 나름입니다. ^^ 하지만 그 이름에 따라서 고객에게 '프레임'이 형성되는것이니, 이름도 잘 붙이면 이미지 형성에는 훌륭한 역할을 할 것이라고 봅니다. 성공여부는 저도 궁금합니다. 여러 업체와 함께 잘 살아보자라는 것이나, 하나의 플랫폼을 제공하는 측면은 좋아보입니다.

      IBM의 Sun인수설과 이게 관련이 있군요. 감사합니다.

      2009.03.31 01:25 신고 [ ADDR : EDIT/ DEL ]
    • 아... 혹시 아실지 모르겠는데...

      예전??? 에도... HP 서버를 OEM 으로 시스코에서 팔더군요... 베젤이 조금 달라서 그렇지...

      ㅡ.ㅡ 똑같습니다.

      뭐... 용도는 네트웍 장치를 관리 서버라고 하던데...

      2009.04.01 14:30 [ ADDR : EDIT/ DEL ]
    • 정보 감사합니다.
      작년에 파트너 관계도 만료되었고, HP는 자사 네트웍 장비를 공급하고, 시스코는 자사의 서버를 공급할테니 이젠 경쟁관계가...

      2009.04.02 19:02 신고 [ ADDR : EDIT/ DEL ]