IT이야기2009. 8. 3. 13:03
위키피디아(Wikipedia)는 약 350여대의 서버로 운영되고 있다. 2008년 당시에 초당 5만번의 웹요청, 그리고 MySQL DB를 사용하여 초당 8만번의 SQL 쿼리가 발생한다. 지난 7월 31일에 잠깐동안 위키피디아(Wikipedia) 서비스에 장애가 발생했다. 아래 메시지 중에 10.0.6.28은 클러스터링된 DB서버 IP중의 1개이다.

wikipedia 위키피디아

[ 장애 발생한 위키피디아 페이지. 이미지 출처 : http://planet.mysql.com/entry/?id=20411 ]


This wiki has a problem

Sorry! This site is experiencing technical difficulties.
Try waiting a few minutes and reloading.

(Cannot contact the database server: Unknown error (10.0.6.28))

짧은 시간 동안이었지만, 그 순간에 위키피디아 백과사전을 봤어야하는 네티즌들은 답답했을 것이다. 이런 서비스는 공기와 같은 존재로 평상시에는 그 소중함을 느끼지 못한다. 그러나 공기 공급이 중단된다면? 숨이 턱턱 막히고, 답답함을 이루 말할 수 없다.
  • 가장 최근 일만 보더라도 지난달에 DDoS공격으로 메일서비스, 계좌이체, 인터넷 쇼핑 등이 원활하지 못해 답답함을 느꼈다.
  • 그 이전에 DDoS공격으로 인해 포털들의 부분적인 장애로 불편함을 겪었다.
  • 그리고, 지난 30일에 hanirc서버가 DDoS 공격를 당해 IP가 차단된 상태다. 현재 이순간에도 제대로 서비스가 이뤄지지 못하고 있다. 다수와 커뮤니케이션이 필요한 네티즌에게는 외로움과 답답함의 시간일 것이다. (참고로 hanirc에 대한 실시간 정보는 http://twitter.com/HanIRC 를 참고하기를 )
google data center 구글 데이터센터

[ 구글 데이터센터와 엔지니어 ]


중단없이 공기가 공급되도록 시스템 옆에는 늘 시스템 관리자가 있다. 위키피디아 장애가 발생한 이 날은 흥미롭게도 '시스템 관리자의 날'(시스템 관리자에게 감사하는 날, System Administrator Appreciation Day)이다. 올해로 10번째를 맞은 시스템 관리자의 날은 매년 7월 마지막 금요일로 정해져 있다. 364일동안 소외된 이 들을 위해 하루만이라도 감사하자는 의도다. 안타깝게도 시스템관리자는 잘하면 본전이고 잠깐 장애가 발생하면 욕먹는 위치에서 일하는 사람들이다.

시스템 관리자를 포함하여 늘 서비스가 중단되지 않도록 묵묵히 일하시는 분들에게 우리는 감사해야 한다. 서로에게 감사하자.

Posted by 좋은진호
IT이야기2009. 6. 1. 13:45
Data Center Knowledge에 'Who Has the Most Web Servers?' 라는 흥미로운 글이 올라왔다. Netcraft자료, 해당 회사에서 직접 공개한 자료를 통계로 하여 서버 대수가 정리되어 있고, 이외 최소한 5만대 이상일 것 같은 업체를 추측하였다.

이외 추측한 서버 대수이다.
micosoft
google
ebay
facebook

  • 구글은 2006년 자료에 따르면 45만대였다. ( 추가 참고 : http://truefeel.tistory.com/133 ) 현재는 몇 대일까? 백만대라고 예상하는 경우도 있다.
  • Microsoft는 21만대 이상 예상. 시카고의 컨테이너형 데이터 센터가 운영되면 그 이상이 될 것이다. 계산상으로는 시카고 데이터센터에 150개~220개의 컨테이너가 들어가는데, 서버수로는 30만대까지 들어갈 수 있다고 한다.
  • eBay는 5만대 예상. 놀라운 것은 데이터 보유량이다. Greenplum data warehouse에는 6.5 petabyte(1 PB = 1000 TB)의 데이터가, Teradata data warehouse에는 2 petabyte의 데이터가 있다.
  • Facebook은 2008월 4월에 1만여대 이상의 서버로 운영중이였다고 한다. 2억명의 유저와 400억개의 포토가 저장되어 있다. 1일 4000천만개의 포토가 신규 등록된다고 하니 놀라울 따름. 현재는 5만대로 추측.
국내 주요 사이트는 과연 몇대의 서버를 있을까? 몇년전에 네이버가 5천~6천대 얘기가 있었으니 지금쯤은 1만대가 넘었을지 않을까 싶다. 지금은 2만대 이상 운영하고 있다고 한다. 그리고 정식오픈한 검색서비스 큐로보(www.qrobo.com)가 2만대.


* 관련글


Posted by 좋은진호
일상2009. 5. 11. 18:31
'커피닉스'에서 '제이펍' 출판사의 '24시간 365일 서버/인프라를 지탱하는 기술'을 공동구매했다. 짧은 기간동안 잘 마무리되었고, 택배도 오늘 발송되었다. 지금 이순간은 마치 시험이 끝한 후 여유를 만끽하는 기분이다. 출판사, 커피닉서 모두 만족스러운 결과가 나오기를 바란다. 공구 진행하면서 느낀 점을 정리해보았다.

1. 엔지니어가 좋은점
  • 좋은 책을 저렴하게 구매했다.
  • 공동구매자끼리 함께 공부할 수 있는 기회가 생겼다. ( 1차적으로는 온라인으로 자주 만나는 분들과 책 내용에 대해 생각을 나눌 것 같다. )

2. 출판사가 좋은점
  • 책, 출판사명을 조금이라도 더 알릴 수 있는 계기가 될 것이다.
  • 구매자가 리뷰까지 쓴다면, 효과는 만점.
  • 공구가 아니면 사지 않았을 엔지니어까지 고객으로 끌어들일 수 있었다.

3. 개인적으로.
  • 속전속결. 공구하는 것이 어떻겠냐는 의견이 커피닉서 사이에서 나왔다. 그래서 바로 출판사에 의견을 물었고, '공구가'와 진행방식 협의, 공구 시작까지 당일에 속전속결로 진행되었다. ( 그 이전 상황에는 책에 대한 소개 메일을 출판사측으로 부터 받게되었고, 책을 이미 알고 있던터라 반가웠다. )
  • 짧은 기간동안 22명 참여, 27권의 구매가 이뤄졌다. 만족스럽다. (나에게 이득이 생기는 것도 아니지만. ^^)
  • 커피닉서와 함께 좋은 떡을 저렴하게 나눠먹을 수 있어서 기쁘다.
  • 구매신청자에게 진행상황을 자주 알려드렸다. 구매자에게는 '신청 확인' 답변을 드렸고, 현재까지 구매자수와 권수들을 전달할 수 있는 상황에는 알려드렸다. 초기 구매의사를 밝힌 분들(공구 전에 공구해도 좋은지 의견물었을 때 답한 분들)에게는 문자, 쪽지, 대화 등으로 최종 구매 여부를 재차 확인했다. 미입금자에게는 문자, 대화 등으로 처리했다. 이를 통해 커피닉서들과 유기적인 관계를 느낄 수 있었다.

아쉬운 점은 세금계산서 발행가능 여부를 확인하지 못했다. 마지막날 발행가능한지 묻는 분이 계셨는데, 답해드리지 못했다. 미리 확인했어야 했는데...
그리고 한가지 더. 반디앤루니스 코엑스점, 대교문고 용산아이파크점에서 책을 만나볼 수 없었다. 좀 더 많은 오프라인 서점에서 접할 수 있었으면 좋겠다. 대형마트의 식품매장만 봐도, 구매를 유혹하는 시식코너가 있다. 책 뚜껑도 열어보지 않고, 구매한다는 것은 재료와 색깔만 보고 떡맛을 알아맞춰야하는 상황 아닐까. 온라인 서점에서 구매하기 전에 서점과 도서관에서 북헌팅(?)하러 가는 나로써는 더욱 그렇다.

공구진행하면서 새롭게 알게된 사실. '실용서적'은 '도서정가제'에 해당되지 않는단다. 따라서 출간된지 1년 6개월이 안되었더라도 20% 이상 할인하여 판매할 수 있다고 한다.

2~3일간 진행되었던 공동구매동안 나 자신을 테스트하는 느낌도 들었다. 한명 한명 구매자가 늘어날 때마다 즐거웠다. 다음에 새로운 이벤트를 준비해봐도 재밌을 듯.
Posted by 좋은진호
IT이야기2009. 4. 10. 13:39
4.1일 마운틴뷰에서 있었던 'Google Data Center Efficiency Summit'행사의 주 세션 3개에 대한 풀 동영상을 구글이 직접 유튜브(YouTube) 에 공개했다. 또한 이번 행사 페이지( http://www.google.com/corporate/green/datacenters/summit.html )가 마련되어 있다. 이 페이지에서 동영상과 각 발표자료 문서(구글 문서도구 '프리젠테이션'으로 제공)까지 그대로 볼 수 있다. 이 모든 것을 숨김없이 공개한 구글. 구글아~~ 고맙다.

Google Efficient Data Centers Summit - 1 of 3 (2시간 23분)
  • Welcome (구글의 Urs Hoelzlee)
  • Standards from The Green Grid (Green Grid의 John Tuccillo)
  • Insights Into Google's PUE (구글의 Chris Malone & Ben Jai)
  • What's Next for the Data Center Industry (EPA의 Andrew Fanara)


Google Efficient Data Centers Summit - 2 of 3 (2시간 15분)
  • Data Center Efficiency Best Practces (아마존의 James Hamilton)
  • Google Data Center Video Tour (구글의 Jimmy Clidaras)
  • Best Practices Q&A


Google Efficient Data Centers Summit - 3 of 3 (49분)
  • Sustainable Data Centers & Water Management (구글의 Bill Weihl & Joe Kava)
  • Wrap-Up (구글의 Luiz Barroso & Urs Hoelzle)


6분 37초짜리 구글의 켄터이너 데이터센터 투어 동영상까지 함께 올렸다. 참석자들이 찍어서 올린 것보다 나은 화질. 



Posted by 좋은진호
IT이야기2009. 4. 3. 23:20
4.1일 마운틴뷰에서 있었던 'Google Data Center Efficiency Summit'을 통해서 구글 데이터센터 내부의 모습과 자체 설계 조립한 서버가 공개되었다. 이번 행사는 데이터 센터의 효율성 개선을 위해 혁신을 논의하려고 엔지니어와 경연진을 대상으로 한 구글의 행사였다고 한다.

데이터센터는 내부의 모습은 이번에 처음(외부 공개는 이번 처음으로 알고 있음)으로 공개됐다. 그 이전에는 휴대폰으로 찍은듯한 저화질수준의 사진 몇장만 볼 수 있었다. 그 것도 데이터센터 내부를 봤다고 하기에는 무리인 랙 몇개 정도의 작은 공간만 사진에 담겨있다.

이번에 공개된 동영상과 발표자료를 보면, 데이터센터 내부는 마치 공장을 보는 듯한 느낌이다. 가장 큰 특징은 모듈화된 구조로, 콘테이너 박스안에 서버와 스토리지를 넣는다는 것이다. 구글은 이런 형태의 시설을 2005년 후반부터 이용하고 있으며, 40피트 컨테이너에는 최대 1,160대의 서버가 들어간다고 한다. 실제 45개 컨테이너에 약 4만대의 서버가 들어있다.

google data center
[ 구글 데이터 센터 내부. 이미지 출처 : 'Google’s Container Data Center Video Tour'  ]

google data center의 서버

[ 컨터이너 내부. 출처 : 위 URL ]


  • 컨테이너를 이용한 모듈화
  • 1개 컨테이너에 최대 1,160대 서버
  • 45개 컨테이너에 약 4만대의 서버
  • 엔지니어는 스쿠터를 타고 이동
  • 자체 설계, 조립한 서버 사용. 케이스 없는 누드(?) 서버
  • 중앙식 UPS가 아닌 분산화된 UPS(서버 설명할 때 다시 얘기하겠음)
  • 컨테이너당 전력소비량 250Kw
  • 10MW
  • 컨테이너 바닥에 쿨링 시스템 (전면 'Cold Aisle' 측이 27℃ 유지)
※ Hot Aisle과 Cold Aisle이 있는데, 찬공기를 끌여들이는 전면을 Cold Aisle, 반대로 공기가 배출되는 뒷면을 Hot Aisle이라고 함.

'Inside A Google Data Center' (점심 때 봤을 땐 조회수 2천정도 였는데, 많이 늘었네 ^^)


'Google’s Container Data Center Video Tour' 에서 발표자료 일부(사진 촬영)를 볼 수 있다.

구글의 서버를 살펴보자.

구글의 UPS 효율성은 몇%일까? 놀라지 마라~~ 무려 99.9%이다. 이 효율은 바로 구글 서버 설계에 숨겨있다.
일반적으로 파워서플라이는 12V, 5V, 3.3V등 여러 전압을 제공한다. 그러나 실제로 사용하는 전압은 정해져 있고, 미사용 전압으로 변환한다는 것은 효율의 저하를 가져온다. 구글은 이중에서 12V(노란색 케이블)만 메인보드에 제공하고, 모두 없앴다. HDD로 5V전압은 메인보드에서 제공한다. 그리고, 서버에 배터리까지 장착했다. 이 배터리는 서버에 장착된 on-board 개념의 분산화된 UPS다. UPS를 서버단위까지 분산화했다니 놀랍지 않은가. 이로써 효율을 99.9%으로 끌어올렸다.

google server (구글 서버)
[ 구글 서버. 사진 중앙이 배터리 부분. 이미지 출처 : 'Close up an Old Google Server, and eWaste'  ]

google server (구글 서버)

[ 구글 서버. 출처 : 위 URL ]


  • 기가바이트 메인보드 (사진으로 확인 가능)
  • 2 CPU
  • 2개의 HDD
  • 8개의 메모리
  • 서버 케이스 없음
  • 서버에 배터리 장착(중앙식 UPS가 아닌 서버에 배터리를 붙여 구현한 분산화된 UPS, on-board UPS 개념, lead-acid 배터리)
'Google's Web Servers, Revealed'


구글 서버는 자체 설계한 부분이 많다는 것은 구글 자체 논문 발표, 책('구글을 지탱하는 기술') 등을 통해서 알고 있었다. 하지만 서버에 직접 배터리를 장착한다는 놀라운 사실은 처음 알았다. 데이터센터도 일반적인 센터 구조와 비슷할 것이라고 여겼는데(몇년전 저해상도 사진에서는 일반적 랙구조였음. 구글 데이터센터가 여러 곳이므로 일반적 랙구조도 있을 수 있겠지만), 내 상상력은 안드로메다에 두고 왔구나 싶다.

HW 설계 기술, 데이터 센터 설계 기술, 센터 운영력에서도 기술과 상상력을 보여준 구글이다. '역시 구글이다'라는 생각이 든다.

Posted by 좋은진호
IT이야기2009. 3. 17. 19:01
1~2월에 시스코에서 서버 시장에 진출한다는 언론보도가 있었다. 그리고 시스코는 16일 서버 진출에 대한 공식 선언을 했다. 시스코의 서버시장 진출에서 가장 중요한게 봐야할 것은 UCS(Unified Computing System) 개념. 'Unified'단어에서도 알 수 있듯이 서버, 네트웍, 스토리지, 가상화 SW가 하나로 묶어 통합된 하나의 아키텍쳐를 제공한다는 것이다. 그들은 이 UCS가 데이터센터용으로 새로운 표준 아키텍쳐가 되기를 기대하고 있다.

간략한 사항은 다음과 같다. ('Data Center Knowledge'의 글에 따르면 4월 초에 상세한 사항이 나올 예정)
  • 비용 절감 : 설비 비용(CAPEX) 최대 20%, 운영 비용(OPEX) 최대 30%까지 절감한다고 주장
  • 인텔 네할렘(Nehalem) 프로세서(새로운 제온 프로세서)
  • 10G 네트웍 지원
  • 가상화 기술
  • GUI, CLI환경의 'Cisco UCS Manager'를 이용하여 중앙에서 통합관리할 수 있다. API 제공
  • 6U 블레이드 샤시 ('UCS 5108' 모델의 경우)
  • 1U half 슬롯 크기의 서버 8대(아래 첫번째 사진) 또는 full 1U 서버 4대(두번째 사진)장착 가능

시스코의 UCS B-Series 블레이드 서버(사진에는 'UCS 5108'이라고 적혀있다.)의 사진이다. 플리커에 올라온 'Unified Computing Telepresence Press Conference' 에서 3000x2400 크기의 사진을 볼 수 있다.

Cisco UCS blade server
Cisco UCS blade server

[ 사진 출처 : 위 플리커 주소에서 ]

블레이드 서버를 만드는 IBM, HP, 선마이크시스템즈, Dell에는 어떤 영향을 미칠까? 파이를 나눠먹을 것인가, 더 커질 것인가? 현시점에서 이를 알기는 어렵다. 다만 서로 자극을 받아 혁신적인 플랫폼을 만들어내기를 바랄 뿐이다.

Posted by 좋은진호