IT이야기2015. 5. 25. 11:00

'실리콘밸리 견문록'의 저자 이동휘씨는 구글 본사 검색팀에서 소프트웨어 엔지니어로 일하고 있다. 구글 본사에 몇 분의 한국인이 있는지는 모르겠다. 그러나 구글 본사 한국인이 쓴 구글 경험담 책은 몇 권인 줄 안다. 이 한 권 뿐이다. (찾아보니 더 있었다. '이준영'씨가 쓴 '구글은 SKY를 모른다')


책 '실리콘밸리 견문록'


어떤 남자가 자기 집의 보일러가 고장나 서비스를 요청했다. 서비스센터 기술자는 몇 분 만에 그 문제를 해결했다. 수리비를 청구하자 서비스 요청한 사람은 몇 분 수리한 것도 없는데 왜 이리 비싸냐고 따졌다. 그 기술자는 이렇게 말했다.

"이 수리비는 몇 분 걸린 것에 대한 비용이 아니라 몇 년 간의 경험을 통해 알게 된 시간에 대한 비용입니다."


이 책이 바로 그런 책 같다. 이동휘씨는 이 책을 몇 달 동안 썼다고 한다. 몇 년간의 경험을 몇 달 동안 썼고 독자는 몇 시간 만에 읽는다. 그러니깐 몇 년 간의 경험을 몇 시간에 얻을 수 있는 책이다. 책이 가벼운 건 사실이다. IT인이라면 앞 몇 십페이지의 실리콘밸리 역사, 마지막 몇 십페이지를 읽으면 아쉬울 수도 있다. 하지만 실리콘밸리 역사는 체계적으로 정리하는 계기가 되었다. 그리고 어디서 구글 엔지니어의 몇 년 간의 경험을 들을 수 있겠는가?


이 책은 3부로 구성되어 있다.

1부 ‘왜 실리콘밸리인가?’는 실리콘밸리의 역사와 문화를,

2부 ‘구글은 어떻게 일하는가?’는 구글 문화를,

3부 ‘좌충우돌 미국생활 적응기’는 저자가 느낀 미국 문화를 다룬다.




1부는 IT인이라면 아는 내용이 많이 등장한다. 실리콘밸리의 대표적 아이콘인 스티브 잡스의 일화를 시작으로 실리콘밸리가 어떻게 탄생했는지 역사를 살펴본다.


잡스의 일화 중 하나만 살펴보자.

"서서히 기력을 잃어가던 어느날 스티브 잡스가 아들을 창고로 부른다. 아꼈던 그의 오토바이를 아들에게 선물한다. 아들이 빚을 갚겠다고 말한다. 이 때 스티브 잡스가 아들에게 말한다. '넌 빚이 없어. 내 핏줄이니까.' "

아~ 감동이다.


HP에서 탄생한 ‘옆자리증후군’이라는 말이 있다. 옆자리 동료에게 도움이 될 기술이면 개발할 가치가 있다는 뜻인데, 휴대용계산기는 이렇게 탄생했다. 기술 개발의 시작은 멀리 있는 게 아니라, 바로 내 옆사람에게 도움이 된다면 그 걸 만드는 것부터 시작한다.




실리콘밸리 역사와 함께한 인텔과 AMD는 어떻게 탄생했을까?


이 회사들의 탄생하기 2단계를 거슬러 올라가면,

벨연구소에서 트랜지스터를 발명한 ‘쇼클리’라는 인물이 있다. 그는 ‘쇼클리 반도체 연구소’를 설립한다. 벨연구소 시절에 그는 자기 밑에 있던 연구자들의 연구 논문과 특허에 자기 이름을 공동으로 올렸다. 그리고 이 회사를 설립하고 로버트 로이스, 고든 무어 등 최고의 인재들을 유치원생 다루듯이 했고 허드렛일을 맡기기도 했다. 노벨물리학상까지 받았으니 분명히 최고의 과학자인 것은 맞지만 인물 됨됨이는 낙제점이다. (개인적으로 쇼클리를 상당히 싫어한다. 그는 ‘우생학’ 지지자다. 심리학자 아서 젠슨이 흑인이 백인보다 선천적으로 IQ가 낮다는 주장했다. 그 기사를 본 후 쇼클리는 흑인과 백인의 상대적 IQ를 대대적인 조사를 시행하자고 촉구했다.)


결국 이 연구소의 8명은 회사를 그만둔다. 이들이 바로 ‘배신자 8인’이라고 불리는 인물들이다. 셔먼 페어차일드와 배신자 8인(로버트 로이스, 고든 무어, ...)은 페어차일드 반도체를 만들면서 실리콘밸리 역사는 시작되었다. 그 이후 로버트 로이스와 고든 무어, 그리고 페어차일드 직원인 앤디 그로브는 인텔을 창업한다. 페어차일드의 제리 샌더스 등은 AMD를 창업했다. 그러니깐 인텔과 AMD의 공통 조상은 바로 페어차일드 반도체가 되는 셈이다. 그리고, 페어차일드 반도체를 만들게 된 것은 배신자 8인이 쇼클리 반도체 연구소를 뛰쳐나오게 만든 악역(?) ‘쇼클리’ 박사가 있었다.


쇼클리 반도체 연구소 -> 페어차일드 반도체 -> 인텔, AMD



1부의 가장 핵심 부분은 실리콘밸리의 정신이다. 사회환원 정신인 ‘Pay it forward’문화가 있다. 되돌려준다는 뜻이다. 내가 다른 사람에게 도움을 받았으니 나는 또 다른 사람을 도와주는 것이다.

100만권이 팔린 ‘강아지 똥’, 그리고 ‘몽실언니’의 작가 ‘권정생’님은 이런 말씀을 하셨다. “가진 것을 '준다고' 하지 말고, '되돌려준다고' 해야 할 것입니다." 권정생 작가님이 말씀하신 것이 실리콘밸리 정신과 일치할 것이다.

사회환원정신, 오픈소스 문화가 없었다면 실리콘밸리는 지금의 모습은 몇 년, 몇 십년 뒤에나 볼 수 있었을지도 모른다.



실리콘밸리의 사회환원 정신


하지만 실리콘밸리의 어두운 면도 있다. 소득 불평등이 이렇게 심한지는 이 책을 통해 처음 알았다.

실리콘밸리에서 유일하게 24시간 운행하는 22번 버스가 있다. 이 버스는 노숙자에게는 단돈 2달러로 하룻밤을 묵을 수 있는 곳이다. 거리를 떠돌 수 밖에 없는 노숙자들은 잠자는 동안에도 사실상 거리를 떠돌고 있는 셈이다.  너무 가슴 찡했다.

나는 22번 버스 대목을 읽으면서, 윌 스미스 주연의 '행복을 찾아서'이 떠올랐다. 주인공과 그의 아들이 화장실 등에서 노숙했다. 실화를 바탕으로 한 영화인데, 영화 전반부에 해당되는 부분이 여전히 세계 최고의 기술이 모인 실리콘밸리에서는 진행형이다.



[ 영화 '행복을 찾아서' ]


(※ 2부가 핵심인데, 1부를 너무 길게 썼다. 여긴 간단히 쓰려고 했는데)




2부를 통해 구글 내부로 들어가보자.


실리콘밸리 회사들은 직원은 가려뽑고 한번 뽑으면 신뢰한다(실리콘밸리 모든 회사가 그런 것은 아닐테지만). 구글의 채용의 핵심은 좋은 사람을 떨어뜨리는 한이 있어도 나중에 후회할 사람을 뽑지 않는다고 한다. 채용 과정에서 조금이라도 의심스럽다면 뽑지 말아야 한다는 뜻이다.


  • 현실화는 어렵지만 성공하면 세상을 바꿀 일에 골몰할 인재를 찾는다.

  • 사람이 모자라더라도 기준을 낮춰서 뽑지 않는다. 반대로 좋은 인재라면 자리에 관계없이 모두 뽑는다.


저자가 구글 입사 후 초기에 받는 훈련 중 하나가 ‘면접 훈련’이었다. 그러니깐 직원 모두가 스스로 훌륭한 면접관이 되도록 훈련시키는 것이다.

상당히 놀랬다. 우리 나라에서도 이런 문화가 필요할 것 같다. 면접관 능력이 부족한 사람이, 사람 볼 줄 모르는 사람들이 새로운 사람들을 뽑다보니 제대로 뽑지를 못한다. 그러니깐 직원을 가려뽑지도 못하고 한번 뽑고 나서도 의심을 하게 된다. 면접관이 된 자신도 신입 때 그렇게 뽑혀 들어왔을 것이다. 내 자신이 면접관이 되는 훈련을 한다면, 보다 나은 회사 문화와 기술을 만들어나갈 수 있지 않을까?


슈퍼 인턴과의 만남은 흥미롭다. 이 부분은 책을 읽는게 나을 것 같다. 여기에 조각내서 옮겨 놓는 것보다 온전한 상태로, 날 것 그대로 읽는게 나을 것 같아서.


구글 인터뷰팁도 흥미롭다. 그 중 면접관이 하지 않는 질문 부분만 얘기해보겠다.

“앞으로 10년 후 자신은?”, “구글에서 어떤 일을 하고 싶은가?”같은 부류의 질문은 하지 않는다. 후보자의 진목면을 알 수도 없고 변별력도 없다. “미국에서 주유소가 몇 개 있습니까?” “골프공의 홈은 몇 개 입니까?”같은 질문도 하지 않는다. 번뜩이는 재치를 평가할 수는 있겠지만 좋은 엔지니어를 드러내는 평가로 보기 힘들다.

난 '돈오점수(頓悟漸修)'라는 말을 좋아한다. 내 폰의 바탕 메모에 써 둘 만큼. ‘문득 깨달음을 얻고, 점점적으로 수행한다.’라는 뜻이다. 저자는 돈오(頓悟)보다는 점수(漸修) 질문이 좋다고 말한다. 즉, 번뜩이는 재치를 평가하는 질문보다 꾸준히 수행한 사항을 평가할 수 있는 질문을 던지라는 말일 것이다


구글 직원은 회의 약속이나 다른이와 약속을 구글 캘린더로 조정한다고 한다. 본인이 집중하고 싶을 때는 구글 캘린더에 ‘Do not schedule’이라고 적어둔다. 그러면 상대는 이 때를 피해서 일정을 잡는다.

우리는 이런 문화가 약하다. 일정은 통보다. 일정을 선택하는 할 수 있는 경우는 '조율 가능한 사소한 일정'이거나 '자신이 상사일 때 뿐'이다.


사고발생시 실패을 통해 교훈을 얻도록 ‘사후보고서’를 쓴다고 한다. 보고서 내용 중에 ‘제대로 동작하지 않았던 사항’이나 ‘개선 의견’은 보편적으로 적는데, ‘제대로 동작했던 사항’은 특이했다. 사고는 났지만 분명 잘 동작한 부분도 있을 것이고 더 큰 사고를 막았던 이유도 있을 것이다. 이런 부분도 사후보고서에 쓰는 것이다.

사후보고서는 모든 실무자, 책임자가 공유하고 검토하다. 이들이 보고서를 인정하면 사내 모든 사람이 볼 수 있도록 공유(구글 닥스로 작성함)한다. 실패의 교훈은 모든 직원이 함께 나눌 수 있는 것이다.

반면 우리 나라는 '실패의 교훈'보다는 '실패의 고통'을 함께 당한다. 그리고 책임자를 찾아 '실패의 책임'을 묻는다. 실패를 인정하지 않는 문화에서는 발전도 어렵다.


저자는 개발자로서 성장하는 좋은 방법으로 ‘코드 리뷰’를 추천했다.

코드 체크인하기 전에 동료들의 승인을 받아야 한다. 구글의 뛰어난 동료들이 얼마나 많겠는가. 그 동료들이 코드를 검토하고, 코멘트를 달아준다. 더 나은 코드를 배울 수 있게 되고, 본인이 발견 못한 문제점도 알게 될 것이다. 리뷰한 사람은 함께 책임을 지기 때문에 절대 대충 보지는 않는다.
또한 원 개발자가 휴가를 떠나거나 퇴사를 하더라도 이미 리뷰한 동료가 있기 때문에 공백을 최소화할 수 있을 것이다.



※ 나화영님의 댓글을 보고 도서 검색을 해봤더니 '미키 김'씨가 쓴 '꿈을 설계하는 힘' 외에 엔지니어로 근무하시는 '이준영'씨가 쓴 책이 한권 있었습니다. '구글은 SKY를 모른다'(자기계발서)라는 책입니다. 엔지니어가 쓴 책은 없는 줄 알았습니다. (5.27(수) 09:00 추가)

Posted by 좋은진호

댓글을 달아 주세요

  1. 경험담은 이 한권 뿐이지만 구글 본사에서 일하는 한국인이 쓴 자기계발서는 몇권 있는 걸로 알아요. 하지만 소프트웨어 개발 분야에 몸담고있지 않은 사람이 쓴 책이라 아무래도 한계가 좀 있긴 합니다. 저도 그런 책을 읽어본 적이 있구요.

    2015.05.26 22:49 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 아~ 미키 김님이 쓰신 책은 들어본적이 있는데, 몇권 있다는 건 이외도 있다는 말씀이네요. 몰랐습니다.
      감사합니다. 한 번 찾아봐야겠네요.

      2015.05.27 08:49 신고 [ ADDR : EDIT/ DEL ]

IT이야기2012. 3. 14. 08:30
Akamai(아카마이)의 서버는 현재 105,000대의 서버로 운영중이라고 한다. 78개국의 ISP와 1900여개의 망에서 서비스 중이다. (Data Center Knowledge의 'Akamai Now Running 105,000 Servers' )

Akamia의 NOC(Network Operating Center)

[ Akamia의 NOC(Network Operating Center) (출처 : Pingdom ]

Akamai도 2~3년 사이(2009년에 48,000대)에 2배 이상 증가했다. 저쪽 동네는 쓴다하면 10만대 이상, 좀 덜 써도 몇만대하는 곳은 여러 군데인 것 같다. Akamai 외의 서버 대수는 Data Center Knowledge에서 꾸준히 업데이트를 하고 있다. (멋져~~) ( 'Who Has the Most Web Servers?' )

  • Akamai Technologies: 105,000대 (company, 2012.3월)
  • OVH: 100,000대 (company, 2011.7월)
  • SoftLayer: 100,000대 (company, 2011.12월)
  • Rackspace: 79,005대. 클라우드 서비스로 급증 (company, 2011.12.30)
  • Intel: 75,000대 (company, 2011.8월)
  • 1&1 Internet: 70,000대 이상 (company, 2010.2월)
  • Facebook: 60,000대 (추정치, 2009.10월)
  • LeaseWeb: 36,000대 (company, 2011.2월)
  • Intergenia: (PlusServer/Server4You), 30,000대 (company, 2011년)
  • SBC Communications: 29,193대 (Netcraft)
  • Verizon: 25,788대 (Netcraft)
  • Time Warner Cable: 24,817대 (Netcraft)
  • HostEurope: 24,000대 (Company)
  • AT&T: 20,268대 (Netcraft)

구글은 공식적인 서버대수를 발표하지 않기 때문에 몇대인지는 명확하지는 않지만, 2011년에 대략 90만대로 추정된다.

NHN은 2013년 상반기 오픈을 목표로 춘천 데이터센터를 짓고 있다. 1만5천평 규모에 1500억원을 투자한다.
서버는 구글이나 페이스북처러 조립서버로 구성한다는 얘기가 들린다. 그리고 서버는 PSU을 없애고 AC전원이 아닌 DC전원을 공급받을 것이라고 한다. AC전>원이라면 AC -> DC로 전환할 때 전력 손실이 발생한다. 그런데 DC전원을 공급받으므로 전력 손실이 줄어들어 효율이 높아질 것이다.

NHN 도시첨단산업단지 조감도. 춘천 데이터센터

[ NHN 도시첨단산업단지 조감도. 도로 아래쪽이 데이터센터로 추정 ]


현재의 네이버 서버와 춘천 데이터센터가 오픈할 시점의 서버는 몇대일지 궁금해진다.


* 관련글
2011/04/20 - Facebook의 데이터센터와 서버
2010/06/30 - 페이스북(Facebook)의 서버 대수는 6만대 이상?
2009/06/01 - 해외 주요 업체의 서버 대수는?
2009/04/10 - 구글, 구글 서버와 데이터센터 발표자료를 풀 동영상으로 공개

Posted by 좋은진호

댓글을 달아 주세요

  1. 오호 구글이 90만대의서버로 돌리다니 ㄷㄷㄷ...

    2012.03.14 19:21 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. IDC 조감도 멋지네요...
    NHN도 다음처럼... 이전을 계획 하고 있을까요???
    분당에 사옥을 지어서 그럴꺼 같진 않은데...

    2012.03.21 14:32 [ ADDR : EDIT/ DEL : REPLY ]

IT이야기2010. 12. 7. 18:34
구글 캘린더에서는 정상적으로 보인다. 하지만 캘린더 공유용 웹페이지에서는 비정상적으로 날짜가 당겨서 보인다. 지난주부터 문제가 생긴 것 같다. OS와 브라우저별로 확인한 결과, 리눅스 파이어폭스에서만 날짜가 당겨져 보였다.

  • Windows IE8, 파이어폭스, 크롬, 사파리에서 정상 표시
  • 리눅스 오페라에서 정상 표시
  • 리눅스 파이어폭스(3.6.x)에서 비정상 표시

[ 정상적으로 보이는 구글 캘린더 ]



[ 웹공유 페이지에서 날짜가 당겨져서 보이는 구글 캘린더 ]


IT일정 공유하는 커피닉스'캔커피'( http://can.coffeenix.net/ )에서 살펴본 것이다. EMC Effect Day는 12월 9일, Wine 1.2.2 Released는 12월 3일로 표시되어야 맞다. 하지만 모두 이틀씩 당겨서 보인다.

Posted by 좋은진호

댓글을 달아 주세요

  1. 알 수 없는 사용자

    댓글 한개에 200원 기부라니 정말 멋지신데요..?? ^^* 우와

    좋은글 보고갑니다

    2010.12.07 18:36 [ ADDR : EDIT/ DEL : REPLY ]
    • 감사합니다. ^^
      200원씩 기부를 많이 해야하는데, 올해 제가 글을 별로 안썼어요. 그래서, 댓글 수에 상관없이 일정 금액을 하려구요.

      2010.12.07 18:50 신고 [ ADDR : EDIT/ DEL ]
  2. 저런 희한한 현상이 어찌 발생하는 걸까요?

    2010.12.08 23:55 [ ADDR : EDIT/ DEL : REPLY ]
    • 그러게말입니다. 다른 분들도 저런 문제로 장애신고가 있더군요.
      다행히 이제는 정상적으로 보입니다.

      2010.12.09 18:10 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 6. 29. 23:55
일정을 구글 캘린더( http://www.google.com/calendar/ )로 관리하고 있다. 개인일정 외에 세미나와 OS, S/W등의 Release 일정 등을 관리해오다가 혼자보다는 여럿이 함께하는게 나을 것 같아 지난주에 먼저 커피닉서들과 공유를 했다. 그리고 IT일정을 '커피닉스'속 '캔커피' ( http://can.coffeenix.net/ )라는 이름으로 오픈(?)했다. '오픈'이라는 말을 쓰기에는 거창하다. 구글 캘린더 '공유 URL'에다가 별도 도메인을 부여한 것 뿐이니깐. 

구글 캘린더 커피닉스 캔커피

1. 왜 '캔커피'란 이름을 붙였나? 

IT 행사에 가면 행사 중간 중간 휴식시간이 마련되어 있다. 이 시간은 쉬는 시간이기도 하지만 참석한 주위사람들과 IT 이야기를 공유(사사롭지만 상대에게는 사사롭지 않은 정보)하는 중요한 시간이다. 이 시간에 서로 편안하게 다가갈 수 있도록 마련된 것이 '캔커피' 또는 '커피 한잔'이다. 만남과 정보 공유의 연결자 역할을 하는 '캔커피'의 느낌을 커피닉스에서 옮겨보고자 'IT일정 공유'를 '캔커피'라고 붙였다. 
또한 '커피닉스'와 '캔커피', 어울리지 않는가. can.coffeenix , 캔.커피닉스, 캔커피 + 닉스, ... 

2. 함께 참여합시다. 

'캔커피' 페이지 맨 아래에 있는  
 버튼을 누르면 각 개인의 구글캘린더에서 함께 볼 수 있게 된다. 

구글 캘린더

[ 본인의 캘린더에 추가되면 '다른 캘린더'에 목록이 추가될 것이다. ]

 

위 추가는 개인 일정에 포함되어 볼 수있다는 의미이고, 변경을 위해서는 gmail주소를 통해 공유 설정('일정 변경' 설정)이 되어야 한다. 메일주소를 비밀 댓글로 남기거나 truefeel + 쥐메일로 메일을 보내주시길... 
'캔커피'페이지에 적혀있지 일정을 1개라도 알고 있다면? 함께 참여 합시다. 

※ 이 글은 지난주에 커피닉스에 먼저 알렸고, 제 블로그에 2번째로 알리는 글이다.

Posted by 좋은진호

댓글을 달아 주세요

  1. 업무적이나 그외 용도로 캘린더 공유기능은 정말로 좋은듯 합니다. 저도 구글 캘린더로 회사에서 중요업무는 공유를 걸어두어서 확인이 가능해 일을 하는데 있어서 유용하더군요! *^^*

    2009.07.01 19:44 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 예. 캘린더, 위키, 구글문서도구 등 함께 만들어가는 힘과 유용함은 대단한 것 같아요. ^^

      2009.07.02 00:52 신고 [ ADDR : EDIT/ DEL ]
  2. 요즈음은 하두 바빠서(먹고 살기) 세미나 같은데 거의 못참석하고 있네요.
    예전엔 그런데 나가는 것도 재미있고 그랬는데...

    제가 커피를 그닥 좋아하는 편이 아니라서 그런 브레이크시간에 녹차같은 걸 주로 마시죠.
    그런데 마시는 건 좋아하지 않지만 커피 향은 아주 좋아합니다.

    2009.07.06 11:37 [ ADDR : EDIT/ DEL : REPLY ]
    • 저도 요즘은 자주 못가고 있습니다.

      커피보다는 차를 선호합니다. 커피를 좋아하지 않는 건 아니고, 커피도 괜찮음.
      밖에서는 커피 마시는데, 집에서는 커피를 거의 마신 적이 없는 것 같네요. 집에서는 연잎차, 감잎차, 등등...

      2009.07.06 19:22 신고 [ ADDR : EDIT/ DEL ]
  3. 비밀댓글입니다

    2009.07.13 12:27 [ ADDR : EDIT/ DEL : REPLY ]
    • 공유해드랬습니다.
      잘 지내고 있습니다. 90년대 파워.. 넷, 사랑넷, hanirc 시절 생각나네요. 세월이 너무 많이 흘러서... ^^

      2009.07.13 13:12 신고 [ ADDR : EDIT/ DEL ]
  4. 비밀댓글입니다

    2009.07.29 00:30 [ ADDR : EDIT/ DEL : REPLY ]
  5. :)
    늘 같은 모습을 보는 것 같아서 혼자 미소짓고 갑니다.

    잘 지내시는 듯 합니다 :)

    캘린더는 저도 종종 들르도록 하겠습니다. ^^

    2009.08.17 07:21 [ ADDR : EDIT/ DEL : REPLY ]
    • ^^ 저는 잘 지냅니다. 잘 지내시죠?

      갤린더 자주 자주 봐주세요. 감사합니다.

      2009.08.17 12:43 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 6. 1. 13:45
Data Center Knowledge에 'Who Has the Most Web Servers?' 라는 흥미로운 글이 올라왔다. Netcraft자료, 해당 회사에서 직접 공개한 자료를 통계로 하여 서버 대수가 정리되어 있고, 이외 최소한 5만대 이상일 것 같은 업체를 추측하였다.

이외 추측한 서버 대수이다.
micosoft
google
ebay
facebook

  • 구글은 2006년 자료에 따르면 45만대였다. ( 추가 참고 : http://truefeel.tistory.com/133 ) 현재는 몇 대일까? 백만대라고 예상하는 경우도 있다.
  • Microsoft는 21만대 이상 예상. 시카고의 컨테이너형 데이터 센터가 운영되면 그 이상이 될 것이다. 계산상으로는 시카고 데이터센터에 150개~220개의 컨테이너가 들어가는데, 서버수로는 30만대까지 들어갈 수 있다고 한다.
  • eBay는 5만대 예상. 놀라운 것은 데이터 보유량이다. Greenplum data warehouse에는 6.5 petabyte(1 PB = 1000 TB)의 데이터가, Teradata data warehouse에는 2 petabyte의 데이터가 있다.
  • Facebook은 2008월 4월에 1만여대 이상의 서버로 운영중이였다고 한다. 2억명의 유저와 400억개의 포토가 저장되어 있다. 1일 4000천만개의 포토가 신규 등록된다고 하니 놀라울 따름. 현재는 5만대로 추측.
국내 주요 사이트는 과연 몇대의 서버를 있을까? 몇년전에 네이버가 5천~6천대 얘기가 있었으니 지금쯤은 1만대가 넘었을지 않을까 싶다. 지금은 2만대 이상 운영하고 있다고 한다. 그리고 정식오픈한 검색서비스 큐로보(www.qrobo.com)가 2만대.


* 관련글


Posted by 좋은진호

댓글을 달아 주세요

  1. 알 수 없는 사용자

    정말 억~ 소리 나는군요.

    2009.06.03 10:50 [ ADDR : EDIT/ DEL : REPLY ]
  2. 매일경제 2009.03.23자 기사
    http://news.mk.co.kr/newsRead.php?rss=Y&sc=40200001&year=2009&no=180806
    '...NHN은 서버만 2만대 이상을 운용하고 있을 정도로 국내 최대 규모 인터넷 인프라스트럭처를 자랑한다.'라고 쓰였네요. 본문 내용 수정했습니다.

    2009.06.10 00:11 신고 [ ADDR : EDIT/ DEL : REPLY ]
  3. 티스토리도 한 3000대는 될까여? ㅎㅎㅎㅎ
    그나저나 세계적으로 급격히 불어나는 서버들 때문에 전력 사용량이나 탄소 발생량도 엄청 증가한다고 하던데 고효율 서버 개발이 절실할듯 하네요.

    2010.07.20 00:53 [ ADDR : EDIT/ DEL : REPLY ]

IT이야기2009. 4. 10. 13:39
4.1일 마운틴뷰에서 있었던 'Google Data Center Efficiency Summit'행사의 주 세션 3개에 대한 풀 동영상을 구글이 직접 유튜브(YouTube) 에 공개했다. 또한 이번 행사 페이지( http://www.google.com/corporate/green/datacenters/summit.html )가 마련되어 있다. 이 페이지에서 동영상과 각 발표자료 문서(구글 문서도구 '프리젠테이션'으로 제공)까지 그대로 볼 수 있다. 이 모든 것을 숨김없이 공개한 구글. 구글아~~ 고맙다.

Google Efficient Data Centers Summit - 1 of 3 (2시간 23분)
  • Welcome (구글의 Urs Hoelzlee)
  • Standards from The Green Grid (Green Grid의 John Tuccillo)
  • Insights Into Google's PUE (구글의 Chris Malone & Ben Jai)
  • What's Next for the Data Center Industry (EPA의 Andrew Fanara)


Google Efficient Data Centers Summit - 2 of 3 (2시간 15분)
  • Data Center Efficiency Best Practces (아마존의 James Hamilton)
  • Google Data Center Video Tour (구글의 Jimmy Clidaras)
  • Best Practices Q&A


Google Efficient Data Centers Summit - 3 of 3 (49분)
  • Sustainable Data Centers & Water Management (구글의 Bill Weihl & Joe Kava)
  • Wrap-Up (구글의 Luiz Barroso & Urs Hoelzle)


6분 37초짜리 구글의 켄터이너 데이터센터 투어 동영상까지 함께 올렸다. 참석자들이 찍어서 올린 것보다 나은 화질. 



Posted by 좋은진호

댓글을 달아 주세요

  1. 개념을 완전히 파악하지는 못했지만 어쨌든 둘러보고 갑니다.

    2009.04.10 13:58 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. 알 수 없는 사용자

    진호님. 이것도 트랙백 걸겠습니다. 좋은 자료 감사해요~ ㅋ

    2010.01.18 10:27 [ ADDR : EDIT/ DEL : REPLY ]
    • 데이터센터를 전문으로 하는 기자분이 있다는 걸 처음 알았습니다. 자주 방문해야겠습니다. 감사합니다.

      2010.01.18 18:03 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 4. 3. 23:20
4.1일 마운틴뷰에서 있었던 'Google Data Center Efficiency Summit'을 통해서 구글 데이터센터 내부의 모습과 자체 설계 조립한 서버가 공개되었다. 이번 행사는 데이터 센터의 효율성 개선을 위해 혁신을 논의하려고 엔지니어와 경연진을 대상으로 한 구글의 행사였다고 한다.

데이터센터는 내부의 모습은 이번에 처음(외부 공개는 이번 처음으로 알고 있음)으로 공개됐다. 그 이전에는 휴대폰으로 찍은듯한 저화질수준의 사진 몇장만 볼 수 있었다. 그 것도 데이터센터 내부를 봤다고 하기에는 무리인 랙 몇개 정도의 작은 공간만 사진에 담겨있다.

이번에 공개된 동영상과 발표자료를 보면, 데이터센터 내부는 마치 공장을 보는 듯한 느낌이다. 가장 큰 특징은 모듈화된 구조로, 콘테이너 박스안에 서버와 스토리지를 넣는다는 것이다. 구글은 이런 형태의 시설을 2005년 후반부터 이용하고 있으며, 40피트 컨테이너에는 최대 1,160대의 서버가 들어간다고 한다. 실제 45개 컨테이너에 약 4만대의 서버가 들어있다.

google data center
[ 구글 데이터 센터 내부. 이미지 출처 : 'Google’s Container Data Center Video Tour'  ]

google data center의 서버

[ 컨터이너 내부. 출처 : 위 URL ]


  • 컨테이너를 이용한 모듈화
  • 1개 컨테이너에 최대 1,160대 서버
  • 45개 컨테이너에 약 4만대의 서버
  • 엔지니어는 스쿠터를 타고 이동
  • 자체 설계, 조립한 서버 사용. 케이스 없는 누드(?) 서버
  • 중앙식 UPS가 아닌 분산화된 UPS(서버 설명할 때 다시 얘기하겠음)
  • 컨테이너당 전력소비량 250Kw
  • 10MW
  • 컨테이너 바닥에 쿨링 시스템 (전면 'Cold Aisle' 측이 27℃ 유지)
※ Hot Aisle과 Cold Aisle이 있는데, 찬공기를 끌여들이는 전면을 Cold Aisle, 반대로 공기가 배출되는 뒷면을 Hot Aisle이라고 함.

'Inside A Google Data Center' (점심 때 봤을 땐 조회수 2천정도 였는데, 많이 늘었네 ^^)


'Google’s Container Data Center Video Tour' 에서 발표자료 일부(사진 촬영)를 볼 수 있다.

구글의 서버를 살펴보자.

구글의 UPS 효율성은 몇%일까? 놀라지 마라~~ 무려 99.9%이다. 이 효율은 바로 구글 서버 설계에 숨겨있다.
일반적으로 파워서플라이는 12V, 5V, 3.3V등 여러 전압을 제공한다. 그러나 실제로 사용하는 전압은 정해져 있고, 미사용 전압으로 변환한다는 것은 효율의 저하를 가져온다. 구글은 이중에서 12V(노란색 케이블)만 메인보드에 제공하고, 모두 없앴다. HDD로 5V전압은 메인보드에서 제공한다. 그리고, 서버에 배터리까지 장착했다. 이 배터리는 서버에 장착된 on-board 개념의 분산화된 UPS다. UPS를 서버단위까지 분산화했다니 놀랍지 않은가. 이로써 효율을 99.9%으로 끌어올렸다.

google server (구글 서버)
[ 구글 서버. 사진 중앙이 배터리 부분. 이미지 출처 : 'Close up an Old Google Server, and eWaste'  ]

google server (구글 서버)

[ 구글 서버. 출처 : 위 URL ]


  • 기가바이트 메인보드 (사진으로 확인 가능)
  • 2 CPU
  • 2개의 HDD
  • 8개의 메모리
  • 서버 케이스 없음
  • 서버에 배터리 장착(중앙식 UPS가 아닌 서버에 배터리를 붙여 구현한 분산화된 UPS, on-board UPS 개념, lead-acid 배터리)
'Google's Web Servers, Revealed'


구글 서버는 자체 설계한 부분이 많다는 것은 구글 자체 논문 발표, 책('구글을 지탱하는 기술') 등을 통해서 알고 있었다. 하지만 서버에 직접 배터리를 장착한다는 놀라운 사실은 처음 알았다. 데이터센터도 일반적인 센터 구조와 비슷할 것이라고 여겼는데(몇년전 저해상도 사진에서는 일반적 랙구조였음. 구글 데이터센터가 여러 곳이므로 일반적 랙구조도 있을 수 있겠지만), 내 상상력은 안드로메다에 두고 왔구나 싶다.

HW 설계 기술, 데이터 센터 설계 기술, 센터 운영력에서도 기술과 상상력을 보여준 구글이다. '역시 구글이다'라는 생각이 든다.

Posted by 좋은진호

댓글을 달아 주세요

  1. 후덜덜.. 생각할 수 있는 기회를 주고, 그 생각을 구현할 수 있게 환경을 마련해주는 구글.. 멋집니다. 기존 업계에서 해오던 방식에서 벗어나는 작업을 하는 걸 두려워하는 대부분의 기업과는 정말 다르군요.. 구글은 정말 구글스럽네요.

    2009.04.03 23:42 신고 [ ADDR : EDIT/ DEL : REPLY ]
  2. 구글 서버를 조립하면서 즐거워했을 구글 Geek들의 모습이 그려지는 듯 합니다.
    좋은 글 감사합니다.

    2009.04.04 08:53 [ ADDR : EDIT/ DEL : REPLY ]
    • 역시 Geek들인 것 같아요. 투입을 기다리는 서버가 차곡차곡 쌓여있을 것 같은 장면이 떠오릅니다.

      감사합니다.

      2009.04.04 13:48 신고 [ ADDR : EDIT/ DEL ]
  3. 구글, 이동형 데이터센터 미 특허 취득
    http://media.daum.net/digital/it/view.html?cateid=1077&newsid=20071018080014068&p=dt
    2007년 10월에 구글이 '컨테이너' 데이터센터에 대한 특허를 취득했었군요.

    2009.04.04 13:52 신고 [ ADDR : EDIT/ DEL : REPLY ]
  4. darkhi

    배터리에 대한 자세한 설명은 없는게 당연하겠지만..
    배터리가 항시 켜져있어야 하는것일까요
    배터리라는 부분은 제가 잘 모르지만 디카나 핸드폰같은 경우에는 일정 시간이 지나면
    방전이 되게 되어 있고 수명이 길지 않은 편인데..
    4만대의 배터리가 일정 기간 단위로 교체되어져야 하는 부분은 비용이 상당하겠네요..
    물론 서버라는 자체가 안정성을 최우선으로해야 하는 부분이니 감수해야겠지만요..
    그래도 남다른 생각이 새로운 발전을 이끌수 있는 계기가 되어 좋은 듯 싶습니다.

    2009.04.05 01:39 [ ADDR : EDIT/ DEL : REPLY ]
    • 글에도 있듯이 lead-acid 배터리입니다. 자동차용, UPS 등에서 사용하는 배터리입니다. 완전충전해두는게 좋고, 완전방전은 안하는게 좋습니다. 수명도 길죠.

      저가용 서버를 사용하므로 부품의 교체는 많겠지만, 그래도 비용면이나 안정성에서는 오히려 나을 것입니다. 안정성이 높은 것은 다중화가 되어 있깄때문이죠. 이 부분에 대한 것은 구글 논문을 읽으시거나 '구글을 지탱하는 기술'을 읽어보시면 도움이 됩니다.

      2009.04.05 23:45 신고 [ ADDR : EDIT/ DEL ]
  5. 아주, 간략하면서도 쌈빡하게 글을 작성 하시는 분이군요...저도 지난 주 저 글을 읽고 번역을 해야 한다는 일종의 강박 관념으로 일요일을 꼴닥 세웠다능...>_<...컨테이너를 사용해서 어디든지 옴ㄹ겨 다닐 수 있도록 하겠다는 발상, 신선하지만 새로운건 아니지요...홍콩의 홍콩 은행 같은 경우는 이미 수 십년 전에 조립식 건물을 짓고 여차하면 분해해서 튈 생각까지도 가지고 있었으니 말입니다... 제 트랙빽 붙입니다...전 한 뉴스의 기사를 전면 번역해서 오린 글입니다...함 오셔서 봐 주세용~...

    2009.04.05 23:34 [ ADDR : EDIT/ DEL : REPLY ]
    • CNet에 올라온 글을 번역하셨군요. 감사합니다.
      오~ 은행에서 분해형 건물을 짓다니.

      모듈형 데이터센터가 새로운 건 아니죠. 맞습니다. SUN, HP POD, MS 등에서 이미 해왔거나 진행중이니 말이죠. 그러나 말씀하신대로 '신선'하고, 그들은 이분야에 '선두주자'입니다. 애플의 '아이폰'이 스마트폰의 시초는 아니죠. 그러나 신선합니다. 바로 이게 더 중요한 것 같습니다.
      구글은 모듈형 데이터센터를 보편화하여 운영하는 가장 대표적인 곳일 것입니다. 그들은 바로 '이노베이터'이자 '얼리어댑터'라고 할 수 있습니다.

      번역하신 글 읽으러... go ^^

      2009.04.06 19:25 신고 [ ADDR : EDIT/ DEL ]
  6. 글 읽으면서 저 UPS의 성능이 얼마나 될까 살짝 궁금해졌습니다. 과연 정전상태에서 얼마나 버틸 수 있는지 말이죠.

    2009.04.06 11:57 [ ADDR : EDIT/ DEL : REPLY ]
    • 별도 UPS도 있을 것으로 보입니다. 네트웍 장비, 보안장비, 감시장비들도 감안하면 있어야 할 것 같아요.

      그리고 저 서버에 붙인 배터리는 start할 때나 다른 A/C등으로 전환할 때 사용하는 것으로 보입니다. 주 전원이 안들어올 때 다른 곳에서 공급할 때까지 버텨주는 용도의 것이 아닐까...

      이 얘기는 제 추측입니다. ^^

      2009.04.06 19:49 신고 [ ADDR : EDIT/ DEL ]
    • 명확한 답이 있네요.
      http://perspectives.mvdirona.com/2009/04/01/RoughNotesDataCenterEfficiencySummit.aspx 블로그에 구글 발표 요약내용이 있습니다.
      그중 'Only enough power in UPS to allow generators to start or to switch to other A/C supply.' 부분

      UPS에는 발전기를 가동할 만큼이나 다른 A/C 전원장치로 전활할 만큼의 전력만 있다라는 것. 따라서 그리 많은 양이 아니고 전환시까지의 버티기용. ^^
      주전원 외에 다른 전원을 공급해줄 시설(또는 전원시설의 이중화)을 갖고 있다는 얘기가 되겠네요.

      2009.04.08 23:53 신고 [ ADDR : EDIT/ DEL ]
    • 제 보잘것 없는 질문에 친히 정보를 찾아서 답변까지 해주시고, 고맙습니다.

      2009.04.09 10:56 [ ADDR : EDIT/ DEL ]
  7. 컨테이너... 헐... IDC의 모듈화가 앞으로의 화두가 될수도 있겠네요... ㅎㅎㅎ

    서버 케이스도... 완전... ㅡ.ㅡ 대박이고...

    뭐... 먼지(dust)만 안 쌓인다면... 효율성은... 극대화 되겠군요...

    흠... 스쿠터도 완전히 깹니다...

    돈 버는 회사는 역시 따로 있군요...

    뭐... 어떤 글에서 보니깐... 구글이 되고 싶은 네이버와 네이버가 되고 싶은 네이트 란... 글이 있던데...

    ^^ 보고 배워야 될듯 하네요...

    2009.04.06 17:38 [ ADDR : EDIT/ DEL : REPLY ]
    • 컨테이너형은 SUN, HP POD, 그리고 MS까지 뛰어든 상태입니다. 이동성과 시간절약할 수 있는 최적의 조건이니깐요.
      상상(가능성)을 현실로 만든이들.. 멋지죠? ^^

      2009.04.06 19:49 신고 [ ADDR : EDIT/ DEL ]
  8. 트랙백타고 왔습니다. "역시 구글!" 이죠.

    2009.04.07 02:05 [ ADDR : EDIT/ DEL : REPLY ]
  9. 컨테이너 DC는 SUN이 유명하길래, SUN이 특허를 가지고 있나 싶었는데, Google이었군요. 흐흐
    작업상 DC를 자주 드나드는 편입니다만, Google의 서버는 놀라울 뿐입니다. 부럽기도 하고요... 흐흐

    2009.04.10 13:22 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 저도 컨테이너형 데이터센터를 처음 알게된게 SUN이었는데, 실용적으로 활용하는 면에서는 구글이 한수위이네요. http://truefeel.tistory.com/149 의 발표자료 문서도 한번 살펴보시기 바랍니다. 구글 서버 PT를 보니 이해가 아주 잘 되게 쓰여있더군요.

      2009.04.11 01:12 신고 [ ADDR : EDIT/ DEL ]
  10. 구글에는 폭포를 이용해서 냉각과 발전을 하는 IDC도 있다고 들었는데 이거랑 관련이 있나요? 그나저나 스쿠터를 타고 이동하는 엔지니어라니 멋지군요 ^^

    2009.08.13 09:14 [ ADDR : EDIT/ DEL : REPLY ]
    • 미국의 대형 데이터센터들은 전력 확보를 위해서 대형 댐 옆에 짓는 경우가 많습니다. 구글도 마찬가지구요. 그리고, 같은 강을 따라 데이터센터가 강을 따라 생기기도 합니다.


      가장 흥미로운 곳은 일명 '제임스 본드 악당(James Bond Villain)' 데이터센터입니다. 스톡홀롬 Vita Berg Park의 지하 30미터 아래 벙커에 위치해 있어요. 실제 냉전시대 군사용 지하벙커로 사용되던 곳에 지어진 데이터센터입니다. ^^

      http://www.archdaily.com/9257/pionen-%E2%80%93-white-mountain-albert-france-lanord-architects/
      https://www.youtube.com/watch?v=qwlATf9xse4

      올 상반기에 이 데이터센터에 대해 글 한 번 쓸려고 했는데, 못 썼네요. ^^

      2009.08.15 00:46 신고 [ ADDR : EDIT/ DEL ]
  11. jyp

    좋은 자료입니다. 제 블로그에 트랙백 좀 걸겠습니다. 앞으로도 데이터센터관련 좋은 글 많이 올려주세요!!

    2010.01.18 10:20 [ ADDR : EDIT/ DEL : REPLY ]
  12. [잇글링] 이 글이 [랜선까는석현]님에 의해 스크랩되었습니다.(보러가기 : http://www.itgling.com/spot/7623 )

    2010.10.06 20:52 [ ADDR : EDIT/ DEL : REPLY ]
  13. 웹서핑하다 왔는데 역시 구글다운 서버입니다.
    일반적인 idc형태와는 다른방식.
    다른서버..

    여러 회로를 가지고노는넘으로서 감히 말씀드리자면,
    저렇게 psu에서 12v만을 공급하여 5v따위 서브보드를 통해 생성 공급하는것은
    일단 12v 배터리를 복잡한 ups와 다른 간단한회로로 직결할 수 있으며
    인버터 장치가 필요없어 내용처럼 99.9% 효율이 가능하며 안정성에 있어 엄청난 이득을 줍니다.

    일반적 ups는 ac를 dc로 변환하고 배터리를 충-방전 감지회로와 다시 인버팅하여 ac를 출력하는데 이 과정에서 손실이 생기고 ups자체도 비싸집니다.
    또 순간단전시 순간리플이 생길 수 있으며 이를 생기지 않게하려면 상시인버팅 회로를 구성해야되는데 그럼 효율이 더 떨어집니다.
    저런 체제는 psu유닛의 고장까지도 대비할 수 있고
    순간 단전시 아무런 전원불안정 없이 서버를 살려둘 수 있게됩니다.
    물론 정전시 배터리의 방전에 능동적 대처는 안되지만(수많은 서버의 배터리를 일제히 갈아줄순없으니)
    idc상황상 완전 정전은 없고
    백업 변전 시설이나 자가발전 등 이미 여러루트를통해 충분히 보상되고 있을테니
    어디까지나 전력계통의 변화를 줘야되는 순간단전을 견디면 되는경우가 대부분이라.(또 완전정전에 버텨날 idc는 없음으로)
    매우 훌륭한 구성이 되겠심다.

    배터리 수명 역시 걱정할게 없는게 (솔찍히 배터리에 대해서는 잘 모릅니다만..) 납-연축 배터리라는 가정하에 수명 5년 정도로 봐도
    어짜피 그 시기라면 퍼포먼스 하락이나 하드디스크 신뢰성문제로 서버의 하드웨어 교체나 점검이 필요한시기라 서버 점검/교체시 배터리를 같이보면 되니 관리 측면에서 별도 ups시설대비 절대 효율성 떨어지지 않을겁니다.

    서버마다 모듈화된 배터리는.
    개인용 서버pc를 두대 돌리면서 운용할때 구상하는 방식이지만(제 홈페이지는 구글이 아니라-- ㅋ 필요가 없어 적용은 안합니다)
    구글은 저런 얼리아답터가 pc를 운용하는듯한 모양새로 idc서버를 운영하다니.
    정말 구글다운 발상이며 대단하다 보여지네요

    2011.09.06 20:52 [ ADDR : EDIT/ DEL : REPLY ]
    • 지식이 해박하시네요.

      뛰는 놈 위에 나는 놈이 페이스북인 것 같습니다. 서버까지 오는 단계를 줄여서 효율은 페이스북의 효율은 더 좋습니다.
      페이스북의 데이터센터는 http://truefeel.tistory.com/197

      2011.09.07 19:57 신고 [ ADDR : EDIT/ DEL ]
  14. 마푸

    메인보드가 기가바이트꺼네요. 구글의 요구대로 OEM 납품했을걸로 추측되는데 그대로 기가바이트 상표가 찍혀있네요. 전력 절감을 위해 사용한 기술들은 신기술이라기보다는 남들이 시도하지 않은 것들을 시도했다는데서 높은 점수를 주고 싶네요.
    더군다나 안정성을 최고로 추구하는 보수적인 서버기술에서 그랬다는게 신선하군요.

    2012.10.18 10:01 [ ADDR : EDIT/ DEL : REPLY ]
    • 안정성은 다수의 서버로 해결이 되니깐, 다른 중요 요소인 효율성을 위해 발상의 전환이 절실했을 겁니다.
      페이스북의 데이터센터의 효율성은 더욱 놀랍습니다. ^^

      2012.10.18 19:37 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 1. 3. 12:48


Where Google gets all that Gmail hard drive space

출처 : 'Joy of Tech' comic (2005.4.4)

Gmail만 그러겠는가. 서버, 검색데이터 등 모두 저렇게 땅속을 떡 하니 잡고 있을 것이다. 그래서 개발할 때 '삽질'한다는 말을 쓰는 것 같다. ^^

2005~2006년 콜롬비아강 근처 댈러스에 축구장 2배 크기의 IDC 건립에 대한 얘기가 떠오른다. 그 당시에 전세계 서버팜에 있는 서버가 45만대 정도될거라는 얘기가 있었다. 지금은 몇 대나 될까...

Posted by 좋은진호

댓글을 달아 주세요

  1. 절묘한 카툰입니다.
    이젠 저 카툰속의 하드디스크도 회전식 디스크가 아닌 SSD로 교체된 수정버전이 나올 듯 하군요.

    2009.01.07 16:37 [ ADDR : EDIT/ DEL : REPLY ]
  2. 저도 그 기사를 본 기억이 나는데, 아마도 지금은 55~60만대 정도 되지 않나 싶네요.
    워낙 그간 추진한 것들이 많아서, 이 이상일지도 ^^;

    2009.01.14 17:21 [ ADDR : EDIT/ DEL : REPLY ]
    • 책 '빅스위치'를 보면 당시 서버의 수를 50만대로 추측하기도 합니다.

      2005~6년 댈러스에 IDC를 세운 이후에도 여러 IDC를 곳곳에 만들었으니 증가세는 엄청 놀라울 것 같습니다. 2007년 5월에 쓴 'Netcraft의 구글웹서버 통계'( http://truefeel.tistory.com/52 ) 를 보면 구글 웹서버(구글 도메인외에도 구글웹서버 GFE를 사용중임)의 수는 호스트명 기준으로 약 275만개였습니다. 2008년 12월 통계에서는 약 1000만개, 액티브한 것으로 하면 780만개입니다.
      저 개수가 서버 대수와 같은 것은 아니므로, 증가비율로만 본다고 할 때 약 1년반만에 3~4배입니다. 과연 몇 대의 서버로 운영할지 궁금해집니다. ^^

      2009.01.15 13:10 신고 [ ADDR : EDIT/ DEL ]

IT이야기2007. 6. 25. 11:03
구글 웹마스터인 데니스 황(Dennis Hwang, 황정목)의 'Webmaster of Google' 주제 발표는 WebappsCon 오후 세션중 손꼽을 만한 발표였다. 도서 '지식e' 에서는 '우리에게 필요한 지식은 암기하는 정보가 아니라 생각하는 힘입니다.'라고 말한다.  기술 발표 중심의 컨퍼런스였는데, 데니스 황의 발표는 기술보다는 생각할 수 있는 시간을 제공하였다. 그렇다고 기술을 폄하하는 게 아니다. 나 또한 기술을 중시하지만 이런 속에서 생각하는 기회를 가질 수 있게 됐다는 것이다. 발표 내용을 한줄로 적어본다.

- 최대한 심플하게. 이미지로 이쁘게 표현할 수도 있지만 못생겨도 실용적인 면을 고집한다.
- 몇 kb라도 줄이려고 한다.
- 포토샵 스크립트를 사용하여 각 나라의 아이콘을 일괄적으로 만든다.
   이를 통해 작은 팀으로 많은 것을 처리할 수 있게 됐다.
- 구글의 전세계 웹마스터는 30여명 된다.
- 중요한 내용은 화면 윗부분에 배치한다.
- 페이지의 다운로드 스피드는 중요하다.
- 전세계의 어떤 환경에서 접속하더라도 만족시키도록 노력한다.
- 구글 로고를 만들기 위해 각 나라의 문화를 이해하게 되었다.
- 그리고, 구글의 실패 사례

발표자료를 공개할 것으로 생각하고, 사진은 거의 안찍었다. 아깝다.

1. 실패 사례중 DNA logo 하나만 살펴본다.

   1) 구글 창업자 래리 페이지, 세르게이 브린이 물고기가 뽀뽀 하는 것 같다고 해서 '실패'
      (사진은 승렬님 블로그에 올라온 동영상에서 캡쳐)
사용자 삽입 이미지

   2) 로고 새로 만들어 OK 사인을 받았다. 그러나, 올린지 1분 30초만에 과학자로 부터 항의 메일을 받았다.
      (빨간색이 한번 뒤로 가면 한번은 앞으로 와야하는데 잘 못 됐다고)
사용자 삽입 이미지

   3) 정상적으로 수정한 로고
사용자 삽입 이미지
2. 구글 로고중 재밌는 사례를 보자.

사용자 삽입 이미지

2002년 만우절에 구글은 PageRank 기술을 패러디 하여, "비둘기가 검색 자료를 찾아준다" 는 로고를 만들었다.
이때 데니스 황은 비둘기를 그릴려면, 비둘기 사진이 필요하니 구매해야 한다고 회사에 얘기를 한다.

* 데니스 황 : 비둘기 사진을 사는데 10만원 정도 들 것 같다
* 세르게이 브린 : (가만히 생각해보더니) 비싸다. <-- 모두들 폭소. ㅎㅎ
( 세르게이 브린한테 메일이 온다. )
* 세르게이 브린 : 회사 마당에 비둘기가 있더라. 너가 빵조각과 사진기만 있으면 찍을 수 있을거다.
* 데니스 황 : (빵조각을 들고 마당으로 나감) 이건 비둘기가 아니다.

결국은 사진을 샀고, 사진을 보고 포토샵으로 그렸다고 한다.

3. 사진 몇 장

사용자 삽입 이미지
[ 데니스 황 발표 중 ]

사용자 삽입 이미지
[ 페이지에서 사람이 가장 먼저 어디에 시선을 두는지를 측정한 결과 (화면 상단 왼쪽) ]

사용자 삽입 이미지
[ 데니스 황은 사인중 ]

사용자 삽입 이미지
[ 데니스 황 사인 ]

WebappsCon에서 큰 인형을 앉고 다닌 분을 본 사람? 그래서 눈에 띄었던 승렬님의 블로그 에 구글 발표 동영상이 있으니 궁금하신 분은 얼른 달려가봐라.
덧붙여 다양한 구글 로고는 Google Holiday Logos 에서 볼 수 있다.

Posted by 좋은진호

댓글을 달아 주세요

  1. 사쿠라

    좋은 후기 잘읽었습니다. 저 누군지 아시죠..ㅋㅋ 어쩌다보니 여기까지 오게 됐내요..

    2007.06.26 08:26 [ ADDR : EDIT/ DEL : REPLY ]
  2. 제 블로그 통계 툴 통해서 들어오게 되었습니다.
    좋은 글 잘 읽었습니다, 시선 통계작업을 하는 저 기계가(eye tracker?) daum에도 한대 있다고 하네요. 저도 보통 사람들이랑 같은지 가서 사용해보고 싶더군요 ㅎㅎ
    아무튼, 잘 보았습니다. 감사합니다 :)

    2007.06.27 12:51 [ ADDR : EDIT/ DEL : REPLY ]
    • 동영상 잘 봤습니다. 감사합니다.

      그날 저희들 여러명 모였을 때 저희들중에 누군가가 'ID 가 어떻게 되세요?' 물었었는데, 기억나시나요? 아무튼 그날 들고 다니시느라 고생하셨어요. ^^

      다음에 있군요. 오~~

      2007.06.28 01:26 신고 [ ADDR : EDIT/ DEL ]
  3. 아니요 저 아닌데ㅎ 저랑 같이 있던 여자분있죠? 그분이 daum에서 웹 기획을 해요. 근데, 저에게 미투ID를 여쭤보신 분이 계셨나요? 으잉... 제가 정신이 없어서 못 들었던 것 같아요. 그것보다 그때 좀 급당황을 해서 그런것도 있고요 ㅎ. 그분께 죄송하네요. 미투ID는 songsl 입니다. :)

    2007.06.28 12:40 [ ADDR : EDIT/ DEL : REPLY ]
    • 아~ songsl님이 다음에 있다는 말이 아니고, Eye Tracking장비가 거기에 있다는 말씀이었습니다. 좋은 정보 감사합니다.

      저도 누가 ID를 물어봤는지는 기억이 안나는데, 101호 카페에서 저희쪽 일원중에 한분이 물어봤습니다. ^^

      2007.06.28 18:25 신고 [ ADDR : EDIT/ DEL ]

IT이야기2007. 5. 5. 23:56
Netcraft의 5월 웹서버 통계에 따르면 apache 웹서버는 지난달 약 6689만대에서 6608만대로 줄었고, 점유율에서도 58.86%에서 56.00% 로 무려 2.86%나 감소했다.
이같은 감소의 원인은 Netcraft가 GFE(Google Front End) 로 불리는 구글웹서버의 트래킹을 시작했기 때문으로 apache로 분류했던 웹서버를 이제 GFE로 판단하기 때문이다. 이로 인해 GFE 서버는 호스트명 기준으로 지난달 51,665개에서 2,753,041개로 급증했다. 이 숫자가 서버대수를 의미하는 것은 아니다.구글의 서버대수는 정확하게 들은 것 없고, 45만대라는 글을 읽은 적이 있다.

May 2007 Web Server Survey
http://news.netcraft.com/archives/2007/05/01/may_2007_web_server_survey.html

사용자 삽입 이미지

Developer    April 2007    Percent    May 2007    Percent    Change
Apache        66899485    58.86    66087698    56.00    -2.86  <-- 급감
Microsoft    35380121    31.13    37170290    31.49    0.36
Sun        1907610        1.68    2141252        1.81    0.13
lighttpd    1382843        1.22    1411788        1.20    -0.02
Zeus        488838        0.43    491989        0.42    -0.01

www.google.com 의 HEAD를 살펴보니 다음과 같이 나온다.

Cache-Control: private
Date: Sat, 05 May 2007 14:06:34 GMT
Server: GWS/2.1
Content-Length: 0
Content-Type: text/html; charset=EUC-KR
Client-Date: Sat, 05 May 2007 14:05:04 GMT
Client-Response-Num: 1
Set-Cookie: PREF=ID=3d0f7baffb602710:NW=1:TM=1178373994:LM=1178373994:S=R-OKql9t_NDp3pE8; expires=Sun, 17-Jan-2038 19:14:07 GMT; path=/; domain=.google.co.kr

그외의 서비스에 대해서도 살펴봤다. 웹서버명에 GWS, NFE, mfe, bsfe, OFE, codesite, GWS-GRFE, TWS, DFE  등을 볼 수 있는데, 이는 서비스 환경에 맞게 웹서버를 커스터마이징하고 있음을 의미할 것이다.

search.google.com          Server: GWS/2.1
mail.google.com            Server: GFE/1.3
news.google.com            Server: NFE/1.0
earth.google.com           Server: GWS/2.1
video.google.com           Server: GFE/1.3
images.google.com          Server: GWS/2.1
maps.google.com            Server: mfe
moon.google.com            Server: mfe
local.google.com           Server: mfe
blogsearch.google.com      Server: bsfe
books.google.com           Server: OFE/0.1
catalogs.google.com        Server: OFE/0.1
desktop.google.com         Server: GFE/1.3
finance.google.com         Server: SFE/0.8
toolbar.google.com         Server: GFE/1.3
code.google.com            Server: codesite/4511653
labs.google.com            Server: Apache
groups.google.com          Server: GWS-GRFE/0.50
picasa.google.com          Server: GWS/2.1
sketchup.google.com        Server: GWS/2.1
mobile.google.com          Server: GWS/2.1
webaccelerator.google.com  Server: GFE/1.3
translate.google.com       Server: TWS/0.9
directory.google.com       Server: DFE/1.0

www.googlestore.com        Server: Microsoft-IIS/6.0
www.blogspot.com           Server: GFE/1.3
www.youtube.com            Server: Apache
www.orkut.com              Server: GFE/1.3
Posted by 좋은진호

댓글을 달아 주세요

  1. 비밀댓글입니다

    2007.05.06 00:08 [ ADDR : EDIT/ DEL : REPLY ]