시스템이야기2015. 6. 19. 12:17

zabbix 를 오래 운영하면 zabbix DB가 무럭무럭 자라서 용량이 상당히 커지고 속도도 느려진다.
수집한 데이터는 오래될수록 필요가 없으므로 이 데이터는 제외하고, 'zabbix 설정값만' 뽑아서 zabbix DB를 새로 구축하려고 한다.


[ 조건 ]
- 수집한 데이터는 버린다.
- 설정값(호스트, 템블릿, ...)만 받는다.
- zabbix DB를 새롭게 시작한다.

zabbix


1. 설정값만 백업하기

Zabbiz 2.0, 2.2, 2.4를 지원하는 zabbix-mysql-dump 라는 간단한 스크립트가 있다.
https://github.com/maxhq/zabbix-backup/wiki 에서 셀스크립트를 다운 받는다.

스크립트에서 zabbix DB 접속 정보와 mysqldump 경로(스크립트내에서는 /usr/bin/mysqldump로 되어 있음)를 확인한다.


DBHOST="127.0.0.1"
DBNAME="zabbix"
DBUSER="..."
DBPASS="..."


스크립트를 실행하면 현재디렉토리 dump 파일이 생겼을 것이다.


# sh zabbix-mysql-dump
# ls
zabbix_localhost_20150526-1347.sql.gz


스크립트로 dump 받은 것 외에 trigger에 의해 발생한 event정보를 옮기고 싶다면, zabbix 데이터 중에 2가지가 추가로 필요하다.


1) trigger에 의해 발생한 event를 담고 있는 'events' 테이블 데이터
2) 각 event에 대해 코멘트가 담긴 'acknowledges' 테이블 데이터


[ zabbix : trigger에 의해 발생한 event 정보 ]


# mysqldump --opt --single-transaction --skip-lock-tables --extended-insert=FALSE -u zabbix -p zabbix \
  acknowledges events > zabbix_acknowledges_events.sql



2. zabbix DB를 새롭게 구축하기


1) zabbix server 데몬을 내린다.
2) MySQL 서버를 내린다.
3) 기존 zabbix innodb파일을 다른 이름으로 임시 백업해둔다.
   zabbix 스키마( MySQL DATA DIR/zabbix/) 는 그대로 둔다.


4) MySQL 서버를 실행한다.
5) 조금 전에 dump받은 셋팅값을 넣어준다.
   gunzip zabbix_localhost_20150526-1347.sql
   mysql -u zabbix -p zabbix < zabbix_localhost_20150526-1347.sql


   기존에 있던 zabbix 테이블을 drop하고 -> 새로 create -> 셋팅값 insert


6) 별도로 백업받은 acknowledges 테이블의 데이터를 insert한다.
   acknowledges 테이블의 데이터를 기준으로 해당된 event만 뽑아 insert한다.


7) zabbix server를 올린다.

Posted by 좋은진호

댓글을 달아 주세요

IT이야기2012. 3. 14. 08:30
Akamai(아카마이)의 서버는 현재 105,000대의 서버로 운영중이라고 한다. 78개국의 ISP와 1900여개의 망에서 서비스 중이다. (Data Center Knowledge의 'Akamai Now Running 105,000 Servers' )

Akamia의 NOC(Network Operating Center)

[ Akamia의 NOC(Network Operating Center) (출처 : Pingdom ]

Akamai도 2~3년 사이(2009년에 48,000대)에 2배 이상 증가했다. 저쪽 동네는 쓴다하면 10만대 이상, 좀 덜 써도 몇만대하는 곳은 여러 군데인 것 같다. Akamai 외의 서버 대수는 Data Center Knowledge에서 꾸준히 업데이트를 하고 있다. (멋져~~) ( 'Who Has the Most Web Servers?' )

  • Akamai Technologies: 105,000대 (company, 2012.3월)
  • OVH: 100,000대 (company, 2011.7월)
  • SoftLayer: 100,000대 (company, 2011.12월)
  • Rackspace: 79,005대. 클라우드 서비스로 급증 (company, 2011.12.30)
  • Intel: 75,000대 (company, 2011.8월)
  • 1&1 Internet: 70,000대 이상 (company, 2010.2월)
  • Facebook: 60,000대 (추정치, 2009.10월)
  • LeaseWeb: 36,000대 (company, 2011.2월)
  • Intergenia: (PlusServer/Server4You), 30,000대 (company, 2011년)
  • SBC Communications: 29,193대 (Netcraft)
  • Verizon: 25,788대 (Netcraft)
  • Time Warner Cable: 24,817대 (Netcraft)
  • HostEurope: 24,000대 (Company)
  • AT&T: 20,268대 (Netcraft)

구글은 공식적인 서버대수를 발표하지 않기 때문에 몇대인지는 명확하지는 않지만, 2011년에 대략 90만대로 추정된다.

NHN은 2013년 상반기 오픈을 목표로 춘천 데이터센터를 짓고 있다. 1만5천평 규모에 1500억원을 투자한다.
서버는 구글이나 페이스북처러 조립서버로 구성한다는 얘기가 들린다. 그리고 서버는 PSU을 없애고 AC전원이 아닌 DC전원을 공급받을 것이라고 한다. AC전>원이라면 AC -> DC로 전환할 때 전력 손실이 발생한다. 그런데 DC전원을 공급받으므로 전력 손실이 줄어들어 효율이 높아질 것이다.

NHN 도시첨단산업단지 조감도. 춘천 데이터센터

[ NHN 도시첨단산업단지 조감도. 도로 아래쪽이 데이터센터로 추정 ]


현재의 네이버 서버와 춘천 데이터센터가 오픈할 시점의 서버는 몇대일지 궁금해진다.


* 관련글
2011/04/20 - Facebook의 데이터센터와 서버
2010/06/30 - 페이스북(Facebook)의 서버 대수는 6만대 이상?
2009/06/01 - 해외 주요 업체의 서버 대수는?
2009/04/10 - 구글, 구글 서버와 데이터센터 발표자료를 풀 동영상으로 공개

Posted by 좋은진호

댓글을 달아 주세요

  1. 오호 구글이 90만대의서버로 돌리다니 ㄷㄷㄷ...

    2012.03.14 19:21 신고 [ ADDR : EDIT/ DEL : REPLY ]
    • 추정치이긴 합니다만, 작년중순 기준으로 90만대입니다.
      지금은 더 넘겠죠.

      2012.03.15 00:49 신고 [ ADDR : EDIT/ DEL ]
  2. IDC 조감도 멋지네요...
    NHN도 다음처럼... 이전을 계획 하고 있을까요???
    분당에 사옥을 지어서 그럴꺼 같진 않은데...

    2012.03.21 14:32 [ ADDR : EDIT/ DEL : REPLY ]
    • IDC 다중화 개념으로 간다면,
      이전이 아니라 확장 개념이 맞을 것 같아요.

      2012.03.22 18:10 신고 [ ADDR : EDIT/ DEL ]

IT이야기2009. 6. 1. 13:45
Data Center Knowledge에 'Who Has the Most Web Servers?' 라는 흥미로운 글이 올라왔다. Netcraft자료, 해당 회사에서 직접 공개한 자료를 통계로 하여 서버 대수가 정리되어 있고, 이외 최소한 5만대 이상일 것 같은 업체를 추측하였다.

이외 추측한 서버 대수이다.
micosoft
google
ebay
facebook

  • 구글은 2006년 자료에 따르면 45만대였다. ( 추가 참고 : http://truefeel.tistory.com/133 ) 현재는 몇 대일까? 백만대라고 예상하는 경우도 있다.
  • Microsoft는 21만대 이상 예상. 시카고의 컨테이너형 데이터 센터가 운영되면 그 이상이 될 것이다. 계산상으로는 시카고 데이터센터에 150개~220개의 컨테이너가 들어가는데, 서버수로는 30만대까지 들어갈 수 있다고 한다.
  • eBay는 5만대 예상. 놀라운 것은 데이터 보유량이다. Greenplum data warehouse에는 6.5 petabyte(1 PB = 1000 TB)의 데이터가, Teradata data warehouse에는 2 petabyte의 데이터가 있다.
  • Facebook은 2008월 4월에 1만여대 이상의 서버로 운영중이였다고 한다. 2억명의 유저와 400억개의 포토가 저장되어 있다. 1일 4000천만개의 포토가 신규 등록된다고 하니 놀라울 따름. 현재는 5만대로 추측.
국내 주요 사이트는 과연 몇대의 서버를 있을까? 몇년전에 네이버가 5천~6천대 얘기가 있었으니 지금쯤은 1만대가 넘었을지 않을까 싶다. 지금은 2만대 이상 운영하고 있다고 한다. 그리고 정식오픈한 검색서비스 큐로보(www.qrobo.com)가 2만대.


* 관련글


Posted by 좋은진호

댓글을 달아 주세요

  1. 알 수 없는 사용자

    정말 억~ 소리 나는군요.

    2009.06.03 10:50 [ ADDR : EDIT/ DEL : REPLY ]
  2. 매일경제 2009.03.23자 기사
    http://news.mk.co.kr/newsRead.php?rss=Y&sc=40200001&year=2009&no=180806
    '...NHN은 서버만 2만대 이상을 운용하고 있을 정도로 국내 최대 규모 인터넷 인프라스트럭처를 자랑한다.'라고 쓰였네요. 본문 내용 수정했습니다.

    2009.06.10 00:11 신고 [ ADDR : EDIT/ DEL : REPLY ]
  3. 티스토리도 한 3000대는 될까여? ㅎㅎㅎㅎ
    그나저나 세계적으로 급격히 불어나는 서버들 때문에 전력 사용량이나 탄소 발생량도 엄청 증가한다고 하던데 고효율 서버 개발이 절실할듯 하네요.

    2010.07.20 00:53 [ ADDR : EDIT/ DEL : REPLY ]