1 / 28

IBM Korea reference : A 은행의 가상화 기술을 활용한 서버통합 사례

IBM Korea reference : A 은행의 가상화 기술을 활용한 서버통합 사례. 15 OCT 2009 Chung byungmo MTS, IBM Korea. [1 단계 ] 서버 가상화 통합사업 완료 보고. 목차. 1.1 IT Trend 1.2 추진배경 1.3 추진목적 1.4 주요이슈 1.5 추진대상 1.6 추진범위. I. 프로젝트 개요. 추진 경과. II. 결과 및 결언. III. 첨부 -1. IV. V. 첨부 -2. I. 프로젝트 개요.

palma
Download Presentation

IBM Korea reference : A 은행의 가상화 기술을 활용한 서버통합 사례

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. IBM Korea reference :A 은행의 가상화 기술을 활용한 서버통합 사례 15 OCT 2009 Chung byungmo MTS, IBM Korea

  2. [1단계] 서버 가상화 통합사업 완료 보고 목차 1.1 IT Trend 1.2 추진배경 1.3 추진목적 1.4 주요이슈 1.5 추진대상 1.6 추진범위 I 프로젝트 개요 추진 경과 II 결과 및 결언 III 첨부-1. IV V 첨부-2.

  3. I. 프로젝트 개요 1.1 IT Trend Cloud Computing with Service Management • 비즈니스가 성장함에 따라 복잡성이 증가하는 IT 인프라를 효율적으로 관리하기 위한 기술은 끊임없이 발전하고 있습니다. 인프라 통합의 필요성이 증대하고 있는 상황에서 서버통합과 가상화 기술은 단순히 운영 서버의 숫자를 줄이는 것 뿐 아니라, 비즈니스 환경과 기술적 환경을 종합적으로 고려하여 최적화된 인프라를 구축하는 과정으로 각광받고 있습니다. Advanced Virtual Resource Pools (Ensemble) Virtual Consolidation for Single Server PhysicalConsolidation (Dlpar with Micropartition) Server sprawl

  4. 사용자 편의성 및 관리 효율성 제고 통합 운영/관리를 위한 조직구성/운영방안 시스템 자원 최적화 필요 서버 자원 통합 중복 업무 통합 운영 조직 통합 I. 프로젝트 개요 1.2 추진배경 • 매년 증가하는 서브 시스템으로 인한 운영 효율성이 대두, 복잡한 IT 환경을 단순화하고 비즈니스 요구에 대한 유연성을 증가시키기 위한 IT 현황 진단 및 개선 기회 도출 컨설팅을 지난해 수행하였고, 이에 따라 가상화를 이용한 서버 통합 시범 사업을 2009년 초에 수행하였으며, 향후 2013년까지 총 400여대를 100여대로 통합할 계획에 있습니다. 주요 영역 및 추진 배경 • 서버 자원 보유 현황 및 관리 인력의 증가 • 다수 노후 서버의 대체 필요성, 컴퓨터실 공간 부족 • 서버 자원 활용 및 관리 효율성 향상 필요 • 문제 발생에 대비한 유지보수 체계 부족 • 조직 통합을 위한 조직 구성 방안 수립 필요 • 조직 이행을 위한 효율적 통합운영 관리 방안 필요 • 중복 개발/운영으로 예산 증가, 관리 효율성 문제 • 업무/데이터 중복에 따른 사용자의 불편 개선 필요

  5. 비즈니스 가치에 상응하는비용구조 마련 (TCO 개선 방안) 에너지 효율적이고 친환경적인 그린데이터 센터 신뢰성 있고, 안정된, 변화에 탄력적으로 대응하는 서비스 마련(안정성과 성장성 개선 방안) I. 프로젝트 개요 1.3 추진목적 • 본 프로젝트의 목적은 가상화를 이용하여 서버를 통합, 도입 및 운영 비용을 획기적으로 감소시키고, 시스템 관리와 보안 및 자원활용도의 효율성을 높이는데 있습니다. 비즈니스와 결합된 IT 의 발전방향 도출 [IBM 가상화 통합 프로젝트] CIO 및 경영진의 Need 시스템 관리 팀의 Need • 신규 비즈니스 발생에 즉각 대응하는 IT 확립 • 24시간 진행되는 비즈니스의 IT 서비스 연속성 확보 • 효과적인 IT 구축을 통한 운영비용 감소 • IT 인프라 운영을 위한 선 순환 구조의 확보 • 가상화 및 통합의 방향을 통한 효과적 운영 방안 마련 • 효율적인 H/W 인프라 구축을 통한 TCO 절감

  6. 2 3 1 4 시장변화에따른신규 업무 발생 컴퓨터실 공간사용 현황 서버 자원의증가 현상 서버자원 사용률현황 • 서버자원의 급격한 증가에 따른 관리 문제점 • 내용연수가 만료된 서버에 대한 대체 계획필요 • 2009년 경 컴퓨터실 공간 부족이 예측됨(가용 랙 ‘06년 233  ‘09년 17 추정) • CPU 자원 활용도가 30% 보다 낮은 서버 (약42%) 의 효율적 활용 방안 필요 • 신규업무 추가에 대한 신속한 대응 방안 필요 • CPU 자원이 부족한 (80% 이상 사용) 서버 (약19%)에 대한 대책 필요 I. 프로젝트 개요 1.4 주요 이슈 개선포인트 주요 이슈 개선 방향 • 기존의 사용중인 시스템에 대한 서버 자원 분석 결과 5가지의 개선 포인트가 도출되었으며 이의 개선방향으로 IBM 가상화 기술을 이용한 서버 자원의 통합을 해결책으로 제시 하였습니다. 단계적 서버 교체 대책 수립 IBM 가상화를 통한 서버자원 통합 및 최적화 수행 상면 공간의 효율화 필요 시스템 운영 비용의 증가 개선필요 서버 자원관리효율화 필요 서버 운영 기준 정립 필요 유연한 인프라의 필요

  7. I. 프로젝트 개요 1.5 추진 대상 > 전체 서버 UNIX 서버 연차 별 운영 대수 현황 연차 별 UNIX 서버 대수 변동 현황 • 통합대상은 UNIX서버 293대, Intel서버 111대이며, 통합 후 UNIX는 47대, Intel은 50대로 운영이 가능하게 됩니다. 서버대수 293 219 190 134 101 47 Intel 서버 연차 별 운영 대수 현황 연차 별 Intel서버 대수 변동 현황 서버대수 111 98 96 73 58 50 * 2008년 도입 시스템은 통계 데이터에서 제외함

  8. 서버대수 170대 114대 95대 68대 44대 20대 I. 프로젝트 개요 1.5 추진 대상 > IBM 서버 • 2008년 이전에 도입된 UNIX 서버들 중 현재 사용 중이며 통합 대상인 서버는 HW Box 기준으로 모두 170대 인데, 5년 계획의 서버 통합이 완료되는 2013년에는 20대로 운영 가능하게 됩니다. 연차에 따른 통합 고려대상 서버 현황 * 2008년 도입 시스템은 통합대상에서 제외함 2008~2013년 UNIX 서버 연차 별 운영 대수 현황 연차 별 UNIX 서버 대수 변동 현황

  9. 운영 < 범례 > DR 개발&테스트 I. 프로젝트 개요 1.6 추진범위 • 시범사업 이후 5년에 걸친 서버통합 프로젝트 중 1단계 서버통합으로 기존 사용중인 6개 업무를 포함한 43대를 가상화 기술을 이용하여 내부망 2대, 인터넷망 3대 총 5대의 물리적인 통합 서버로 구축하였습니다. 본 프로젝트수행 범위 • 통합 1년 차 • 통합 2년 차 • 통합 3년 차 • 통합 4년 차 • 통합 5년 차 • 통합 시범 사업 운영(내부 망) 운영(시스템운영 팀) 운영(시스템운영 팀) 운영(시스템운영 팀) P570 운영#8 P595 운영#3 P595 운영#4 운영(시스템운영 팀) P595 운영#1 P595 운영#2 운영(시스템운영 팀) P595 운영#4 DR P595 운영#1 P595 운영#2 운영(인터넷망) P595 운영#3 개발&테스트 P570 DR#3 P595 운영#5 P595 운영#6 개발&테스트 P570 운영#1 P570 운영#2 P570 운영#3 P570 테스트#1 P570 DR#1 개발&테스트 P570 테스트#2 P570 테스트#3 시범사업 통합 대상 서버대수 : 39 대 1단계 통합 대상 서버 대수 : 43 대 시범사업 통합 서버 운영 대수 : 3대 1단계 통합 서버 운영 대수 : 5대

  10. [1단계] 서버 가상화 통합사업 완료 보고 목차 I 프로젝트 개요 추진 경과 2.1 추진방법론 2.2 진행일정 2.3 추진결과 II 결과 및 결언 III 첨부-1. IV V 첨부-2.

  11. 프로젝트 수행 프레임워크 Planning & Analysis VIO-Server Configuration VIO-Client & HACMP Configuration Phase 1 Phase 2 Phase 3 Phase 4 Phase 5 Phase 6 계획 수립 현황 분석 가상화 서버 구성 검증 가상화 Client & HACMP 구성 Failover Test 가상화 서버 Failover Test 서버 별 자원할당 방안확정 가상화 Client 자원 Verify 세부 스코프 협의 프로젝트 계획수립 Device 재배치 HMC 자원 Verify 기존 서버 구성 현황 분석 Sysplan SMT 작성 가상화 Client HACMP 구성 방안확정 가상화 Client OS 설치 및 HACP 구성 가상화 Client HACMP Failover Test Sysplan SMT 적용 가상화 서버 자원 Verify 스토리지 구성 현황 분석 가상화 Client 구성 완료 교육/ 운영매뉴얼 작성 Network 구성방안 확정 외장 스토리지 별 자원할당 방안확정 서전 위험 요소 파악 가상화 서버 구성 완료 가상화 Server/Client Verify 최종 보고서 작성 스토리지 별 구성방안 확정 가상화 Client Profile Verify II. 추진 경과 2.1 추진방법론 • 본 프로젝트는 아래와 같은 프로젝트 수행 Framework에 따라 체계적으로 진행하였습니다.

  12. 09’ 7월 • 09’ 8월 • 09’ 9월 • Activities • W1 • W2 • W3 • W4 • W1 • W2 • W3 • W4 • W1 • W2 • W3 • W4 • 계획 수립 • 세부 스코프 협의 • 프로젝트 계획 수립 • 서버 가상화 환경 점검 • 서버 및 스토리지 환경 파악 • Network Switch 환경 파악 • License / Microcode 확인 • 서버 가상화 대상 수립 • Volume virtual map 작성 • Network virtual map 작성 • Resource map 작성 • NIM master plan 작성 및 구축 • 간접투자 데이터 이행 • 데이터 이행 대상 및 환경 점검 • 데이터 이행 계획 수립 • 데이터 이행 수행 • 가상화 Server & Client 구축 • VIO Server 구축 • VIO Client 구축 및 업무이관 • VIO-S&C Failover Test • VIO-Client Clustering(HACMP) • 환경 구축 • VIO-C clustering 정책 수립 • VIO-C clustering 구축 • VIO-C clustering Test • VIO Failover Test 및 • 문제점 보완 • VIO-S&C 종합 테스트 • 문제점 분석 및 보완/해결 • 업무 테스트 및 문제점 보완 • 시스템 별 업무 종합 테스트 • 문제점 분석 및 보완/해결 • 프로젝트 완료 • 전체 / 업무별 구성도 작성 • 프로젝트 완료 보고서 작성 II. 추진 경과 2.2 진행일정 • 본 프로젝트는 09’7월 부터 09’9월 까지 3 개월 간 진행되었습니다. 가상화 Server #1 ~ #10 총 10대 구성 가상화 Client 총 45대 구성 최종보고 중간보고 Kick-off

  13. 신용카드 승인 DB/1.6C 12G 신용카드 승인 DB2/1.6C 12G 퇴직 연금 Web/0.8C 4G 퇴직 연금 Web/0.8C 4G 퇴직 연금 AP/0.8C 6G 신용카드 WAS1/1.5C 12G 퇴직 연금 AP/0.8C 6G 신용카드 WAS2/1.5C 12G 퇴직 연금 DB/1.8C 8G 퇴직 연금 DB/1.8C 8G 신용카드 WAS3/1.6C 10G 백업 서버 1.0C 8G 홈페이지 AP2/0.4C 8G 백업 서버 1.0C 8G 가상 계좌 AP/1.5C 4G 홈페이지 AP1/0.4C 8G 가상 계좌 AP/1.5C 4G ERMS DB2/0.4C 4G 가상 계좌 DB/1.5C 4G 가상 계좌 DB/1.5C 4G ERMS DB1/0.4C 4G R&D Web/AP 1.5C 8G 서비스 DB2/0.8C 8G R&D Web/AP 1.5C 8G 서비스 DB1/0.8C 8G R&D DB 1.5C 4G R&D DB 1.5C 4G 행망 DB 0.8C 4G 웹 메일 DB2/0.5C 4G 웹 메일 DB1/0.5C 4G 행망 DB 0.8C 4G AML Web/WAS 1C 8G AML Web/WAS 1C 8G AML AP/DB 3C 24G AML AP/DB 3C 24G PMS 1.0C 4G 공유 프로세서 POOL (19Way) 공유 프로세서 POOL (19Way) 공유 프로세서 POOL (9Way) 공유 프로세서 POOL (8Way) II. 추진 경과 2.3 추진결과 > 운영업무 > 내부망 내부망 운영 통합서버 본 프로젝트 수행 범위 • 통합운영 대상인 8개 업무 (19 partition)를 통합서버 4대(P595 FHA)에 가상화 통합 함으로서 자원활용의 효율성과 유연성을 극대화하였고 주요업무(DB server)는 고 가용성을 위해 HACMP를 구성하였습니다. 운영통합#1 (14EA) 22C 112G 운영통합#2 (13EA) 24C 120G 운영통합#3 (8EA) 9C 69G 운영통합#4 (7EA) 8C 59G 신용평가 모니터링/1.0C 8G IFRS/3.0C 16G 자본시장 DB/AP#1/2.0C 8G 자본시장 DB/AP#2/2.0C 8G 시범사업구축 AML DB 외 12 partition 시범사업구축 AML DB 외 11 partition VIO서버#2 1C 2G VIO서버#1 1C 2G VIO서버#2 1C 2G VIO서버#1 1C 2G VIO서버#2 1C 2G VIO서버#2 1C 2G VIO서버#1 1C 2G VIO서버#1 1C 2G Login DB / 0.3C 8G Login DB / 0.3C 8G

  14. 인터넷 MCA test (0.5C 8G) R&D test (0.5C 4G) 인터넷 뱅킹 DB test (0.5C 4G) AML Web test (0.5C 4G) 인터넷 뱅킹 AP test (0.5C 8G) AML DB test (0.5C 4G) 서버 가상화 통합 SWIFT test (0.5C 4G) 홈페이지 DB test (0.5C 8G) 가상 계좌 test (0.5C 4G) 홈페이지 AP test (0.5C 4G) 행망 test (0.5C 2G) 외신 test (0.5C 4G) PMS test (0.5C 1G) 퇴직연금 test (0.5C 4G) BT GW test (0.5C 1G) BT 인터파크 test1 (0.5C 1G) EAI test (0.5C 8G) 자본시장 test (0.5C 2G) 간접투자 test (0.5C 4G) 공유 프로세서 POOL (12Way) II. 추진 경과 2.3 추진결과 > 개발 및 테스트 업무 내부망 개발 통합서버 본 프로젝트 수행 범위 • 인터넷 뱅킹 및 홈페이지 개발업무 등 기존 5개의 RACK에 분산되어 있던 개발 및 테스트서버를 기 운영중인 통합용 개발서버에 물리적 서버의 추가 도입 없이 구축하였습니다. 통합 전 Rack 현황 (Total : 5EA) 가상화 통합구성 (Total:내부망1EA) 인터넷뱅킹 MCA 인터넷뱅킹 DB 통합개발 (19EA Partitions) 12C 87G 인터넷뱅킹 AP 홈페이지 DB test 홈페이지 AP test VIO서버#2 (0.5C 2G) VIO서버#1 (0.5C 2G) 시범사업구축 AML DB 외 14 partition 6H1 1대, 6M2 2대,H80 1대 NIM server (0.5C 2G) 6C4 1대

  15. 웹 메일 수신 확인 / 0.5C 4G 모바일 뱅킹#1 / 0.3C 4G 모바일 뱅킹#2 / 0.5C 4G IBK Loan AP / 0.5C 4G 홈페이지 웹#1 / 0.5C 8G 홈페이지 웹#2 / 0.5C 8G Hello Pay / 0.3C 2G 홈페이지 검색 / 0.5C 4G Tivoli 서버 / 0.3C 8G 메일 발송 / 0.7C 4G 메일 웹#1 / 0.5C 4G 메일 웹#2 / 0.5C 4G 공인인증 / 0.3C 4G EBIS GW01 / 0.7C 8G EBIS GW02 / 0.7C 8G Bankon / 0.3C 4G Bankon / 0.3C 4G Job World / 0.5C 4G 공유 프로세서 POOL (4Way) 공유 프로세서 POOL (4Way) 공유 프로세서 POOL (5Way) II. 추진 경과 2.3 추진결과 > 운영 업무 > 인터넷망 인터넷망 운영 통합서버 본 프로젝트 수행 범위 • 통합운영 대상인 8개 업무 (18 partition)를 통합서버 3대(P570 MMA)에 가상화 통합 함으로서 자원활용의 효율성과 유연성을 극대화하였습니다. DMZ#1 (6EA Partitions) 4C 40G DMZ#2 (6EA Partitions) 5C 46G DMZ#3 (6EA Partitions) 4C 42G VIO서버#2 0.5C 3G VIO서버#2 0.5C 3G VIO서버#1 0.5C 3G VIO서버#1 0.5C 3G VIO서버#2 0.5C 3G VIO서버#1 0.5C 3G

  16. [1단계] 서버 가상화 통합사업 완료 보고 목차 I 프로젝트 개요 추진 경과 II 결과 및 결언 III 3.1 구축효과 (정량적 / 정성적) 3.2 서버통합 2단계 추진계획 3.3 서버 인프라 발전단계 첨부-1. IV V 첨부-2.

  17. III. 결과 및 결언 3.1 구축효과 (정량적 구축효과) • 가상화 통합으로 기존 IT시스템의 효율성을 끌어올리고, 아래와 같은 연간 운영 비용의 절감을 기대할 수 있습니다.

  18. III. 결과 및 결언 3.1 구축효과 (정성적 구축효과) • 단기적인 H/W 도입 비용 절감 효과 외에 인프라 자원 비용의 절감, 표준화된 아키텍처 등의 장기적인 효과를 기대할 수 있습니다.

  19. 진단 운영 & 측정 구축 III. 결과 및 결언 3.1 구축효과 (Green IT) • 가상화는 서버, 스토리지, 네트워크 장치 수를 줄이고, 사용률을 증대시키며, 효율적인 전력 분배, 백업, 정책기반의 관리와 공유된 인프라스트럭쳐를 구축하여 IT 에너지를 절약하기 위한 강력하고 경제적인 솔루션으로써 Green IT로 가는 필수적인 요소 입니다. 진단 • 에너지 진단을 통한 효율화 • Hot & Cold aisle적용 에너지 사용에 대한 사실 수집, 이해 및 개선 구축 운영&측정 에너지 효율적 데이터센터로 체계적인 업그레이드 에너지 측정 및 관리를 통한 효율적 운영 • 에너지 절감을 위한 체계적 로드맵 그린 데이터센터 • 풍향을 고려한 트레이 설계 쿨링 가상화 쿨링 혁신적인 냉각 솔루션 활용 가상화 등 혁신적인 기술 적용 • 전산 유체 역학 해석을 통한 열진단 • 에너지 절약적인 냉방시스템 도입 • 전산실 실시간 모니터링, 문제점 분석 및 해결을 통한 효율성 향상 서버통합 • 정압을 고려한 이중마루 설계 • 서버통합 기술을 이용한 상면활용 증대 및 IT 자원의 가용성 증대

  20. Main Site (수지) DR Site (을지로) 인터넷 구간 내부 구간 인터넷 구간 신용카드 5C 70G(3nodes) 신용카드 4C 58G(2nodes) < 인터넷 뱅킹 > 신규 도입 < 통합개발 > 신규 도입 신규 도입 10C 66G(6nodes) 신규 도입 10C 70G(7nodes) DMZ#1 DMZ#1 DMZ#1 시범사업 19C 92G(11nodes) 시범사업 19C 92G(11nodes) 내부 구간 Storage DS8300 Storage DS8300 PPRC (실시간 미러링) 1대 서버에 20개에 신규 및 기존 업무 1대 서버에 10개 신규 및 기존 업무 III. 결과 및 결언 3.2 서버통합 2단계 추진 계획 • 서버 인프라 환경을 시스템 단순화 단계와 자원 공유 단계에서 인프라 서버 가상화 성숙 단계로 진입 하기 위한 두 번째 단계이며, 재해복구 시스템 구축을 주요 대상으로 하고 있습니다. 2010년 사업 • 목적: 1단계 사업에서 기 적용된 가상화 기술을 확장하고 재해복구 자원을 추가 함으로써 향후 서버자원 통합 및 인프라 가상화 성숙 단계 진입을 시작함 • 대상: 2010년 2단계 서버자원통합 대상 중에서 유연한 자원의 증설을 필요로 하는 업무 및 중요 재해복구 업무를 대상으로 선택 함

  21. III. 결과 및 결언 3.3 향후 추진 방향 • 본 프로젝트는 A은행 서버 인프라 환경을 시스템 단순화 단계와 자원 공유 단계에서 인프라 서버 가상화 단계로 진입하기 위한 첫 단계라고 할 수 있으며, 이는 업무 혁신 및 역량 강화라는 비즈니스 전략에도 부합하는 IT 전략의 일환입니다. 서버 인프라 가상화의 목표 인프라 자원활용 목표 • 비즈니스 변화에 동적인 대응 • Speed to market 향상 A 은행 프로젝트(서버통합)의 목표 - 시스템 단순화 1단계 - 자원 공유 단계 진입 비즈니스 변화에 동적인 대응이 가능한 Infra 구축 • 자원의 동적인 할당 • 변화에 신속한 대응 서비스 혁신 단계 • 자원 공유 • 자원 사용률 향상 • IT 단위 비용 감소 • 물리적 통합 • 관리 대상 자산 / 자원의 수 감축 • OS 및 S/W 단순화 • 표준 선정 및 표준화 정책 강화 • 업무 중요도 수립 • 서버 자원 관리 차별화 기준 • 서버 자원 관리 체계 수립 • 가상화 환경에 적합한 자원 관리 정책 수립 인프라 가상화 단계 전사 자원 가상화를 통한 동적인 자원 분배 • 서비스 기반 아키텍처 (SOA) 및 Infra 설계 • Application의 동적인 결합을 가능하게 함 • 정책 기반의 자동화된 IT 관리 및 서비스 제공 시스템 구축 • Web Services Enabling 자원 공유 단계 As-Is • 유사 기능 서버 통합 • Silo 시스템에서의 탈피 • 서버 Farm(Provisioning) 구성 • 동적인 분산 프로세싱 구축 • 핵심 IT 관리 프로세스 자동화 • 전체 시스템 자원의 사용률 증대 고객사별 업무별 서버 자원 사용의 불균형 해소 및 자동화 • 서버 재배치 • 물리적인 자원 별 사용률 증대 • 동적인 자원 공유 환경 구성 • 서버 자원의 업무별 종속성 탈피 • Network Subnet 단순화 • 서버 Farm 구현을 선행조건 시스템 단순화 단계 고객 사 서버의 물리적 통합과 S/W 단순화 • 서버 자원 단순화 • 표준화 • 자원 관리의 차별화 대상 인프라 H/W 자원 위주(서버 & 스토리지) H/W(자원의 활용률 증대) H/W & S/W H/W & S/W & Application

  22. [1단계] 서버 가상화 통합사업 완료 보고 목차 I 프로젝트 개요 추진 경과 II 결과 및 결언 III 첨부-1. 4.1 적용된 가상화 기술 CPU 4.2 적용된 가상화 기술 Network 4.3 적용된 가상화 기술 Storage 4.4 NIM server 4.5 인프라의 유연성 IV V 첨부-2.

  23. DB Server HACMP Cluster 구성 신용카드 승인 DB/1.6C 12G 신용카드 승인 DB2/1.6C 12G 신용카드 WAS1/1.5C 12G 신용카드 WAS2/1.5C 12G 신용카드 WAS3/1.6C 10G 홈페이지 AP2/0.4C 8G 홈페이지 AP1/0.4C 8G ERMS DB2/0.4C 4G ERMS DB1/0.4C 4G 서비스 DB2/0.8C 8G 서비스 DB1/0.8C 8G 웹 메일 DB2/0.5C 4G 웹 메일 DB1/0.5C 4G 공유 프로세서 POOL (19Way) 공유 프로세서 POOL (19Way) IV. 첨부 1 4.1 적용된 가상화 기술 > Hypervisor의 CPU 자원 관리 운영통합#3 (8EA partition) 9C 69G 운영통합#4 (7EA patrtition) 8C 59G • DB서버 장애 시 HACMP에 의해 반대 노드로 Failover되며, Hypervisor는 변화하는 시스템 자원 요구에 유연하게 대처하기 위해 시스템 온라인 중에 CPU와 같은 자원을 시스템 사용율에 따라 동적으로 추가 및 제거하는 기능입니다 HACMP에 의한Failover VIO서버#2 1C 2G VIO서버#1 1C 2G VIO서버#2 1C 2G VIO서버#1 1C 2G Micro-partition 적용 : 자원의 동적 재구성 Login DB / 0.3C 8G Login DB / 0.3C 8G 업무 N 1.0C 4G

  24. R&D test (0.5C 4G) AML Web test (0.5C 4G) AML DB test (0.5C 4G) SWIFT test (0.5C 4G) 가상 계좌 test (0.5C 4G) 행망 test (0.5C 2G) 외신 test (0.5C 4G) PMS test (0.5C 1G) 퇴직연금 test (0.5C 4G) BT GW test (0.5C 1G) Network (내부 망 통신) Network (인터넷망 통신) BT 인터파크 test1 (0.5C 1G) EAI test (0.5C 8G) 사용자 자본시장 test (0.5C 2G) 간접투자 test (0.5C 4G) IV. 첨부 1 4.2 적용된 가상화 기술 > SEA(Shared Ethernet Adapter) 본 프로젝트수행 범위 파티션은 물리적이더넷 어댑터 없이VIO서버를 통해 네트워크 이용! • 파티션마다 물리적 네크워크 어댑터를 장착하지 않고, VIO서버에만 장착하면, 가상 이더넷을 통해 동일한 장비 내에 구성된 파티션 간 TCP/IP 통신 및 외부 통신이 가능합니다. 인터넷 MCA test (0.5C 8G) 인터넷 뱅킹 DB test (0.5C 4G) 인터넷 뱅킹 AP test (0.5C 8G) 홈페이지 DB test (0.5C 8G) 외부통신은VIO서버에 구성된 물리적 이더넷 어댑터 이용 홈페이지 AP test (0.5C 4G) 시 범 사 업 구 축 VIO서버#1 (0.5C 2G) VIO서버#2 (0.5C 2G) NIM server (0.5C 2G)

  25. 웹 메일 DB OS 서비스 DB OS ERMS DB OS 홈페이지 AP OS 신용카드 승인 DB/1.6C 12G 신용카드 WAS1/1.5C 12G 신용카드 WAS3/1.6C 10G 홈페이지 AP1/0.4C 8G ERMS DB1/0.4C 4G 서비스 DB1/0.8C 8G 웹 메일 DB1/0.5C 4G IV. 첨부 1 4.3 적용된 가상화 기술 > 가상 스토리지 IO (Input / Output) • VIO server를 이용한 I/O를 공유하여 자원활용의 효율성과 유연성을 극대화하였습니다. VIO서버를 통한 어댑터 공유는 크게는 추가 RACK비용 감소는 물론 효율적인 서버통합을 제시하고 있습니다. 운영통합#3 9C 70G 신용카드 승인 DB OS DS4700 신용카드 WAS1/3 OS DS8000 VIO서버#1 (1C 4G) VIO서버#2 (1C 4G) 1. 신용카드 및 홈페이지 서버를 포함한 모든 DB 서버는 물리적 채널 연결 2. 모든 업무의 OS 및 AP업무의 어플리케이션 엔진은 VIO Server를 통해 연결 3. DS4700에는 OS와 AP업무의 어플리케이션 엔진 구성, DS8k에는 DATA 및 DB업무의 어플리케이션 엔진 구성

  26. 백업 백업 백업 백업 NIM 서버를 이용한 관리통합 통합 NIM 서버 운영체제 설치 백업 복구 백업 백업 백업 백업 백업 백업 IV. 첨부 1 4.4 NIM (Network Installation Management) 서버 • 기존 운영체제를 각각의 서버에서 CD, tape을 이용하여 설치, 백업 받는 환경과 달리내부망은 기존 시범사업 시 구성했던 P570 서버의 하나의 NIM 서버를 활용하여 추가 17대 운영 업무 및 5대 테스트 개발 업무, 인터넷망은 P55A서버에 NIM 서버를 구축하여 16대 운영 업무의 운영체제 설치, 운영체제 백업 및 복구를 집중화하여 관리하고 있습니다.

  27. 서버 A 서버 A 서버 B 서버 B III. 결과 및 결언 5.1 가상화 통합 전 후 비교 - CPU 자원의 공유 여유자원 < 범례 > 필요자원 CPU 자원의 자동 공유 자원 공유 불가 • 가상화 통합으로 서버의 CPU의 자원을 시스템의 필요에 따라 자동으로 배분하여 공유함으로서 도입된 자원활용의 극대화가 가능합니다. 3 2 1 0 3 2 1 0 CPU 월간 최대 사용률 80% CPU 도입시 최대치가 아닌 평균치로 도입가능 월간 최대 사용률 90% Shared CPU Pool (3 CPU) 월간 평균 사용률 46% 월간 평균 사용률 30% 단독서버로 운영 가상화 통합

  28. Thank You 성공적인 사업 수행을 위해 최선을 다하겠습니다.

More Related