estrategias de alta disponibilidad y dise o del almacenamiento en entornos de virtualizaci n n.
Download
Skip this Video
Loading SlideShow in 5 Seconds..
Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización PowerPoint Presentation
Download Presentation
Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización

Loading in 2 Seconds...

play fullscreen
1 / 55

Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización - PowerPoint PPT Presentation


  • 201 Views
  • Uploaded on

Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización. David Cervigón Luna Ingeniero Preventa - Virtualización david.cervigon@microsoft.com http://blogs.technet.com/davidcervigon. Agenda. Introducción Repaso y Novedades de Failover Cluster en 2008 R2

loader
I am the owner, or an agent authorized to act on behalf of the owner, of the copyrighted work described.
capcha
Download Presentation

PowerPoint Slideshow about 'Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización' - ivo


An Image/Link below is provided (as is) to download presentation

Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author.While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server.


- - - - - - - - - - - - - - - - - - - - - - - - - - E N D - - - - - - - - - - - - - - - - - - - - - - - - - -
Presentation Transcript
estrategias de alta disponibilidad y dise o del almacenamiento en entornos de virtualizaci n

Estrategias de Alta Disponibilidad y diseño del almacenamiento en entornos de virtualización

David Cervigón Luna

Ingeniero Preventa - Virtualización

david.cervigon@microsoft.com

http://blogs.technet.com/davidcervigon

agenda
Agenda
  • Introducción
  • Repaso y Novedades de FailoverCluster en 2008 R2
  • Configuración y diseño de la red
  • Configuración del Almacenamiento SAN
  • Geo-Clusters, Stretch-Clusters
  • GuestClustering
  • Dimensionamiento y configuración fina
windows server 2008 r2 hyper v vs microsoft hyper v server 2008 r2
Windows Server 2008 R2 Hyper-V vs. Microsoft Hyper-V Server 2008 R2

Microsoft Hyper-V Server

Hyper-V como role de

Windows Server 2008 R2

Microsoft Hyper-V Server 2008 R2 (HVS)

VM

VM

Parent Partition

Hyper-V

Windows hypervisor

MISMAS FUNCIONALIDADES

Hardware

VM

VM

Windows (parent partition)

Windows hypervisor

Hardware

Descargagratuitaqueincluye el hypervisor y todos los componentesnecesariosparavirtualizar (Windows Kernel, drivers, red, almacenamiento…)

Disponiblecomo role en unainstalación “full” o “Server Core” de Windows Server 2008

host clustering ha quick migration live migration csvs
Host ClusteringHA, Quick Migration, Live Migration, CSVs

NIC3 - 192.168.100.2

NIC3 - 192.168.100.1

Red de HeartBeat

NODO2

NODO1

Server Core

Server Core

NIC1 - 192.168.0.1

NIC1 - 192.168.0.2

Red Pública

NIC2 - 10.10.10.1

NIC2 - 10.10.10.2

“Intranet” Red Virtual

DC

192.168.0.100

Almacenamiento SAN

192.168.0.100

alta disponibilidad en entornos virtualizados repaso y novedades de f ailover cluster en 2008 r2

Alta Disponibilidad en entornos virtualizadosRepaso y novedades de FailoverCluster en 2008 R2

requerimientos del almacenamiento para clustering en windows server 2008
Requerimientos del Almacenamiento para Clustering en Windows Server 2008
  • Solo se soporta el almacenamiento que admita PersistentReservations (SCSI-3)
  • No se soporta a parallel-SCSI

Tipos de BUS compartido soportados:

SAS

Fibre Channel

iSCSI

nuevo modelo de quorum
Nuevo modelo de Quorum
  • Membresía al cluster basada en “Mayorías”
    • Quien y qué tiene un voto es totalmente configurable
  • Eliminación de puntos de fallo
    • El diseño original asumía que el almacenamiento siempre estaría disponible
    • Ahora el cluester puede sobrevivir a una perdida de conexión con los nodos
  • Nuevo modelo de quorum
    • Híbrido del antiguo MajorityNode Set (MNS) y Quorum basado en disco compartido
    • Este nuevo modelo reemplaza a los dos anteriores
mayor a de disco y nodos
Mayoría de Disco y Nodos
  • Mayoría de nodos con un” modelo de quorum basado en un “disco testigo”
  • 3 votos en total, con dos necesarios para la mayoría
    • El Cluster puede sobrevivir a la pérdida de cualquiera de los elementos con un voto

Voto

Voto

Cada nodo tiene 1 voto

SAN

Voto

El dispositivo del almacenamiento compartido tiene 1 voto

mayoria de nodos
Mayoria de Nodos
  • Solamente los nodos tienen voto
    • Se requieren 3+ nodos, y no hay necesidad de tener almacenamiento compartido
    • Se requiere la mayoría de los nodos para operar el Cluster

Voto

Voto

Voto

SAN

mayor a de nodos y carpeta compartida
Mayoría de nodos y carpeta compartida
  • Un File Share Witness (testigo) permite tener un Cluster de dos nodos sin disco compartido
  • Excelente solución para Clusteres geográficamente dispersos
  • Un servidor de ficheros puede usarse para albergar los testigos de múltiples clústeres

Testigo

Carpeta compartida en un servidor independiente

Voto

Voto

Cada nodo tiene 1 voto

SAN

solo disco
Solo disco
  • Solamente un disco compartido tiene voto
    • Los nodos no tienen voto, por lo que el disco de Quorum es el master
    • El Cluster estará vivo solamente si un nodo puede alcanzar el disco
    • Mismo comportamiento que el tradicional modelo de Quorum
      • Generalmente no recomendado

SAN

El dispositivo de almacenamiento compartido es el master

Voto

mejoras en la validaci n
Mejoras en la Validación
  • Se puede correr antes, durante o después del despliegue del cluster
  • Incluye comprobaciones adicionales de buenas prácticas
    • Configuración del Quorum
    • Estado de los recursos del cluster
    • Configuración del Network Name en un clustermulti-site
    • Ofrece una guía prescriptiva para lograr mayor disponibilidad
  • Recoge información acerca de la configuración para documentación y soporte
powershell
PowerShell
  • Línea de comandos, lenguaje de scripting e interfaz programática
  • Gestión mejorada
    • Corre la validación
    • Crea clusteres y clusteriza roles
    • Gestiona Hyper-V y CSV
    • Genera informes de dependecias
  • Server Core, Hyper-V Server 2008 R2, & Cliente RSAT
  • Reemplaza a cluster.exe como herramienta CLI
acceso en modo solo lectura
Acceso en modo solo lectura
  • Acceso en solo lectura a la Cluster API
  • Privilegios reducidos
    • Ver el cluster
    • Sin poder llevar a cabo acciones
    • Minimiza el riesgo
  • Seguridad mejorada
  • Útil para la primera capa de soporte, colaboración entre equipos, administración e investigación
  • Soportado por Powershell
quick migration vs live migration
Quick Migration vs. Live Migration
  • Live Migration
  • (Windows Server 2008 R2Hyper-V)
  • Estado de la VM y Transferencia de la Memoria
    • Crea la VM en el destino
    • Mueve páginas de memoria desde el origen al destino via Ethernet de manera iterativa
  • Transferencia final del estado y restauración de la VM
    • Pausa la máquina virtual
    • Mueve el almacenamiento desde el origen al destino
  • Continua la ejecución
  • Quick Migration
  • (Windows Server 2008 Hyper-V)
  • Salva el estado de ejecución
    • Crea la VM en el destino
    • Escribe la memoria de la VM en el almacenamiento compartido
  • Mueve la VM
    • Mueve la conectividad del almacenamiento del host origen al host destino
  • Restaura el estado y continua la ejecución
    • Lee la memoria de la VM del almacenamiento compartido y la restaura en el host destino
    • Continua la ejecución

Host 2

Host 1

Host 1

Host 2

cluster shared volumes
Cluster Shared Volumes
  • Todos los servidores del cluster tienen acceso simultáneo a las mismas LUN del almacenamiento
  • Utiliza NTFS, elimina los problemas de letras de unidad, mismas herramientas, sin modificaciones en la SAN…
hyper v networking
Hyper-V Networking
  • Partición Padre
    • Redes Virtuales enlazadas a NICs físicas
      • Externas – Limitadas por el número de NICs
      • Internas – Ilimitadas
      • Privadas – Ilimitadas
    • Solo NICs Ethernet (no Wireless)
    • Soporta VLANs
      • Trunking (VTP Protocol)
  • Máquina Virtual
    • NIC Sintética
    • NIC Legacy (Intel 21140)
    • 12 NICs por VM
      • 8 sintéticas
      • 4 legacy
    • Hasta 10Gb/s
    • Soporta VLANs

NIC enlazada a Hyper-V

NIC dedicada (Gestión)

switches virtuales switches f sicos
Switches virtuales – Switches físicos

VM1

VM2

VLAN2

VLAN1

VMBUS

Los puertos del Switch Virtual

son troncales

Virtual Switch

Tarjeta física del Host

VLAN2

VLAN1

Trunk Port

Physical Network Switch

c mo repartir las nics
Cómo repartir las NICs
  • Mínimo 2, máximo… y mejor Gigabit
  • 2 NICs
    • NIC1: HeartBeat + LiveMigration
    • NIC2: Gestión + vSwitch
  • 3 NICs
    • NIC1: HeartBeat + LiveMigration
    • NIC2: Gestión
    • NIC3: vSwitch
  • 4 NICs
    • NIC1: HeartBeat + LiveMigration
    • NIC2: Gestión
    • NIC3: vSwitch1
    • NIC4: vSwitch2
  • Si se va a utilizar iSCSI es conveniente dedicar una o dos (MultiPath) tarjetas conectadas a redes Gigabit
  • Importante segmentar/repartir el trafico en diferentes switches físicos
    • Rendimiento
    • Tolerancia a fallos
fiber channel vs iscsi
Fiber Channel vs. ISCSI

Host

Host

VSP Virtual Storage Provider

VSP Virtual Storage Provider

VDS/VSS Hardware Provider

VDS/VSS Hardware Provider

MPIO Store Port Driver

MPIO Store Port Driver

HBA1

HBA2

NIC1

NIC2

FC Switches

Switches de red Nivel 3

SP1

SP1

SP2

SP2

LUN2

LUN2

LUN1

LUN1

Disk ArrayGroup

Disk ArrayGroup

receta
Receta
  • Instalar el Sistema Operativo
  • Instalar los drivers del fabricante
  • Instalar Roles y Funcionalidades
    • Hyper-V
    • Multipath I/O
    • FailoverCluster
  • Desde el almacenamiento
    • Crear las LUNs sobre los discos, con el nivel de RAID deseado
    • Presentar las LUNs que conformaran el almacenamiento compartido a todos los WWNames de los puertos correspondientes de las HBAs de todos los nodos del cluster.
  • Instalar el DeviceSpecific Module (DSM) de la cabina de almacenamiento
    • Es frecuente ver los volúmenes correspondientes a cada LUN duplicados en el Administrador de Discos
  • BOOT from SAN
    • Es conveniente utilizar diferentes HBAs y Fabrics para separar el I/O de las LUNs de sistema y las LUNs del almacenamiento compartido
los csvs son luns normales
Los CSVs son LUNs normales
  • Solo cambia la forma en la que las maneja el cluster
    • En todos los nodos se montan en el mismo path: C:\ClusterStorage\VolumeXX
  • Hay que habilitar su soporte a nivel de cluster
    • Interfaz gráfica
    • Cluster.exe /propEnableSharedVolumes=1
  • Receta:
    • Presentar la LUN que queremos que sea un CSV a todos los nodos del cluster
      • Tener en cuenta que tendrá un gran volumen de datos y un alto I/O
    • Agregar la LUN al cluster (conviene re-validar el cluster)
    • Agregar el nuevo disco que aparece como almacenamiento disponible como un nuevo CSVs
redirected i o
Redirected I/O

Redirección del I/O por SMB

La VM corriendo en el nodo 2 no esafectada

Volumenmontado en e l Nodo 1

Fallo de conectividad a la SAN

SAN

Las VMs todavía se pueden mover por Live Migration

VHD

csvs vs luns dedicadas
CSVs vs. LUNs dedicadas

CSVs

  • Pros
    • Simplifica el diseño del almacenamiento y el uso de herramientas específicas (p.eBackup, Clone, Mirror, etc.)
    • Ahorra espacio
    • Facilita la gestión del entorno virtualizado
    • Mejores tiempos de respuesta en Live Migrations
  • Cons
    • Muchos huevos en la misma cesta
    • Rendimiento (discutible)
    • No permite Pass-Through

LUNs Dedicadas

  • Pros
    • Rendimiento (discutible)
    • Aislamiento
    • Pass-throug
    • Geo-Clustering
    • Migraciones vía SAN transfers/NPIV
  • Cons
    • Complica el diseño almacenamiento
    • Complica el aprovisionamiento de nuevas VMs
    • Peores tiempos de Live Migration
alta disponibilidad en entornos virtualizados geo clusters multi site clusters stretch clusters

Alta Disponibilidad en entornos virtualizadosGeo-Clusters, Multi-SiteClusters, StretchClusters

Ver: Windows Server 2008 Multi-Site Clustering Whitepaper

de ha a ha dr dp
De HA a HA + DR + DP

Continuidad del Negocio

  • Hyper-V + FailoverCluster ofrecen:
  • Alta Disponibilidad
  • Movimientos de máquinas virtuales sin tiempo de parada
  • La posibilidad de extender estas ventajas a sites geográficamente separados, convirtiéndose además en una excelente solución de Recuperación ante desastres y de protección continua de datos

Sitio Primario

Sitio Secundario

Disaster Recovery (DR)

Alta Disponibilidad (HA)

Storage Array

Storage Array

VHD

Backup/Recovery

Clustering

Disaster Recovery

Almacnamiento

Quick/Live Migration

Backup/Recovery

Backup/Recovery

Backup/Recovery

33

geo clusters stretch clusters multi site clusters
Geo-Clusters, Stretch Clusters, Multi-Site Clusters
  • El cluster se extiende a diferenten localizaciones físicas
  • En cada Site los nodos acceden a su propio sistema de almacenamiento
  • El almacenamiento replica la información entre los diferentes Sites
  • En caso de desastre en un Site, el failover se lleva a cabo de manera automática

Site A

Site B

Replicación

mayor a de nodos en multi site
Mayoría de nodos en Multi-Site

¿Puedocomunicarme con la mayoría de los nodos del cluster?

No, me apago

¿Puedocomunicarme con la mayoría de los nodos del cluster?

Si, continúoencendido

Cluster de 5 nodos

Mayoría = 3

Site A

Site B

SAN

SAN

Pérdida de conectividad entre Sites

Mayoría en el nodoprimario

mayor a de nodos en multi site1
Mayoría de nodos en Multi-Site

¿Puedocomunicarme con la mayoría de los nodos del cluster?

Si, continúoencendido

Cluster de 5 nodos

Mayoría = 3

El Site entero se cae

Site A

Site B

SAN

SAN

Mayoría en el nodoprimario

mayor a de nodos en multi site2
Mayoría de nodos en Multi-Site

¿Puedocomunicarme con la mayoría de los nodos del cluster?

No, me apago

Cluster de 5 nodos

Mayoría = 3

El site entero se cae

Se necesitaforzar el Quorum manualmente

Site A

Site B

SAN

SAN

Majority in Primary Site

mayor a de nodos y file share
Mayoría de Nodos y File Share

Site C

¿Puedocomunicarme con la mayoria de votos en el cluster?

Si, continúoencendido

File Share en un Site independiente

WAN

Site A

Site B

SAN

SAN

El sitioentero se cae

Cluster de 5 nodos

Mayoría = 3

mayor a de nodos y file share1
Mayoría de Nodos y File Share

Site C

¿Puedocomunicarme con la mayoria de votos en el cluster?

No, me apago

¿Puedocomunicarme con la mayoria de votos en el cluster?

Si, continúoencendido

File Share en un Site independiente

WAN

Site A

Site B

SAN

SAN

Pérdida de conectividad entre Sites

Cluster de 5 nodos

Mayoría = 3

replicaci n s ncrona
Replicación Síncrona
  • El host recibe la confirmación de escritura solamente después de que el almacenamineto notifique la correcta replicación del dato

Write request

Replicación

Write Complete

Dato

Dato

Confirmación

Almacenamiento Primario

Almacenamiento Secundario

replicaci n as ncrona
Replicación Asíncrona
  • El host recibe la confirmación de escritura del almacenamoento cuanddo el dato se ha escrito correctamente en el almacenamiento primario
  • No usar nunca en multi-site clusters a menos que el mecanismo de replicación garantice que el orden de las operaciones de I/O se preservan

Write request

Replicación

Write Complete

Dato

Dato

Almacenamiento Secundario

Almacenamiento Primario

s ncrona vs as ncrona
Síncrona vs. Asíncrona
  • Síncrona
    • Cortas distancias
    • Sin pérdida de datos
    • Requiere conexiones de alto ancho de banda y baja latencia
    • La latencia en las escrituras puede impactar en el rendimiento
  • Asíncrona
    • Mayores distancias
    • Perdida potencial de datos en caso de fallo hardware
    • Requiere un ancho de banda suficiente para transmitir datos a suficiente velocidad
    • Sin impacto en rendimiento
  • Las aplicaciones pueden recuperarse bien de caídas mientras están en estado consistente, pero difícilmente lo harán si las operaciones de I/O se han realizado fuera de secuencia.
  • ¿DFS, DFS-R o Robocopy?. Buen intento, pero mejor no, gracias.
csvs y multi site clusters
CSVs y Multi-SiteClusters
  • Por lo general los CSVs no pueden utilizarse en configuraciones Multi-Site
    • En ambos sites, el CSV se utilizaría en lectura-escritura
    • La replicación suele ser por LUN y unidireccional
    • Las LUNs replicadas suelen estar ocultas o en solo lectura en el site destino
  • Hay fabricantes que resuelven el problema haciendo que la replicación del almacenamiento sea transparente al host
    • Ej. NetAppMetroCluster
slide44

NetApp Data Protection/Business Continuity Products

OperaciónContínua

LAN/WANClustering

ReplicaciónSíncrona

Clusters Síncronos

ReplicaciónAsincrona

Herramientaspropias del almacenamiento

Replicación Software

Backup Incremental a nivel de bloque

Herramientaspropias del almacenamiento

Herramientas de Backup

Replicación Software

Disponibilidad

Cost

Herramientaspropias del almacenamiento

Herramientas de Backup

Recuperación

de Aplicaciones

Herramientaspropias del almacenamiento

Herramientas de Backup

Herramientas de Backup

Backup

Recuperaciónremota

Recuperaciónremota– BajoRTO

Recuperación local

Capacidad

replicaci n
Replicación
  • Double-Take
    • http://www.doubletake.com/english/products/double-take-virtualization/Pages/Double-Take-for-Hyper-V.aspx
    • http://www.doubletake.com/Documents/Hyper-V/DBTK_MSFT_HyperV_Solution_Sheet_GC-Product-Overview-0607.pdf
  • NetAppSnapMirror & MetroCluster
    • http://www.netapp.com/us/products/protection-software/snapmirror.html
    • http://www.netapp.com/us/products/protection-software/metrocluster.html
  • HP Continuous Access
    • http://h18006.www1.hp.com/products/storage/software/conaccesseva/index.html
    • http://h18006.www1.hp.com/products/storage/software/continuousaccess/index.html
  • EMC SRDF
    • http://www.emc.com/products/detail/software/srdf.htm
  • Hitachi HDS TrueCopy
    • http://www.hds.com/solutions/applications/microsoft/hyper-v.html
    • http://www.hds.com/assets/pdf/synchronous-data-replication-solutionsbrief.pdf
    • http://www.hds.com/assets/pdf/asynchronous-long-distance-data-replication-sb.pdf
  • NEC ExpressCluster
    • http://www.nec.com/global/prod/expresscluster/
alta disponibilidad en entornos virtualizados dimensionamiento y configuraci n fina

Alta Disponibilidad en entornos virtualizadosDimensionamiento y configuración fina

clusters vs stand alone
Clusters vs. Stand alone
  • La HA tiene un precio
    • Un nodo de cluster siempre está peor aprovechado que un stand-alone
    • Los requerimientos de hardware e infraestructura son mayores.
    • La solución es más compleja de diseñar, implementar y mantener
  • ¿Realmente necesito un cluster?
    • Criticidad de las VMs albergadas
    • Uso de otro tipo de estrategias de HA adicionales
      • Exchange CCR, DB Mirroring, NLB, Pools de VMs, etc.
    • Las VMs todavía se pueden migrar entre hosts stand-alone, con unos tiempos de parada muy aceptables (minutos)
dimensionamiento y configuraci n fina
Dimensionamiento y configuración fina
  • Factores a tener en cuenta
    • Número máximo de nodos en fallo que se pueden soportar según el número de nodos y el modelo de quorum.
    • Para más de dos nodos, un voto adicional basado en disco o file share solo tiene sentido para un número par de nodos.
    • Los nodos pasivos son útiles.
      • Aceleran los failovers
      • Debemos planificar su “desperdicio de hardware equivalente” en cualquier caso, repartiéndola entre los activos
      • A mayor número de nodos, más podemos relajar la proporción Activos/Pasivos
    • La memoria NO es el único factor a tener en cuenta a la hora de cargar nodos con VMs
      • La CPU puede ser determinante
      • Hay que tener muy en cuenta el I/O de red y almacenamiento
  • Planificar detalladamente las listas de possibleowners y preferredowners para cada grupo de cluster asociado a cada VM
demo algunos n meros

DEMOAlgunos números

Ver: http://blogs.technet.com/davidcervigon/archive/2009/05/29/herramienta-de-cosecha-propia-para-dimensionar-failover-clusters-beta.aspx

slide55

© 2009 Microsoft Corporation. All rights reserved. Microsoft, Windows, Windows Vista and other product names are or may be registered trademarks and/or trademarks in the U.S. and/or other countries.

The information herein is for informational purposes only and represents the current view of Microsoft Corporation as of the date of this presentation. Because Microsoft must respond to changing market conditions, it should not be interpreted to be a commitment on the part of Microsoft, and Microsoft cannot guarantee the accuracy of any information provided after the date of this presentation. MICROSOFT MAKES NO WARRANTIES, EXPRESS, IMPLIED OR STATUTORY, AS TO THE INFORMATION IN THIS PRESENTATION.