420 likes | 519 Views
Windows Server 2012 Hálózati újdonságok. Székács András andras.szekacs @training360.com Oktató Training360 Kft. Hálózatok - hibatűrés és terhelésmegosztás. DHCP Failover és Load Balancing NIC Teaming SMB Multichannel. Windows Server 2012 Hálózati újdonságok.
E N D
Windows Server 2012 Hálózati újdonságok Székács Andrásandras.szekacs@training360.com Oktató Training360 Kft
Hálózatok - hibatűrés és terhelésmegosztás DHCP Failover és LoadBalancing NIC Teaming SMB Multichannel
Windows Server 2012 Hálózati újdonságok • 802.1X Authentikáció (Vezetékes és vezeték nélküli elérés) változása, EAP-TTLS • BranchCache változása (biztonság, teljesítmény) • Data Center Bridging (Konvergált adatközponti infrastruktúra) • DHCP Failover és LoadBalancing • DNS változása (DNSSec, Kliens és szerver optimizálás) • Hyper-V Network Virtualzation (SCVMM 2012 sp1) • Hyper-VVirtualSwitch változások (sok új funkció konfigurálható PowerShell-ben) • IP Address Management (IPAM) • Network Policy and Access Services változások (PowerShell) • NIC Teaming (Hibatűrés és aggregáció) • Quality of Services (QoS) (Policy based és Hyper-V QoS) • RRAS és DirectaccessUnifiedrole kombináció • SMB 3.0
DHCP Failover és LoadBalancing • A DHCP szolgáltatás alap problémája • Hibatűrő, magas rendelkezésre állású DHCP szerviz • Kiskálázható szolgáltatás (igen)nagyvállalati környezetben • Windows 2008 R2 megoldás • FailoverCluster • Split Scope DHCP • Windows Server 2012 • DHCP Failover és LB
DHCP Failover architektúra • Hot standby mód • Meleg tartalék • Több modell • Terhelésmegosztó mód • Több scope is elhelyezhető a telephelyen elosztott kiszolgálókon
DHCP Failover architektúra • Miért jobb, mint a 70/30 szabály? • Ugyanaz a Scope mindkét kiszolgálón • Ugyanazok a bérletregisztrációk • Kiszolgálóhiba esetén nem igényel beavatkozást • Miért jobb, mint a FailoverCluster alapú megoldás? • Nem kell hozzá FailoverCluster • Terheléselosztó és hibatűrő megoldás egyben • Támogatja az IPAM? • Igen, az IPAM konfigurációba replikáltdhcp kiszolgálók is felvehetők
DHCP Failover architektúra • LoadSharing • RFC3074 • Kliens MAC hash alapján • 50-50% alpértellmezés • Maximum Client Lead Time • Failover esetén az ideiglenes IP élettartama, valamint • A failover kiszolgáló mikor veszi át a kontrollt a teljes scope felett • ReserveAddress % • Forró tartalék a standby kiszolgáló számára • (Auto)StateSwitchoverInterval • 10 perc időtartalék a kommunikáció ideiglenes megszakadása esetén • MessageAuthentication
NIC Teaming • Áttekintés • Konfigurációs beállítások • A NIC Teaming menedzsmentje • Demo
NIC Teaming - Áttekintés • Mi a NIC Teaming? • NIC Bonding, LoadBalancing and Failover (LBFO), NIC Aggregation, stb… • Két, vagy több hálózati adapter kombinált kapcsolata • Egyszerű adapterként „látszik” az applikációk felé • Hibatűrő és adatkapcsolati sebességet növelő megoldás • Per-VLAN interfészek a VLAN szegregációhoz
A Microsoft NIC Teaming előnyei • Gyártótól független • Teljes Windows integráció • GUI, PoweShell, Hyper-V • Az igényekhez igazítható konfiguráció • Egyszerű kezelőfelület • Több kiszolgáló konfigurációja egy felületről
Team kapcsolati módok • „Switchindependent” • Nincs szükség extra konfigurációra a fizikai switch szintjén • Védelem switch hiba esetén • Switchdependent • Konfiguráció a fizikai switch szintjén • Fejlettebb teaming variációk
Terhelés elosztási módok • „Addresshash” • Hash 4 értékből (alapértelmezés) • L2, L3 azonosítók alapján • Hash 2 értékből L2 azonosítók alapján • MAC hash • Hyper-V port • Hash a Hyper-V port azonosító alapján. (VM alapú elosztás)
Team interface-ek • „Defaultmode” • Minden forgalmat továbbít • Ha van mellette VLAN módú, az adott VLAN forgalmát nem • Hyper-Vswitch felé a javasolt megoldás • VLAN mode • Csak az adott VLAN forgalmát továbbítja • VLAN virtuális interface-ek kialakításához • Egy NIC esetén is használható
Team maximumok, szabályok • 32 NIC maximum • Virtuális gépben max. 2 NIC • Team a Team-ben • Megvalósítható de NEM TÁMOGATOTT • WiFi, Infiniband nem támogatott • Különböző sebességű NIC-ek • Nem támogatott
Team Virtuális gépben • Switch Independent, Addresshash mód • max. 2 NIC • Hyper-V szintű konfigurációt igényel
Team menedzsment felületek • GUI • PowerShellcmdlet-eket használ • PowerShell • NetLbfoTeam (new-, get-, set-, rename-, remove-) • NetLbfoTeamNic (add-, get-, set-, remove) • NetLbfoTeamMember(add-, get-, set-, remove)
NIC Teaming DEMO
SMB történeti áttekintés • SMB 1.0 a korai Windows hálózatok óta • Common Internet File System (CIFS) • Nincs jelentős változás Windows Server 2008 / Vista -ig • SMB 2.0 • Skálázkatóság (emelkedett a nyitott file-ok és hirdetett Share-ek száma és a pufferméret) • SMB 2.1 • Windows Server 2008 R2 / Windows 7 („file locking” változások) • SMB 2.23.0 • Windows Server 2012 / Windows 8 • Jelentős változások, új képességek
SMB 3.0 újdonságok • SMB TransparentFailover • File Server folyamatos rendelkezésre állással • SMB Scale-Out • Kiskálázott File kiszolgáló • Scale Out File Servers (SOFS) • Új ClusterResource, ClusteredSharedVolumes V2 • SMB Direct • RemoteDirectMemory Access (RDMA) hálózati adatelérés • SMB MultiChannel • Több adatcsatorna és teljesítmény optimalizálás • SMB Encryption • SMB forgalom titkosítása • VSS Supportfor SMB Shares • VSS lehetőség hálózati megosztáson
SMB Multichannel • Teljes sávszélesség-allokáció • Aggregáció több NIC között • Több CPU core használata RSS (ReceiveSideScaling) képes NIC esetén • Automaitikusfailover • A NIC teaming támogatott, de nem szükséges • Automatikus konfiguráció • A többszörös hálózati utak automatikus észlelése
SMB Multichannel variációk – 1/2 • 1 Session MC nélkül • Nincs failover • A teljes 10Gb nincs kihasználva • Csak 1 CPU core terhelt • 1 Session MC használatával • Nincs failover • A teljes 10Gb kihasználható • Több CPU core-t terhel a forgalom
SMB Multichannel variációk – 2/2 • 1 Session MC használatával • Van failover • Több csatorna együttes sávszélessége • Több CPU core terhelt • Több NIC működik • 1 Session MC nélkül • Nincs failover • Nem teljes a csatornák kihasználtsága • Csak 1 CPU core terhelt • Csak 1 NIC működik
NIC Teaming és SMB Multichannel • 1 Session, Team+MC • Automatikus failover • Kombinált sávszélesség • TöbbCPUcore terhelt • 1 Session, Team, MC nélkül • Automatikus failover • A teljes sávszélesség nincs kihasználva • Csak 1 CPU core terhelt
Mikor nem használható? 1/2 • Ha a sávszélesség egy session-ben is kihasználható
Mikor nem használható? 2/2 • Különböző sebességű és típusú kapcsolatokkal
SMB Multichannel - Konklúzió • A Multichannel alapértelmezésként be van kapcsolva • PowerShell> Set-SmbClientConfiguration –EnableMultiChannel $false/$true • PowerShell> Set-SmbServerConfiguration–EnableMultiChannel $false/$true • A NIC Teaming segít gyorsabb failover igény esetén • A NIC Teaming hasznos nem-SMB forgalom esetén • A NIC Teaming nem kompatibilis RDMA használatakor
Hálózatvirtualizáció Safranka Mátyás Architect Microsoft Magyarország
Adatközpont evolúció Felhő Publikus Privát Hibrid Tradícionális adatközpont dedikált kiszolgálókkal Kiszogláló virtualizáció az adatközpontban Kiszolgálók Hatékonyság növekedése Költségek Rugalmasság
Közösen használt adatközpontok Woodgrove Bank Pénzügy Privát felhő Publikus felhő • Biztonsági izoláció • Dinamikus szolgáltatás elhelyezés • QoSés erőforrás használat mérése Több szervezeti egység által közösen haszált infrastruktúra Több ügyfél által közösen használt infrastruktúa Közösen használt adatközpontok Blueyonder Airlines Értékesítés
Adatközpont kihasználtság Tipikus: Töredezett Ideális: Konszolidált
A VLAN a virtualizált környezetek esetében Aggregátor Switch-ek VLAN tag-ek ToR ToR VMs A topológia megköti a gép elhelyezéseket és az éles switch-ek átkonfigurálását igényli
Hyper-V hálózat virtualizáció Kék Network Piros Network Kék VM Piros VM Virtualizáció Fizikai kiszolgáló Fizikai Hálózat Kiszolgáló virtualizáció • Több virtuális gép futtatása egy fizikai eszközön • Minden VM-nek úgy tűnik mint ha fizikai vason lenne Hyper-V Network Virtualization • Több virtuális hálózat futtatása egy fizikai hálózaton • Minden virtuális hálózatnak úgy tűnik, mintha fizikai hálózaton lenne
Virtualizáljunk hálózatokat Szolgáltató címtartománya (SZC) Adatközpont hálózat System Center Kékszervezet Kék 10.0.0.5 10.0.0.7 Virtualization Policy 192.168.4.11 192.168.4.22 Host 1 Host 2 Piroscég Piros 10.0.0.5 10.0.0.7 Kék 1 Piros1 Kék 2 Piros2 FC SZC 10.0.0.5 10.0.0.5 10.0.0.7 10.0.0.7 Felhasználó címtartománya (FC)
NVGRE 192.168.2.22 192.168.5.55 GRE Key 5001 MAC 10.0.0.5 10.0.0.7 192.168.2.22 192.168.5.55 GRE Key 6001 MAC 10.0.0.5 10.0.0.7 192.168.2.22 192.168.5.55 Eltérő alhálózat 10.0.0.5 10.0.0.5 10.0.0.7 10.0.0.7 10.0.0.5 10.0.0.7 10.0.0.5 10.0.0.7 10.0.0.5 10.0.0.7 10.0.0.5 10.0.0.7
Hálózat virtualizáció architektúra Data Center Policy • Blue • VM1: MAC1, CA1, PA1 • VM2: MAC2, CA2, PA3 • VM3: MAC3, CA3, PA5 • … A hálózat virtualizáció transzparens a virtuális gép számára • Red • VM1: MACX, CA1, PA2 • VM2: MACY, CA2, PA4 • VM3: MACZ, CA3, PA6 • … VM1 VM1 CA1 Windows Server 2012 CA1 Management Live Migration Hyper-V Switch SystemCenterHost Agent Cluster Storage System Center VSID ACL Isolation Switch Extensions NIC NIC Network Virtualization IP Virtualization Policy Enforcement Routing Host Network Stack PA1