Windows Server 2012 Hálózati újdonságok Székács András andras.szekacs@training360.com Oktató Training360 Kft Windows Server 2012 Hálózati újdonságok
Hálózatok - hibatűrés és terhelésmegosztás DHCP Failover és Load Balancing NIC Teaming SMB Multichannel
Windows Server 2012 Hálózati újdonságok 802.1X Authentikáció (Vezetékes és vezeték nélküli elérés) változása, EAP-TTLS BranchCache változása (biztonság, teljesítmény) Data Center Bridging (Konvergált adatközponti infrastruktúra) DHCP Failover és Load Balancing DNS változása (DNSSec, Kliens és szerver optimizálás) Hyper-V Network Virtualzation (SCVMM 2012 sp1) Hyper-V Virtual Switch változások (sok új funkció konfigurálható PowerShell-ben) IP Address Management (IPAM) Network Policy and Access Services változások (PowerShell) NIC Teaming (Hibatűrés és aggregáció) Quality of Services (QoS) (Policy based és Hyper-V QoS) RRAS és Directaccess Unified role kombináció SMB 3.0
DHCP Failover és Load Balancing
DHCP Failover és Load Balancing A DHCP szolgáltatás alap problémája Hibatűrő, magas rendelkezésre állású DHCP szerviz Kiskálázható szolgáltatás (igen)nagyvállalati környezetben Windows 2008 R2 megoldás Failover Cluster Split Scope DHCP Windows Server 2012 DHCP Failover és LB
DHCP Failover architektúra Hot standby mód Meleg tartalék Több modell Terhelésmegosztó mód Több scope is elhelyezhető a telephelyen elosztott kiszolgálókon
DHCP Failover architektúra Miért jobb, mint a 70/30 szabály? Ugyanaz a Scope mindkét kiszolgálón Ugyanazok a bérletregisztrációk Kiszolgálóhiba esetén nem igényel beavatkozást Miért jobb, mint a Failover Cluster alapú megoldás? Nem kell hozzá Failover Cluster Terheléselosztó és hibatűrő megoldás egyben Támogatja az IPAM? Igen, az IPAM konfigurációba replikált dhcp kiszolgálók is felvehetők
DHCP Failover architektúra Load Sharing RFC3074 Kliens MAC hash alapján 50-50% alpértellmezés Maximum Client Lead Time Failover esetén az ideiglenes IP élettartama, valamint A failover kiszolgáló mikor veszi át a kontrollt a teljes scope felett Reserve Address % Forró tartalék a standby kiszolgáló számára (Auto)State Switchover Interval 10 perc időtartalék a kommunikáció ideiglenes megszakadása esetén Message Authentication
DHCP Failover architektúra DEMO
NIC Teaming
NIC Teaming Áttekintés Konfigurációs beállítások A NIC Teaming menedzsmentje Demo
NIC Teaming - Áttekintés Mi a NIC Teaming? NIC Bonding, Load Balancing and Failover (LBFO), NIC Aggregation, stb… Két, vagy több hálózati adapter kombinált kapcsolata Egyszerű adapterként „látszik” az applikációk felé Hibatűrő és adatkapcsolati sebességet növelő megoldás Per-VLAN interfészek a VLAN szegregációhoz
A Microsoft NIC Teaming előnyei Gyártótól független Teljes Windows integráció GUI, PoweShell, Hyper-V Az igényekhez igazítható konfiguráció Egyszerű kezelőfelület Több kiszolgáló konfigurációja egy felületről
Team kapcsolati módok „Switch independent” Switch dependent Nincs szükség extra konfigurációra a fizikai switch szintjén Védelem switch hiba esetén Switch dependent Konfiguráció a fizikai switch szintjén Fejlettebb teaming variációk
Terhelés elosztási módok „Address hash” Hash 4 értékből (alapértelmezés) L2, L3 azonosítók alapján Hash 2 értékből L2 azonosítók alapján MAC hash Hyper-V port Hash a Hyper-V port azonosító alapján. (VM alapú elosztás)
Team interface-ek „Default mode” VLAN mode Minden forgalmat továbbít Ha van mellette VLAN módú, az adott VLAN forgalmát nem Hyper-V switch felé a javasolt megoldás VLAN mode Csak az adott VLAN forgalmát továbbítja VLAN virtuális interface-ek kialakításához Egy NIC esetén is használható
Team maximumok, szabályok 32 NIC maximum Virtuális gépben max. 2 NIC Team a Team-ben Megvalósítható de NEM TÁMOGATOTT WiFi, Infiniband nem támogatott Különböző sebességű NIC-ek Nem támogatott
Team Virtuális gépben Switch Independent, Address hash mód max. 2 NIC Hyper-V szintű konfigurációt igényel
Team menedzsment felületek GUI PowerShell cmdlet-eket használ PowerShell NetLbfoTeam (new-, get-, set-, rename-, remove-) NetLbfoTeamNic (add-, get-, set-, remove) NetLbfoTeamMember (add-, get-, set-, remove)
NIC Teaming DEMO
SMB Multichannel
SMB történeti áttekintés SMB 1.0 a korai Windows hálózatok óta Common Internet File System (CIFS) Nincs jelentős változás Windows Server 2008 / Vista -ig SMB 2.0 Skálázkatóság (emelkedett a nyitott file-ok és hirdetett Share-ek száma és a pufferméret) SMB 2.1 Windows Server 2008 R2 / Windows 7 („file locking” változások) SMB 2.2 3.0 Windows Server 2012 / Windows 8 Jelentős változások, új képességek
SMB 3.0 újdonságok SMB Transparent Failover SMB Scale-Out SMB Direct File Server folyamatos rendelkezésre állással SMB Scale-Out Kiskálázott File kiszolgáló Scale Out File Servers (SOFS) Új Cluster Resource, Clustered Shared Volumes V2 SMB Direct Remote Direct Memory Access (RDMA) hálózati adatelérés SMB MultiChannel Több adatcsatorna és teljesítmény optimalizálás SMB Encryption SMB forgalom titkosítása VSS Support for SMB Shares VSS lehetőség hálózati megosztáson
SMB Multichannel Teljes sávszélesség-allokáció Automaitikus failover Aggregáció több NIC között Több CPU core használata RSS (Receive Side Scaling) képes NIC esetén Automaitikus failover A NIC teaming támogatott, de nem szükséges Automatikus konfiguráció A többszörös hálózati utak automatikus észlelése
SMB Multichannel variációk – 1/2 1 Session MC nélkül Nincs failover A teljes 10Gb nincs kihasználva Csak 1 CPU core terhelt 1 Session MC használatával Nincs failover A teljes 10Gb kihasználható Több CPU core-t terhel a forgalom
SMB Multichannel variációk – 2/2 1 Session MC nélkül Nincs failover Nem teljes a csatornák kihasználtsága Csak 1 CPU core terhelt Csak 1 NIC működik 1 Session MC használatával Van failover Több csatorna együttes sávszélessége Több CPU core terhelt Több NIC működik
NIC Teaming és SMB Multichannel 1 Session, Team+MC Automatikus failover Kombinált sávszélesség TöbbCPU core terhelt 1 Session, Team, MC nélkül Automatikus failover A teljes sávszélesség nincs kihasználva Csak 1 CPU core terhelt
SMB Multichannel teljesítmény példa
Mikor nem használható? 1/2 Ha a sávszélesség egy session-ben is kihasználható
Mikor nem használható? 2/2 Különböző sebességű és típusú kapcsolatokkal
SMB Multichannel - Konklúzió A Multichannel alapértelmezésként be van kapcsolva PowerShell> Set-SmbClientConfiguration –EnableMultiChannel $false/$true PowerShell> Set-SmbServerConfiguration –EnableMultiChannel $false/$true A NIC Teaming segít gyorsabb failover igény esetén A NIC Teaming hasznos nem-SMB forgalom esetén A NIC Teaming nem kompatibilis RDMA használatakor
Hálózat virtualizáció Safranka Mátyás Architect Microsoft Magyarország
Adatközpont evolúció Hatékonyság növekedése Felhő Költségek Publikus Privát Hibrid Tradícionális adatközpont dedikált kiszolgálókkal Kiszogláló virtualizáció az adatközpontban Kiszolgálók Hatékonyság növekedése Költségek Rugalmasság
Közösen használt adatközpontok Privát felhő Biztonsági izoláció Dinamikus szolgáltatás elhelyezés QoS és erőforrás használat mérése Publikus felhő Több szervezeti egység által közösen haszált infrastruktúra Több ügyfél által közösen használt infrastruktúa Közösen használt adatközpontok Pénzügy Értékesítés Blueyonder Airlines Woodgrove Bank
Adatközpont kihasználtság Tipikus: Töredezett Ideális: Konszolidált
A VLAN a virtualizált környezetek esetében Aggregátor Switch-ek VLAN tag-ek ToR ToR VMs A topológia megköti a gép elhelyezéseket és az éles switch-ek átkonfigurálását igényli
Hyper-V hálózat virtualizáció Kék VM Piros VM Kék Network Piros Network Virtualizáció Fizikai kiszolgáló Fizikai Hálózat Kiszolgáló virtualizáció Több virtuális gép futtatása egy fizikai eszközön Minden VM-nek úgy tűnik mint ha fizikai vason lenne Hyper-V Network Virtualization Több virtuális hálózat futtatása egy fizikai hálózaton Minden virtuális hálózatnak úgy tűnik, mintha fizikai hálózaton lenne
Virtualizáljunk hálózatokat Szolgáltató címtartománya (SZC) 192.168.4.22 192.168.4.11 Virtualization Policy System Center Adatközpont hálózat Host 1 Host 2 Kék szervezet Kék 10.0.0.5 10.0.0.7 Kék 10.0.0.5 192.168.4.11 10.0.0.7 192.168.4.22 Kék 10.0.0.5 192.168.4.11 10.0.0.7 192.168.4.22 Kék 10.0.0.5 192.168.4.11 10.0.0.7 192.168.4.22 Piros cég Piros 10.0.0.5 192.168.4.11 10.0.0.7 192.168.4.22 Piros 10.0.0.5 10.0.0.7 Piros 10.0.0.5 192.168.4.11 10.0.0.7 192.168.4.22 Piros 10.0.0.5 192.168.4.11 10.0.0.7 192.168.4.22 Felhasználó címtartománya (FC) Piros2 Kék 2 10.0.0.5 Piros1 1 10.0.0.7 FC SZC
NVGRE Eltérő alhálózat 192.168.2.22 192.168.5.55 10.0.0.5 10.0.0.7 GRE Key 5001 MAC 10.0.0.5 10.0.0.7 GRE Key 6001 MAC 192.168.2.22 192.168.5.55 Eltérő alhálózat 192.168.2.22 192.168.5.55 10.0.0.5 10.0.0.5 10.0.0.7 10.0.0.7 10.0.0.5 10.0.0.7 10.0.0.5 10.0.0.7 10.0.0.5 10.0.0.7 10.0.0.5 10.0.0.7
Hálózat virtualizáció architektúra A hálózat virtualizáció transzparens a virtuális gép számára VM1 VM1 Windows Server 2012 Management Live Migration CA1 CA1 Blue VM1: MAC1, CA1, PA1 VM2: MAC2, CA2, PA3 VM3: MAC3, CA3, PA5 … Red VM1: MACX, CA1, PA2 VM2: MACY, CA2, PA4 VM3: MACZ, CA3, PA6 Data Center Policy Hyper-V Switch System Center Host Agent Cluster Storage System Center VSID ACL Isolation Switch Extensions Network Virtualization IP Virtualization Policy Enforcement Routing Host Network Stack PA1 NIC NIC
Hálózat virtualizációban partnereink