SMB MultiChannel

Report
Székács András
[email protected]
Oktató
Training360 Kft
Windows
Server 2012
Hálózati
újdonságok
Windows Server 2012 Hálózati újdonságok
•
•
•
•
•
•
•
•
•
•
•
•
802.1X Authentikáció (Vezetékes és vezeték nélküli elérés) változása, EAP-TTLS
BranchCache változása (biztonság, teljesítmény)
Data Center Bridging (Konvergált adatközponti infrastruktúra)
DHCP Failover és Load Balancing
DNS változása (DNSSec, Kliens és szerver optimizálás)
Hyper-V Network Virtualzation (SCVMM 2012 sp1)
Hyper-V Virtual Switch változások (sok új funkció konfigurálható PowerShell-ben)
IP Address Management (IPAM)
Network Policy and Access Services változások (PowerShell)
NIC Teaming (Hibatűrés és aggregáció)
Quality of Services (QoS) (Policy based és Hyper-V QoS)
RRAS és Directaccess Unified role kombináció
• SMB 3.0
DHCP Failover és Load Balancing
• A DHCP szolgáltatás alap problémája
• Hibatűrő, magas rendelkezésre állású DHCP szerviz
• Kiskálázható szolgáltatás (igen)nagyvállalati környezetben
• Windows 2008 R2 megoldás
• Failover Cluster
• Split Scope DHCP
• Windows Server 2012
• DHCP Failover és LB
DHCP Failover architektúra
• Hot standby mód
• Meleg tartalék
• Több modell
• Terhelésmegosztó mód
• Több scope is elhelyezhető
a telephelyen elosztott kiszolgálókon
DHCP Failover architektúra
• Miért jobb, mint a 70/30 szabály?
• Ugyanaz a Scope mindkét kiszolgálón
• Ugyanazok a bérletregisztrációk
• Kiszolgálóhiba esetén nem igényel beavatkozást
• Miért jobb, mint a Failover Cluster alapú megoldás?
• Nem kell hozzá Failover Cluster
• Terheléselosztó és hibatűrő megoldás egyben
• Támogatja az IPAM?
• Igen, az IPAM konfigurációba replikált dhcp kiszolgálók is felvehetők
DHCP Failover architektúra
• Load Sharing
• RFC3074
• Kliens MAC hash alapján
• 50-50% alpértellmezés
• Maximum Client Lead Time
• Failover esetén az ideiglenes IP élettartama, valamint
• A failover kiszolgáló mikor veszi át a kontrollt a teljes scope felett
• Reserve Address %
• Forró tartalék a standby kiszolgáló számára
• (Auto)State Switchover Interval
• 10 perc időtartalék a kommunikáció ideiglenes megszakadása esetén
• Message Authentication
DHCP Failover
architektúra
DEMO
NIC Teaming
•
•
•
•
Áttekintés
Konfigurációs beállítások
A NIC Teaming menedzsmentje
Demo
NIC Teaming - Áttekintés
• Mi a NIC Teaming?
• NIC Bonding, Load Balancing and Failover (LBFO), NIC Aggregation, stb…
• Két, vagy több hálózati adapter kombinált kapcsolata
• Egyszerű adapterként „látszik” az applikációk felé
• Hibatűrő és adatkapcsolati sebességet növelő megoldás
• Per-VLAN interfészek a VLAN szegregációhoz
A Microsoft NIC Teaming előnyei
• Gyártótól független
• Teljes Windows integráció
• GUI, PoweShell, Hyper-V
• Az igényekhez igazítható konfiguráció
• Egyszerű kezelőfelület
• Több kiszolgáló konfigurációja egy felületről
Team kapcsolati módok
• „Switch independent”
• Nincs szükség extra konfigurációra a fizikai switch szintjén
• Védelem switch hiba esetén
• Switch dependent
• Konfiguráció a fizikai switch szintjén
• Fejlettebb teaming variációk
Terhelés elosztási módok
• „Address hash”
• Hash 4 értékből (alapértelmezés)
• L2, L3 azonosítók alapján
• Hash 2 értékből L2 azonosítók alapján
• MAC hash
• Hyper-V port
• Hash a Hyper-V port azonosító alapján.
(VM alapú elosztás)
Team interface-ek
• „Default mode”
• Minden forgalmat továbbít
• Ha van mellette VLAN módú, az adott VLAN forgalmát nem
• Hyper-V switch felé a javasolt megoldás
• VLAN mode
• Csak az adott VLAN forgalmát továbbítja
• VLAN virtuális interface-ek kialakításához
• Egy NIC esetén is használható
Team maximumok, szabályok
• 32 NIC maximum
• Virtuális gépben max. 2 NIC
• Team a Team-ben
• Megvalósítható de NEM TÁMOGATOTT
• WiFi, Infiniband nem támogatott
• Különböző sebességű NIC-ek
• Nem támogatott
Team Virtuális gépben
• Switch Independent, Address hash mód
• max. 2 NIC
• Hyper-V szintű konfigurációt igényel
Team menedzsment felületek
• GUI
• PowerShell cmdlet-eket használ
• PowerShell
• NetLbfoTeam (new-, get-, set-, rename-, remove-)
• NetLbfoTeamNic (add-, get-, set-, remove)
• NetLbfoTeamMember (add-, get-, set-, remove)
NIC Teaming
DEMO
SMB történeti áttekintés
• SMB 1.0 a korai Windows hálózatok óta
• Common Internet File System (CIFS)
• Nincs jelentős változás Windows Server 2008 / Vista -ig
• SMB 2.0
• Skálázkatóság (emelkedett a nyitott file-ok és hirdetett Share-ek száma és a pufferméret)
• SMB 2.1
• Windows Server 2008 R2 / Windows 7 („file locking” változások)
• SMB 2.2 3.0
• Windows Server 2012 / Windows 8
• Jelentős változások, új képességek
SMB 3.0 újdonságok
• SMB Transparent Failover
• File Server folyamatos rendelkezésre állással
• SMB Scale-Out
• Kiskálázott File kiszolgáló
• Scale Out File Servers (SOFS)
• Új Cluster Resource, Clustered Shared Volumes V2
• SMB Direct
• Remote Direct Memory Access (RDMA) hálózati adatelérés
• SMB MultiChannel
• Több adatcsatorna és teljesítmény optimalizálás
• SMB Encryption
• SMB forgalom titkosítása
• VSS Support for SMB Shares
• VSS lehetőség hálózati megosztáson
SMB Multichannel
• Teljes sávszélesség-
allokáció
• Aggregáció több NIC között
• Több CPU core használata RSS (Receive
Side Scaling) képes NIC esetén
• Automaitikus failover
• A NIC teaming támogatott, de nem
szükséges
• Automatikus konfiguráció
• A többszörös hálózati utak automatikus
észlelése
SMB Multichannel variációk – 1/2
• 1 Session MC nélkül
• Nincs failover
• A teljes 10Gb nincs kihasználva
• Csak 1 CPU core terhelt
• 1 Session MC használatával
• Nincs failover
• A teljes 10Gb kihasználható
• Több CPU core-t terhel a forgalom
SMB Multichannel variációk – 2/2
• 1 Session MC nélkül
•
•
•
•
Nincs failover
Nem teljes a csatornák kihasználtsága
Csak 1 CPU core terhelt
Csak 1 NIC működik
• 1 Session MC használatával
•
•
•
•
Van failover
Több csatorna együttes sávszélessége
Több CPU core terhelt
Több NIC működik
NIC Teaming és SMB Multichannel
• 1 Session, Team, MC nélkül
• Automatikus failover
• A teljes sávszélesség nincs kihasználva
• Csak 1 CPU core terhelt
• 1 Session, Team+MC
• Automatikus failover
• Kombinált sávszélesség
• TöbbCPU core terhelt
SMB Multichannel teljesítmény példa
Mikor nem használható? 1/2
• Ha a sávszélesség egy session-ben is kihasználható
Mikor nem használható? 2/2
• Különböző sebességű és típusú kapcsolatokkal
SMB Multichannel - Konklúzió
• A Multichannel alapértelmezésként be van kapcsolva
• PowerShell> Set-SmbClientConfiguration –EnableMultiChannel $false/$true
• PowerShell> Set-SmbServerConfiguration –EnableMultiChannel $false/$true
• A NIC Teaming segít gyorsabb failover igény esetén
• A NIC Teaming hasznos nem-SMB forgalom esetén
• A NIC Teaming nem kompatibilis RDMA használatakor
Adatközpont evolúció
Kiszolgálók
Tradícionális
adatközpont dedikált
kiszolgálókkal
Kiszogláló
virtualizáció az
adatközpontban
Hatékonyság növekedése
Költségek
Rugalmasság
Felhő
Publikus
Privát
Hibrid
Közösen használt adatközpontok
Privát felhő
•
Több szervezeti egység által •
közösen haszált infrastruktúra •
Biztonsági izoláció
Dinamikus szolgáltatás elhelyezés
QoS és erőforrás használat mérése
Publikus felhő
Több ügyfél által
közösen használt infrastruktúa
Közösen használt
adatközpontok
Pénzügy
Értékesítés
Blueyonder Airlines
Woodgrove Bank
Adatközpont kihasználtság
Tipikus: Töredezett
Ideális: Konszolidált
A VLAN a virtualizált környezetek esetében
Aggregátor
Switch-ek
VLAN tag-ek
ToR
ToR
VMs
A topológia megköti a gép elhelyezéseket és az éles
switch-ek átkonfigurálását igényli
Hyper-V hálózat virtualizáció
Kék VM
Kék Network
Piros VM
Piros Network
Virtualizáció
Fizikai
kiszolgáló
Kiszolgáló virtualizáció
• Több virtuális gép futtatása egy fizikai
eszközön
• Minden VM-nek úgy tűnik mint ha
fizikai vason lenne
Fizikai
Hálózat
Hyper-V Network Virtualization
• Több virtuális hálózat futtatása egy
fizikai hálózaton
• Minden virtuális hálózatnak úgy tűnik,
mintha fizikai hálózaton lenne
Virtualizáljunk hálózatokat
Szolgáltató címtartománya (SZC)
Kék
szervezet
Piros
cég
System Center
Kék
10.0.0.5
10.0.0.7
Piros
10.0.0.5
10.0.0.7
Adatközpont hálózat
Virtualization Policy
10.0.0.5
10.0.0.7
10.0.0.5
10.0.0.7
FC
Kék
192.168.4.11
192.168.4.22
Piros
192.168.4.11
192.168.4.22
SZC
192.168.4.11
192.168.4.22
Host 1
Host 2
Kék
10.0.0.5 192.168.4.11
10.0.0.7 192.168.4.22
Kék
10.0.0.5 192.168.4.11
10.0.0.7 192.168.4.22
Piros
10.0.0.5 192.168.4.11
10.0.0.7 192.168.4.22
Piros
10.0.0.5 192.168.4.11
10.0.0.7 192.168.4.22
Kék
1
Piros
1
Kék
2
Piros
2
10.0.0.5
10.0.0.5
10.0.0.7
10.0.0.7
Felhasználó címtartománya (FC)
NVGRE
192.168.2.22
GRE Key
192.168.5.55
5001
MAC
10.0.0.5 
10.0.0.7
192.168.2.22
GRE Key
192.168.5.55
6001
MAC
10.0.0.5 
10.0.0.7
192.168.2.22
10.0.0.5
10.0.0.5
10.0.0.7
10.0.0.5
10.0.0.5
10.0.0.7
192.168.5.55
10.0.0.7
10.0.0.5 
10.0.0.7
10.0.0.7
10.0.0.5
10.0.0.7
Hálózat virtualizáció architektúra
A hálózat virtualizáció transzparens a virtuális gép
számára
VM1
Windows Server 2012
Management
Live Migration
Cluster
Storage
CA1
VM1
CA1
Hyper-V Switch
VSID ACL Isolation
Switch Extensions
Network Virtualization
Host Network Stack
IP Virtualization
Policy Enforcement
Routing
PA1
NIC
NIC
Data Center Policy
System
Center
Host
Agent
System
Center
Blue
•
•
•
•
Red
•
•
•
•
VM1: MAC1, CA1, PA1
VM2: MAC2, CA2, PA3
VM3: MAC3, CA3, PA5
…
VM1: MACX, CA1, PA2
VM2: MACY, CA2, PA4
VM3: MACZ, CA3, PA6
…
Hálózat virtualizációban partnereink

similar documents