Zadejte hledaný výraz...
Jakub Glos
Webtrh.cz
Vývoj webových stránek na WordPressu a proklientský přístup pro freelancery
Třídenní infromacemi nabitý prezenční + online kurz v Praze od Webtrhu pouze za 2 871 Kč
Více informací

Dátové centrum Facebooku

Erik
verified
rating uzivatele
(2 hodnocení)
30. 9. 2016 10:46:18
FOTO: Pozrite sa, ako to vyzerá v gigantickom dátovom centre sociálnej siete Facebook
FOTO: Pozrite sa, ako to vyzerá v gigantickom dátovom centre sociálnej siete…
V tomto dátovom centre pracuje 150 ľudí. Sály sú však po väčšinou prázdne. Vďaka inteligentnému rozloženiu stačí, ak je k dispozícii jeden technik pre 25 tisíc serverov.
30. 9. 2016 10:46:18
https://webtrh.cz/diskuse/datove-centrum-facebooku/#reply1227252
krnac
verified
rating uzivatele
(14 hodnocení)
30. 9. 2016 11:04:26
vůbec tomu nerozumím, ale docela by mě zajímalo jak je tam řešená sít, to asi nebude běžná optika, jaké jsou tam rychlosti připojení atd.. pěkné téma.
30. 9. 2016 11:04:26
https://webtrh.cz/diskuse/datove-centrum-facebooku/#reply1227251
TomasX
verified
rating uzivatele
(4 hodnocení)
30. 9. 2016 12:12:52
krnac: podle fotek tam mají jen optiku. Síť v takovýhle rozměrech samozřejmě není běžná a technicky bude velice obtížná. Není to ale nemožné, úzkým hrdlem jsou agregace linek, nepotřebuji třeba, aby všechny servery byly připojený do internetu, často stačí, když celý rack se navenek tváří jako jedna velká jednotka. Stejně tak často nepotřebuji vůbec komunikaci mezi servery routovat a stačí mi jen řešit L1, L2 vrstvy. Stejně tak na sebe nemusí všechny servery vidět nebo nepotřebují všechny komunikovat s dalšími datacentry atd.
Typuji, že používají převážně 10 GbE a 40 GbE linky mezi servery, ono agregovat a boundovat 1GbE linky je energeticky náročné a cenově se tolik neušetří. Tady jeden server hraje minimální roli a široké pásmo pro konektivitu je velice důležité.
30. 9. 2016 12:12:52
https://webtrh.cz/diskuse/datove-centrum-facebooku/#reply1227250
krnac
verified
rating uzivatele
(14 hodnocení)
30. 9. 2016 12:48:20
děkuji za odpověď, stejně si to nedovedu představit, jak je možné že tam přehrává video tolika lidí najednou, třeba takový YouTube, to také musí být nářez, omlouvám se za neznalost. Nějak si stále nedokáži představit jak jedno video přehrává třeba mio. Lidí, to přeci nemůže skrze ten drát ani projet. Jak řeší třeba takové utoky, není přeci možné aby žádné nebyly. Ještě jednou se omlouvám za blbé dotazy, ale všude okolo sliším jak někdo provedl utok na nějakého poskytovatele a ten má výpadek, jak je možné že takovéto společnosti utoky nemají, nechápu to, ale vůbec.
30. 9. 2016 12:48:20
https://webtrh.cz/diskuse/datove-centrum-facebooku/#reply1227249
TomasX
verified
rating uzivatele
(4 hodnocení)
30. 9. 2016 13:02:39
jestli jeden server zvládne poskytovat 100 videí pro přehrávání, potřebují mít 10 000 serverů pro 1m diváků. Provoz neteče přes jeden kabel. To rozdělení již zajišťují peeringové uzly a routování v internetu.
Základem je jednoduchá věc, jedna IP adresa nevede do jednoho serveru, ale každý uzel (poskytovatel internetu, peering, datové centrum atd.) jí směřuje do jiného datacentra podle aktuálního využití peeringových (páteřních) sítí a tam si jí opět převezmě nějaký server, který vyřídí požadavek. Důležité je, že nesmíš přemýšlet o tom, že všechna data, spojení, návštěvníky máš na jedné hromadě, ale že těch hromad jsou tisíce.
Ty spustíš přehrávání videa, tvůj poskytovatel internetu pošle požadavek do nejbližšího a nejdostupnějšího datacentra, tam si ho některý ze serverů převezme a začne ti posílat zpátky video. Routovací trasy do kterého datacentra má tvůj poskytovatel internetu poslat tvůj požadavek na video se mění dynamicky podle vytížení páteřních linek. Jakmile požadavek dorazí do datacentra, to rozhodne kterému serveru ho dá k vyřízení podle toho, který server má třeba video dostupné nebo který není tak vytížený. Může se stát, že dané video není v tomhle datacentru k dispozici, v tom případě si server požádá o video jiné datacentrum a bude ti ho dávat trochu zpožděně a zároveň si ho třeba uloží i k sobě, kdyby někdo další ho chtěl také. Tím se optimalizují toky, aby se vše třeba nemuselo stahovat z USA (k tomu přesně je i tohle datacentrum, slouží jak evropská cache). Třeba youtube má domluveno s O2 a "pár" serverů má schovaných u něho, aby dokázalo u nás nejvíce žádaná videa poskytovat rovnou od operátora a nemuselo je tahat někde z irska.
30. 9. 2016 13:02:39
https://webtrh.cz/diskuse/datove-centrum-facebooku/#reply1227248
Pro odpověď se přihlašte.
Přihlásit