Například v již zmiňovaném článku Content Delivery Networks – Internet zítřka jsem ukazoval, kolik provozu vygeneruje farma jedné CDN (Content Delivery Network) do relativně malé a internetově zaostalé České republiky (ČR) (v září 2001 to bylo kolem 1 Mbit/s, v dubnu 2002 už 10 Mbit/s). Současný stav je kolem 900 Mbit/s, dosahovaných v běžný pracovní den nejméně po dobu tří až čtyř hodin (část ISP v ČR je už obsluhována jinými farmami).
CDN se staly běžným systémem pro distribuci dat. Pokud vezmeme jen počítačovou a mediální branži, služeb CDN používají například BBC, Terra Lycos, Yahoo, Microsoft, MTV, Apple, IBM, NTT, Red Hat, MTV nebo Reuters. Tedy společnosti, jejichž byznys je založen na dopravě obsahu k uživateli. Všechny CDN, se kterými jsem se potkal, operují na globálním základě – tj. obsluhují celý Internet a jejich systémy a obchodní politika je oproštěna od lokálních vlivů. Hodí se tedy pro zákazníky, kteří mají globální ambice.
Ale potřebujeme takový systém zaměřený na menší země? V Nizozemí je takový systém koordinován místní akademickou sítí SURFNet a je používán v případě celonárodních akcí (typu volby) nebo v případě živelních katastrof. ČR je sice internetově na nižší úrovni než Nizozemí (tamním propojovacím uzlem AMS-IX proteče cca desetkrát tolik dat, co českým NIX.CZ), nicméně matematika je neúprosná.
Mějme jeden distribuční bod pro živé video (například televize přenášející zpravodajství z živelní katastrofy), který pracuje o rozlišení CIF (352×288 – lepší VHS) a datovým proudem vyžadujícím 512 kbit/s. Vzhledem k tomu, že používání skupinového adresování/vysílání (multicastu) není v Internetu příliš rozšířeno (a ani v budoucnosti se masové rozšíření nedá čekat), potřebujeme na straně distribučního serveru onen půlmegabit na každého uživatele.
Na rozdíl od webu není živý přenos nikterak náročný na výpočetní zdroje. Odbavit „gigabit provozu“ dokáže běžný server, který disponuje dostatečně rychlou sběrnicí. Důvodem je fakt, že celá funkce proudovacího serveru spočívá v replikaci jednoho proudu dat přijatých síťovou kartou z kodéru do vícero proudů dat k uživatelům. V případě Video on Demand je situace složitější, nicméně i tam jde o sekvenční čtení velkých souborů, se kterými si cache diskových polí relativně snadno poradí.
Problémem je síťová kapacita. Podívejme se nejdříve na infrastrukturu Internetu v ČR. Máme tu jednoho operátora, který pracuje s kapacitami 10 Gbit/s (akademická síť CESNET2). Pak je tu několik společností, která pracují s kapacitami 2,5 Gbit/s (například Český Telecom nebo GTS Novera). Pak je tu hodně operátorů, kteří pracují s gigabitovým Ethernetem (nabízí skvělý poměr cena/výkon). České propojovací centrum NIX.CZ má páteřní infrastrukturu postavenou na 10 Gbit/s spojích, nicméně až na síť CESNET2 mají operátoři přípojky o kapacitě 1 Gbit/s (v případě GTS Novery, Českého Telecomu a UPC dvě+dvě záložní). Prakticky až na CESNET2 existuje běžná rezerva někde v kapacitě 1 Gbit/s. Upgrade páteřní sítě na 10 Gbit/s je technicky a finančně náročný proces a je otázkou, jak dlouho bude trvat.
Pokud si mohu dovolit interpretovat předchozí odstavec, máme v ČR infrastrukturu, která umožňuje připojení serveru k páteři ISP kapacitou 1 Gbit/s. Dejme to dohromady s půlmegabitem na uživatele a máme limit – dva tisíce současně sledujících uživatelů. Střízlivý odhad autora o českém broadbandovém trhu našeptává cosi o 400.000 přípojkách. Takže tu máme trh o 400.000 přípojkách a technické možnosti pro 2000 uživatelů na jeden zdroj. Už jen pohled na ta čísla není úplně OK.
Řekněme, že projekty Broadband Fóra (a další faktory) nastartují růst broadbandu v ČR tak, že příští rok budeme mít dva miliony přípojek. Může se pak stát, že uživatelé budou nedostupností broadbandového obsahu znechuceni do té míry, že budou používat broadband jako neomezené komutované připojení. Pak jsme ale vyhodili oněch 200 milionů korun oknem.
Příště se podíváme, jak by taková CDN mohla vypadat.