Kdyby se tech zakazniku zeptali proc chteji DC v Praze, idealne v dostupnosti MHD tak by vedeli. Kdyz mate lidi v Praze, tezko je budete chtit kvuli kazdemu prdu posilat do Horni Dolni za Prahou, protoze efektivita prace pak klesa k nule plus pro me jako zakaznika to znamena dalsi naklady. Spousta prace v DC neni o noseni serveru do racku, ty servery nekdo potrebuje zapojit, nakonfigurovat, udelat sem tam neajkou vymenu disku nebo sitovky,… kdyz vam umre sitovka tak preci nebudete posilat cloveka z Prahy na puldenni vylet nekam mimo Prahu. Kdyby se ptali tak by vedeli…
Já teda hlavně nechápu, že se tímhle někdo chlubí jako ekologickým řešením...
Výměnou tepla do vnějšího prostředí jen způsobují další ohřívání městské zástavby, což je dlouhodobý zásadní problém pro všechna města. Když je to nový projekt, už dávno měli mít řešení založené na zpětném využití akumulovaného tepla minimálně na ohřev teplé vody pro přilehlé sídliště...
Nikoli, PUE 1,3 znamená, že na režii (chlazení) budou potřebovat 1300W.
Není to tak. PUE se počítá jako podíl celkové spotřeby vůči spotřebě IT vybavení (viz https://en.wikipedia.org/wiki/Power_usage_effectiveness).
Tedy v našem příkladu ten zlomek bude 1300 / 1000 = 1,3
Spravujeme i servery v Asii tady z Prahy, není to problém, zejména pokud jde o plánované akce jako je instalace, upgrade nebo údržba.
Tipuji, že hlavní problém je v dodavatelském řetězci, starých aplikacích a zažitých smlouvách. Např. u bank, které jsou v DC7, když jsme jim dělali dodavatele, měli jsme SLA 1 hodin na příjezd do DC v případě incidentu, kdyby tohle chtěli dělat mimo Prahu, výrazně si připlatí nebo musí změnit SLA (pro daného manažera, který o tom rozhoduje to není snadné, buď násobně se přesun mimo Prahu zdraží nebo papírově výrazně klesne spolehlivost).
Hlavní problém tedy vidím spíše ve struktuře klientů, kteří nechtějí dělat změnu a noví klienty se jim nepodařilo získat.
Když umře síťovka tam prostě počkám na nejbližší servisní okno a vyměním toho více najednou. Nejedu do DC kvůli jedné síťovce, tak se dnes staví systémy.
Uz vidim jak cestou v MHD nekdo nahrava custom FW do komponenty serveru. Stejne HW nehlidate od tovarny az po lokalni sklad. Vzdy je tam nejaka uroven neduvery.
V bance tak 20 let zpatky normalne prijel dodavatel k DC a my technici jsme prebrali na miste hw, zkontrolovali plomby atd. Autem snad jezdili jen dva technici kteri meli extra pojistku ( jen hw stal nasobky ceny auta). Ja ani nemel cesky ridicak.
Cesty metrem s nahradnimi disky nebo jinymi mensimi komponenty tez byly normalni. V DC vsak bylo nutne servisakum od tretich stran koukat pod ruce a podepisovat hromady papiru vcetne tech o likvidaci hw.
Tak to se ptate ale uplne spatne.
Pokud ma dodavatel HW nejaky sklad nahradniho HW, tak kde ze? Aha, v Praze. Pokud ten sklad nema, tak kam ze prileti to letadlo s nahradnim dilem? Aha, opet do Prahy.
Pricemz ano, on vam ten dodavatel ten dil nejak doruci prakticky kamkoli, jen to bude trvat o par hodin nebo dnu dele.
Muzeme pak pokracovat konektivitou a dalsimi aspekty.
Pokud provozujete neco jineho nez nejaky serverik na hrani, tak vam na nej zadne remotehands nesmi ani sahnout.
BTW: 800M to je +- pulka tech iphonu ze?
Ano, sluzba ke ktere potrebuji 20 racku bude levnejsi mimo Prahu. Ale u te pak stejne nebudu uvazovat o DC za Prahou ale klidne ji umistnim nekam na vesnici v jiznich chechach protoze to bude jeste levnejsi. Pokud potrebuji jenom 1 rack tak ty naklady nebudou ve finale levnejsi. Remote hands jsou drazsi nez technik ktereho stejne jiz platim, hlavne pokud ocekavam nejakou SLA, u DC v Praze mi nevznikaji ztraty casu technika na ceste (nejsem nucen kupovat remote hands), nevznikaji mi naklady na to mit vyhrazeny vuz atd. Podle me DC nekde za Prahou nema sanci byt dostatecne atraktivni z pohledu ceny a jedine v cem muze uspet jsou sluzby a zaruky (tier 1 vs tier 3 nebo dokonce tier 4), pripadne “zelenost”.
v MHD jde o to, že netuším, kde ten disk byl před tím a jestli se ještě nepodíval někam jinám.
Ano, před 20 lety jsme dokonce i ty servery do banky vozili v batohu v MHD (protože občas někam v Praze dojet aute v centrum byl ve špičce problém).
Plomby, neporušenost obalu se kontrolují i dnes. Skartace disků na místě už je také běžná, žádné odvážení z DC na reklamace jak se dělo občas dřív.
Neříkám, že to je vždy sluníčkové, ale bezpečnost na dodavatelské cestě se začíná řešit více a více.
Jenze vy musite umet to DC chladit i v pripade, kdy jaksi ty byty netopi, naopak, chteji chladit take.
Tudiz ve vasem krasnem svete musite vse postavit nejmene 2x za 3x vice penez, protoze to vse take musite udrzovat a opravovat.
Pokud nekdo namitne, ze takove DC by se dalo postavit vedle koupaliste a celorocne ohrivat vodu, tak ono i to koupaliste bude obcas vypusteno. Coz neprekvapive opet znamena, ze muste mit celou technologii nejmene 2x, proti reseni, ktere teplo proste jen vypousti do okoli.
No mozna pomuze trochu vhled z "prumyslu" (ne ciste IT). Resime racky (mensi desitky) kde vzdy k serveru je pripojen specificky HW co dela "neco". Je to ciste pro vnitrni ucely, neni to pro zakazniky. Ale specificky HW neni jeste tak vyspely, takze vyzaduje obcas zasah cloveka, tu prehodit jumper, tu prefleshovat firmware atd. Z tohodle pohledu je dobra dostupnost pro nas zcela zasadni. Taky je to neco, co nejde dat jednoduse do cloudu, heh. AWS teda umoznuje vedle jejich datacentra pripojit svuj vlastni HW, tusim, ze nejblizsi bod, kde to jde udelat je Stuttgart. No ale asi je jasne, ze jednodussi si to je vybudovat za rohem.
no u těch bankovních aplikací to právě bývá horší než u té malé firmy, hlavně mají všehochuť a občas nějaké SPOF tam běží.
Nemám přesná čísla, ale právě u DC7 bych řekl, že většinu prostoru zabírají velcí zákazníci a nikoliv ti malí. DC7 patří mezi ty DC, kde se mohou prozovovat kritické systémy, tomu odpovídá i cena.
Začínající firma bude kupovat serverhousing v době cloudových technologií? Měl jsem za to, že provozovat vlastní železo v cizí serverovně je už delší dobu považované za přežitek, jednak kvůli neekonomičnosti a druhak kvůli neefektivitě a neškálovatelnosti. Nemluvě o potřebě vlastních techniků.
Jako začínající firma bych si asi spíš pořídil VPS a železo vůbec neřešil... Obzvlášť, když si člověk přečte některé zkušenosti: https://www.lupa.cz/clanky/chcete-mit-vlastni-server-v-prazskem-datacentru-otestovali-jsme-nabidku-housingu/nazory/1174518/
No jasně, když nám jde pouze a jen o peníze, tak můžeme zbourat Národní divadlo a postavit tam místo něj datacentrum. Kultura je stejně jen žrout peněz, kterého musí stát dotovat a jelikož budova národního už má vyřešené chlazení vodou z Vltavy a fotovoltaiku na střeše, zbourala by se jen budova, technologie by se nechaly a akorát by se místo toho blbého kamenného baráku postavila nějaký pěkný plechový hangár s 10metrovou zdí z plechu bez oken. A technici by jezdili buď tramvají nebo metrem, nebo i pěšky.
Je jasné, že firmy musí k ekologickému chování někdo motivovat a že dlouhodobá úspora může ve skutečnosti vést k prvotní velké investici a že je také potřeba spočítat, jak se ta prvotní investice rozloží v čase a počítat s nejistým vývojem cen energií na trhu.
Nicméně pozastavovat se u datacenter nad zdvojováním investic do technologií je opravdu k smíchu. Napájení celého toho systému je řešeno asi jak? Aha, překvapivě dvě nezávislé napájecí větve a ještě do třetice záložní dieselagregát... A konektivita? To se asi taky nekope jen jeden jediný optický kabel, že...
Ehm .. az na to, ze to chlazeni se u DC samozrejme take stavi vicekrat, jenze kdyz zacnete resit ty vase ekonesmysly, tak to ve vasem pojeti bude 4x.
Protoze to musi byt odolne proti vypadku v jakemkoli provoznim rezimu, a provozni rezim leto, lidi netopi, je kupodivu pomerne bezny a netrva par hodin.
O zadne uspore pak nemuze byt ani rec. Tohle by naopak bylo nejdrazsi vytapeni na svete. Coz ostatne plati i o vnucovani tepelnych cepadel, anobrz topeni elektrinou.