Musíme být blíž k uživatelům, abychom snížili latence, říká Ben Ryall z Meta

7. 3. 2024
Doba čtení: 5 minut

Sdílet

Ve středu 6. března se v polském Krakově uskutečnil jedenáctý ročník putovní konference Peering Days, na které se setkávají provozovatelé sítí z celého světa. Mluvilo se o peeringu, optických technologiích, ale i o bezpečnosti.

Jedenáctý ročník dvoudenní konference tentokrát proběhl v polském Krakově, jako obvykle byla akce organizována třemi peeringovými uzly: českým NIX.CZ, rakouským VIX a maďarským BIX.

Ben Cartwright-Cox: Podepsané a stále nebezpečné

Začátkem letošního roku byl ukraden účet k systému RIPE NCC, který patřil technikovi ze společnosti Orange Spain. Jejich prefixy nebyly původně podepsány RPKI, ale útočník je podepsal za ASN, které patřilo jiné organizaci. Tím síť zmizela téměř z celého internetu.

Problém je už v tom, že RIPE nevynucoval dvoufaktorovou autentizaci pro uživatele a že správce z Orange používal triviální heslo ripeadmin.

Incident rychle ukázal, které sítě filtrují prefixy podle RPKI. Otázka související s tímto problémem je, jak rychle sítě reagují na změnu? Zároveň je na místě se ptát, jak rychle je možné takovou situaci napravit? Problém se v tomto případě šířil postupně, ale už během pěti minut se projevil významný propad v datovém toku.

Jakmile začali technici problém řešit, trvalo přibližně dvě hodiny, než se situace stabilizovala. Důležité je si uvědomit, že plné zotavení trvá velmi dlouho. Zajímavé také je, že během incidentu nedošlo k úplnému zastavení provozu, protože některé okolní sítě s Orange stále komunikovaly. Šlo o sítě propojené přímo nebo přes peerinová centra. Malou část tvoří také zasekunté routy u menších poskytovatelů.

Užitečným pomocníkem v takové situaci může být SLURM (Simplified Local Internet Number Resource Management with the RPKI), což je standard podle RFC8416, který umožňuje podle konfigurace v JSON měnit validitu RPKI v místní síti. Pomocí SLURM můžete alespoň pro sebe snížit dopady takového incidentu.

Weible Thomas: Koherentní optické transceivery

DWDM je tu s námi už nějakou dobu, ale v poslední době se daří prvky zmenšovat, což umožňuje úplně nové způsoby nasazení v mnohem širším měřítku. V klasickém přenosu optického signálu je možné přenosové rychlosti zvyšovat pomocí zvyšování frekvence. Jak ale frekvence roste, je pro přijímače stále obtížnější rozlišovat mezi jedničkou a nulou.

Světlo má ale také další vlastnosti než jen jas, například polarizaci ve dvou různých osách. Výsledkem je pak modulace QAM, která umožňuje rozlišovat například v matici šestnácti různých stavů. Při příjmu signálu je podstatný odstup signálu a šumu, který může výrazně zhoršovat schopnost detekce. V nezarušeném prostředí je snadné rozlišit jednotlivé znaky, ale jak šum roste, zhoršuje se kvalita signálu.

Malé SFP transceivery mají zatím problémy hlavně se spotřebou a s ní souvisejícím zahříváním. Většina příkonu se promění v teplo, jen velmi málo odejde v podobě světelného toku. Pokud tak máme síťový prvek, ve kterém každý modul potřebuje 70 W, jde dohromady o velké množství energie.

Koherentní technologie má potenciál zdvojnásobit, zečtyřnásobit či dokonce zosminásobit přenosové pásmo. Během dalšího vývoje se můžeme dostat přes 800G na 1,6T nebo 3,2T na jednu linku.

Andrzej Wojnar, Marcin Bała: Efektivní a cenově dostupné IP-over-DWDM

Pro vyšší přenosové rychlosti není možné použít jednoduchou modulaci, proto bylo potřeba přejít na DWDM. To ale znamenalo poměrně velká a složitá zařízení, která byla pro produkční nasazení příliš nepraktická. Jak ale technologie pokročila, bylo možné přinést na trh 400G transceivery ve formátu QSFP-DD.

Největší podíl na spotřebě modulů mají integrovaná DSP, takže největší podíl na zmenšování a snižování spotřeby má právě rozvoj v oblasti čipů. Optické moduly jsou k dispozici ve dvou standardech: OIF a OpenZR+. První jmenovaný má dosah do 120 km a umí data přenášet rychlostí 400G. Druhý pak dokáže měnit rychlosti po stovkách od 100G do 400G a umí pracovat i na vzdálenostech delších než 120 km.

Nejmladším přírůstkem do koherentní revoluce je transceiver QSFP28 100G, který je vhodný do přístupových a agregačních sítí. Jeho příkon je 5 W a samotné DSP potřebuje jen 2 W. Jde o úplně nový typ DSP, které je velmi energeticky efektivní a má velmi malou spotřebu.

Problémem dnešních síťových prvků je, že zatím standard QSFP28 nepodporují. Většina výrobců oznámila podporu na letošní rok, ale ještě bude trvat rok nebo dva, než bude podpora stabilní a nasaditelná v našich sítích. Společnost Salumanus proto pracuje na standardních transceiverech formátu CMIS a SFF, které by měly být představeny ještě letos. Většina síťových prvků tento standard podporuje, takže nové transceivery můžeme použít velmi flexibilně na mnohých místech v síti. Otázka není, zda to v síti nasadit, ale kdy to bude možné.

Nina Bargisen: Integrace dat pro koordinaci peeringu

Koordinátor peeringu používá nejčastěji několik klasických nástrojl: obyčejný tabulkový procesor, nástroj traceroute a PeeringDB. Jak tuto sadu nástrojů rozšířit a získat další informace? NetFlow je dobrý začátek, ale je potřeba všechna data nějak posbírat a zkombinovat.

Je možné použít například geolokační data, informace z BGP, data z DNS, informace o IP adresách, metriky ze SNMP a podobně. Všechna data data jsme vložili do jedné databáze, což nám pomáhá v rozhodování o peeringu. Lze tak například zjistit, jak jsou využívány jednotlivé porty v peeringu nebo srovnávat ceny jednotlivých propojů.

Z kombinace dat je možné například sledovat, kam teče zbytečně provoz mimo peeringy. Snadno je pak možné optimalizovat propoje se sítěmi, se kterými si vyměňujeme větší množství dat. Můžete jim zavolat a říct: hele, my spolu komunikujeme přes tranzit a přitom máme oba sítě třeba v AMS-IX a můžeme se propojit.

Podobně je možné se rozhodovat na základě směřování provozu do jednotlivých států či dokonce konkrétních měst. Můžete se tak podívat, kam posíláte nejvíce dat a kde má například smysl postavit datacentrum.

Kombinace různorodých dat je cestou, jak se efektivně rozhodovat. Velmi v tom pomáhají komunitní data z PeeringDB. Data získávaná od komunity jsou velmi cenná. Jaké další informace můžeme sbírat?

Ben Ryall: Realita propojování

Meta má v současné době 20 datacenter, více než 80 přípojných míst a více než 7000 prvků v sítích poskytovatelů. Můžeme z nich odbavovat nejzajímavější data, například obrázky. Nové služby vyžadují, aby byla data co nejblíže uživatelům. Všechny relace jsou proto ukončovány už na okraji naší sítě.

Pro uživatelský zážitek je zásadní zpoždění, například pro videohovory a interakci v 3D prostředí jsou potřeba co nejlepší časy. Kešování je stále velmi důležité, ale tento konkrétní problém nedokáže vyřešit. Je proto potřeba být síťově co nejblíže uživatelům.

bitcoin školení listopad 24

Rozšiřováním propojení v různých peeringových centrech je možné se dostat k dalším uživatelům. Budoucnost je v decentralizace propojovacích center a snižování závislosti na obrovských síťových uzlech. Budeme muset zvyšovat datový tok a zároveň snižovat latenci. Jsou to různé úkoly, každý s vlastní sadou problémů a výzev.

(Autorem fotografií je Jaromír Novák z NIX.CZ.)

Autor článku

Petr Krčmář pracuje jako šéfredaktor serveru Root.cz. Studoval počítače a média, takže je rozpolcen mezi dva obory. Snaží se dělat obojí, jak nejlépe umí.