Teoreticky je to takove "USBexpress" :-) jako parafraze na "SATAexpress", jenom to nema x2 ale jen x1 link. Prakticky by slo povesit PCIe-SATA radic na dva/ctyri disky (v enclosure/backplane) na onen zneuzity USB konektor a mit ty disky normalne skrze AHCI. O podobnem pripojovani diskoveho pole skrze x1 port jsem uvazoval - jenze pomoci SFP (bud direct-attach, nebo opticky kabel) a pres PCIe switche v PCIe x4/x8 slotu. Zde vidim jako hlavni nedostatek, ze vsechny ty x1 porty a to jich je 20 jsou vedeny ze southbridge a ten je pripojenej skrze DMI - coz je typicky PCIe x4 Gen2 a tvori tak uzke hrdlo jakehokoliv reseni.
Pro testovani prenosove rychlosti to neni uplne vhodne, ale treba nekdo potrebuje hodne PCIe zarizeni.. takze by to mohl vyuzit.
Bude hodne zalezet, co tam je za PCIe switch. Surprise hot-plug s PCIe funguje jenom s nekterymi PCIe switchi (== zapojeni zarizeni, ktery pri bootu masina nevidela a pouze se pocitalo, ze se tam "neco" muze pripojit).
S poradnymi PCIe switchi se daji delat kouzla, s takovou Switchtec rodinou od Microsemi v podstate nepotrebujete Infiniband, Ethernet, ani nic jinyho, nez PCIe a pridavat gen3 linky, kdyz dojde bandwidth. Plus teda napsat si kapku ovladacu na poslani blockdevice over PCIe pres PCIe non-transparent bridge.
Nejvetsi problem je ale v tech kabelech, PCIe gen2+ mi pres ne v podstate nikdy nechodilo spolehlive. Jedine gen1.
Kdyby pouzili Type-C konektory na obe strany, asi by to byla jina kava.
Tak USB3 je delany na 5G stejne jako PCIe Gen2 :) spis bych videl problem v tom, jak cinani routuji ty desky - casto vidam ze si s diferencialnima linkama moc namahy nedaj a pak buhvi jaky lowcost stackup pouziji. Navic PCIe neni uplne delany na vice nez 1 konektor v ceste (byt existuje iPass od Molexu, je lepsi ho davat za switch).
S tim USB-C to dnes nema moc smysl - dosahli by jste tam maximalne Gen3 x2 v nejake alternate mode (16Gb/s), coz je stejne jako USB 3.1 Gen2 (20 Gb/s, asi v 8b10b, takze fakticky taky 16Gb/s). Byt PCIe je v nejakem ohledu flexibilnejsi. Uvidime zda Gen4 pobezi pres TypeC - to by pak bylo 32Gb/s a atakovalo pozici TB3 (40Gb/s), ktery neni a nebude otevrenym standardem (at si rika kdo co chce).
(Microsemi neznam, pouzivam PLX... zatim bez NTB, pac to prislo do jadra jen nedavno.)
Zalezi, na jak velky reseni je to mireny. Ja po tom hodne pokukuju jako po totalnim reseni scale-out otazky, jako moznost jak delivernout mensim oddelenym "secure" systemum managed storage & network.
Gen 2/3 je porad propustnosti dostacujici na nejaky ty 4jadra do 8-16G RAM, v pohode.
Hledam reseni, jak zahostovat co nejvic systemu tak, aby kazdej mel realne svoji RAMku pro sebe a mohl si tam dmcryptovat a pouzivat jenom soft, kteremu veri. Muj use-case bude storage na citlivy data s presne jednim uzivatelem, use-case vpsFree potom na databazi clenu a podobne.
A ty Type-C konektory by musely byt rovnou na te zakladovce, nespolehlivost jde hlavne z problemu mechanicky zajistit vsechny ty cinsky adapterky v desce se vsema tema A-ckovyma kabelama s paradnima vulema v konektorech. Gen 1 pres to nejakym zazrakem chodi, gen 2 uz neodpousti.
To ne, to by totiz uz davno existovalo. Tohle vyuziva 20 pcie linek z H370 chipsetu - viz: https://ark.intel.com/products/133284/Intel-H370-Chipset
Max # of PCI Express Lanes 20
Typicky maji soudobe cipsety sdilene linky, takze se to switchuje/strapuje na kombinace z pcie/sata/usb3/eth:
https://3dnews.ru/assets/external/illustrations/2018/05/07/969345/slide-2.png
( pripadne v clanku: https://enuze.com/details-about-intel-h370-b360-and-h310-what-will-have-to-tolerate-those-who-will-save-on-the-motherboard/ - HSIO lane assignment )