close

Sechs Vorhersagen für das Rechenzentrum 2019

Sechs Vorhersagen für das Rechenzentrum 2019
Geschätzte Lesezeit: 4 Minuten

Non-Volatile Memory Express (NVMe) ist die Zukunft des Flash-Speichers

Durch den Ein­satz daten­in­ten­si­ver Tech­no­lo­gien, die immer mehr par­al­le­le Daten­strö­me erzeu­gen, müs­sen Unter­neh­men rie­si­ge und stän­dig wach­sen­de Infor­ma­ti­ons­men­gen bewäl­ti­gen. Das neue NVMe Host Con­trol­ler-Inter­face und ‑Spei­cher­pro­to­koll kann bis zu 64.000 par­al­le­le Daten­strö­me ver­ar­bei­ten. Im Ver­gleich: Die Pro­to­kol­le SATA oder SAS kön­nen nur eine War­te­schlan­ge auf ein­mal abar­bei­ten. Fuji­tsu hat bereits Plä­ne bekannt gege­ben, neben den ETERNUS AF ALL-Flash-Arrays, nati­ve NVMe in Kom­bi­na­ti­on mit PCIe con­nec­ted Solid-Sta­te-Lauf­wer­ken in sei­nen zukünf­ti­gen Spei­cher­pro­duk­ten ein­zu­set­zen. Dadurch wer­den mas­siv par­al­le­le, bis­her uner­reich­ba­re Daten­über­tra­gungs­ge­schwin­dig­kei­ten ermög­licht.

Im Jahr 2019 wird es die­ser enor­me Anstieg des Bus Speed den Kun­den ermög­li­chen, einen mas­siv par­al­le­len Daten­zu­griff bei mini­ma­ler Latenz­zeit zu errei­chen. Wäh­rend NVMe Ultra-High­speed-Schnitt­stel­len in ers­ter Linie „in the Box” exis­tie­ren, beschränkt sich NVMe mit NVME over Fab­ric (NVMe-oF) nicht mehr nur auf beschleu­nig­te SSDs. Es wird neue Leis­tungs­schwel­len in den Berei­chen Ser­ver, Struk­tu­ren, Spei­cher und Sys­tem­ma­nage­ment set­zen.

Quantum Computing und der Fujitsu Digital Annealer werden durchstarten

Vor weni­gen Jah­ren noch ein Geheim­tipp, macht das Quan­tum Com­pu­ting rasan­te Fort­schrit­te und reprä­sen­tiert zwei­fel­los die Zukunft des Com­pu­tings. Aber ist es etwas, das Sie im nächs­ten Jahr in Betracht zie­hen soll­ten? Wirk­lich? Nun: ja. Fuji­t­sus neu­ar­ti­ger Ansatz – der Digi­tal Annea­ler, eine quan­ten­in­spi­rier­te tech­no­lo­gie­ba­sier­te Lösung – bie­tet die Mög­lich­keit, kom­bi­na­to­ri­sche Opti­mie­rungs­pro­ble­me zu lösen, die mit her­kömm­li­chen Rech­ner­struk­tu­ren ein­fach nicht mög­lich wären, zumin­dest inner­halb der Lebens­dau­er eines Men­schen.

Dazu gehö­ren Her­aus­for­de­run­gen wie die Suche nach Ähn­lich­kei­ten in Mole­kü­len für die Wirk­stoff- oder Mate­ri­al­fin­dung, die Opti­mie­rung des Port­fo­li­o­ri­si­kos bei Finanz­dienst­leis­tun­gen – als Schutz vor einem mög­li­chen Finanz­crash -, die Stei­ge­rung der Effi­zi­enz der Pro­duk­ti­on durch Robo­ter, die Lager­op­ti­mie­rung und Redu­zie­rung der Pro­duk­ti­ons­zeit im Rah­men der Fabri­kopti­mie­rung sowie die Opti­mie­rung der Ver­kehrs­we­ge in Echt­zeit, die eine Pla­nung des öffent­li­chen Ver­kehrs ermög­licht.

Der Fuji­tsu Digi­tal Annea­ler ist weit davon ent­fernt, ein theo­re­ti­sches Expe­ri­ment zu sein und unter­stützt bereits Kun­den bei der schnel­len Lösung sol­cher Her­aus­for­de­run­gen. Bei­spie­le sind die Suche nach mole­ku­la­ren Ähn­lich­kei­ten in der Arz­nei­mit­tel­for­schung, die Ver­kür­zung der Pro­duk­ti­ons­zei­ten für Cus­tom Manu­fac­tu­ring und die Opti­mie­rung der Anord­nung von Lager­kom­po­nen­ten für Fabri­ken und Logis­tik. Im Okto­ber gaben wir Details eines bahn­bre­chen­den Pro­of of Con­cept (PoC)-Projekts mit Nat­West in Groß­bri­tan­ni­en bekannt. Es sol­len eini­ge der kom­ple­xes­ten, anspruchs­volls­ten und zeit­auf­wen­digs­ten Finanz­an­la­ge­pro­ble­me der Bank gelöst wer­den. Dies geschieht durch die Opti­mie­rung des Mixes aus hoch­wer­ti­gen liqui­den Mit­teln wie Anlei­hen, Bar­geld und Wert­pa­pie­ren. Viel­leicht könn­ten Sie 2019 rech­ne­ri­sche Her­aus­for­de­run­gen ange­hen, die Sie für unlös­bar hiel­ten?

Das maschinelle Lernen wird durch Digital Annealing beschleunigt

Auf­bau­end auf dem quan­ten­in­spi­rier­ten Ansatz ist es das maschi­nel­le Ler­nen, bei dem die gan­ze har­te Arbeit zur Schaf­fung einer künst­li­chen Intel­li­genz geleis­tet wird. Der Pro­zess beginnt mit dem Anler­nen einer KI. Wenn Sie möch­ten, dass sie eine Kat­ze iden­ti­fi­ziert, müs­sen Sie ihr Mil­lio­nen von Bil­dern von Kat­zen zei­gen. Die­ser Pro­zess braucht Zeit und wenn er nicht rich­tig funk­tio­niert, müs­sen Sie von vor­ne anfan­gen. Der Fuji­tsu Digi­tal Annea­ler kann hel­fen, die­sen Trai­nings­pro­zess zu beschleu­ni­gen, indem er z.B. teil­wei­se vor­trai­nier­te Kom­po­nen­ten wie die Sprach­syn­the­se­er­ken­nung anbie­tet.

Eine neue Art von Speicher wird die Server-Auslastung revolutionieren

Die NVMe-Tech­no­lo­gie beein­flusst nicht nur die Zukunft der Flash-Spei­cher, son­dern spielt auch eine wesent­li­che Rol­le bei der Ent­wick­lung einer zukünf­ti­gen Ser­ver­ge­nera­ti­on. Fuji­tsu ist als Intels Koope­ra­ti­ons- und Ent­wick­lungs­part­ner ver­ant­wort­lich für die Ent­wick­lung des Pro­to­typ-Ser­ver­sys­tems auf Basis des Intel Opta­ne DC Per­sis­tent Memo­ry im Rah­men des EU Hori­zon 2020 Pro­jekts NEXT­Ge­nIO. Die­ses Pro­to­typ­sys­tem, das auf PRI­MER­GY-Ser­vern basiert, nutzt den „per­ma­nen­ten Spei­cher mit Per­sis­tenz”. Im Gegen­satz zu tra­di­tio­nel­lem DRAM kom­bi­niert er die Geschwin­dig­keit des Haupt­spei­chers mit der Bestän­dig­keit kon­ven­tio­nel­ler Spei­cher. Durch die Bereit­stel­lung erschwing­li­cher Sys­tem­spei­cher­ka­pa­zi­tä­ten mit die­ser neu­en Spei­cher­klas­se kön­nen End­kun­den ihre Arbeits­las­ten bes­ser opti­mie­ren. Grö­ße­re Daten­men­gen kön­nen näher an den Pro­zes­sor ver­scho­ben und so die höhe­re Latenz­zeit beim Abru­fen von Daten aus dem Sys­tem­spei­cher mini­miert wer­den. Die­se neue Tech­no­lo­gie wird in der kom­men­den Genera­ti­on (M5) der PRIMERGY Dual- und Quad-Sockel, sowie unse­rer PRIMEQUEST 3800 Serie 8‑So­cket-Ser­ver ver­füg­bar sein, deren Markt­ein­füh­rung für April 2019 geplant ist.

Die Containerisierung wird ein Wegbereiter für Hybrid IT Use Cases sein

Wir haben bereits viel über Con­tai­ner gehört und 2019 wird sich das noch stei­gern. Die Con­tai­ne­ri­sie­rung ist ein Aspekt des soge­nann­ten „Micro-Service”-Ansatzes, bei dem eine Anwen­dung in klei­ne, ato­ma­re, gekap­sel­te Ein­hei­ten mit begrenz­tem Funk­ti­ons­um­fang zer­legt wird. Die­se Con­tai­ner kön­nen dann wie­der­um dyna­misch zu kom­ple­xen Anwen­dun­gen zusam­men­ge­setzt und auf ver­schie­de­ne Platt­for­men ver­teilt wer­den. Dadurch wird die gleich­zei­ti­ge Ver­ar­bei­tung meh­re­rer Auf­ga­ben ermög­licht. Der Vor­teil ist, dass Mikro­ser­vices die Ent­wick­lung (meist mit super­agi­len Dev­Ops) und War­tung ver­ein­fa­chen, die Reak­ti­ons­fä­hig­keit auf sich ändern­de Anfor­de­run­gen ver­bes­sern, Ska­lier­bar­keit auf ein­zel­nen Ser­vice Levels ermög­li­chen und zur Kos­ten­ef­fi­zi­enz bei­tra­gen.

Und weil Con­tai­ner es ein­fa­cher machen, sich auf neue Funk­tio­nen, Pro­blem­lö­sun­gen und den Ver­sand neu­er oder aktua­li­sier­ter Soft­ware zu kon­zen­trie­ren, sind sie Vehi­kel für die Bereit­stel­lung von Kun­den­nut­zen. Eine schö­nes Ergeb­nis! Wir set­zen die Con­tai­ne­ri­sie­rung dort ein, wo sie den Anfor­de­run­gen von Anwen­dungs­fäl­len ent­spricht. Das umfasst Open-Source-Soft­ware wie Open­Stack, Docker und Kuber­ne­tes, sowie VMware- und Micro­soft-Umge­bun­gen, ergänzt durch Ober­klas­se-Soft­ware­pro­duk­te von Fuji­tsu wie Ser­ver­View Cloud Moni­to­ring Mana­ger und Enter­pri­se Ser­vice Cata­log Mana­ger. Und als Mul­ti-Cloud-Dienst­leis­ter set­zen wir ihn auch in unse­ren Part­ner-Clouds wie AWS und Micro­soft Azu­re ein.

Liquid Immersion Cooling Systems werden einen Durchbruch erleben

Um das Bes­te aus AI- oder Big Data-Daten her­aus­zu­ho­len, bedarf es einer immer höhe­ren Leis­tung der IT-Sys­te­me. Beschleu­ni­ger­chips wie GPUs benö­ti­gen immer mehr Ener­gie für die Strom­ver­sor­gung, was zu einem dra­ma­ti­schen Anstieg der Betriebs­tem­pe­ra­tu­ren und der Not­wen­dig­keit einer stär­ke­ren Küh­lung führt. In eini­gen Fäl­len sind die Kli­ma­an­la­gen in Rechen­zen­tren bereits unzu­rei­chend, was die Mög­lich­kei­ten, das Poten­zi­al von High-End-Sys­te­men voll aus­zu­schöp­fen, ein­schränkt. Die Liquid Immer­si­on Coo­ling Tech­no­lo­gie von Fuji­tsu ist eine Lösung dafür: Sie nutzt eine effi­zi­en­te, flüs­sig­keits­ba­sier­te Küh­lung, redu­ziert den Bedarf an gro­ßen Kli­ma­an­la­gen und senkt den Gesamt­strom­ver­brauch um rund 40 Pro­zent. Durch die­se Redu­zie­rung des Strom­ver­brauchs kön­nen Kun­den in Rechen­zen­tren mit gebrems­ten Netz­tei­len ihre Ser­ver­dich­te und damit ihre Rechen­leis­tung etwa ver­dop­peln. So oder so führt dies zu gro­ßen Ein­spa­run­gen im Jahr 2019.

Schlagwörter: , , , , , , ,

Story Page