close

Mehr Internet für alle: T‑Labs und Fujitsu optimieren die Nutzung der Netzinfrastruktur

Mehr Internet für alle: T-Labs und Fujitsu optimieren die Nutzung der Netzinfrastruktur
Geschätzte Lesezeit: 9 Minuten

103.278 Giga­byte je Sekun­de [1] – das ist der Daten­ver­kehr, der welt­weit durch das Inter­net und sei­ne Infra­struk­tur fließt – wohl­ge­merkt, je Sekun­de. 4,13 Mil­li­ar­den Men­schen nut­zen aktu­ell das Inter­net welt­weit, vie­le von ihnen täg­lich [2]. Hin­zu kommt außer­dem die Kom­mu­ni­ka­ti­on des Inter­net of Things (IoT) – also von Maschi­ne zu Maschi­ne, deren Anteil auch ger­ne ein­mal unter­schätzt wird. So kommt eine extrem gro­ße Zahl an Nut­zern und eine rie­si­ge Daten­men­ge zusam­men, die durch neue Ange­bo­te wie You­Tube, Net­flix und Co., durch IoT basier­te Anwen­dungs­sze­na­ri­en wie Pre­dic­ti­ve Main­ten­an­ce, aber auch durch ande­re Ein­flüs­se, wie zum Bei­spiel die Covid-19 Pan­de­mie, vor­an­ge­trie­ben und in den nächs­ten Jah­ren wei­ter­wach­sen wird. Dabei ist das ste­ti­ge Wachs­tum nur ein Fak­tor, dem das Netz­werk – also die Hard­ware und ihre Ver­bin­dun­gen in Form von Daten­ka­beln und Funk­stre­cken „hin­ter dem Inter­net” – gerecht wer­den muss.

Abhän­gig von der Tages­zeit schwankt die Nut­zung in den ein­zel­nen Regio­nen der Welt. Gro­ße, digi­ta­le Events oder loka­le Kata­stro­phen kön­nen zu kurz­fris­ti­gen regio­na­len Spit­zen in der Nut­zung füh­ren, und zu guter Letzt hat die Infra­struk­tur selbst Ein­fluss: Rechen­zen­tren kön­nen eben­so wie klei­ne­re Netz­ele­men­te aus­fal­len oder aber eine Bau­ma­schi­ne kann auf einer Groß­bau­stel­le auch ein­mal ein Kabel beschä­di­gen und damit die­se eine Rou­te kom­plett lahm­le­gen. Wie also kann unter die­sen Umstän­den gewähr­leis­tet wer­den, dass alle Nutzer*innen den best­mög­li­chen Up- und Down­load haben oder zumin­dest eine mini­mal garan­tier­te Kapa­zi­tät, so dass Arbei­ten, Sur­fen und Strea­ming noch mög­lich ist? Um die Fra­ge nach der Opti­mie­rung beleuch­ten zu kön­nen, müs­sen wir zunächst einen genaue­ren Blick auf die Infra­struk­tur des Inter­nets werfen.

Aufbau des Internets und Routing

Der Auf­bau des Inter­nets ist ver­gleich­bar mit unse­rem Stra­ßen­sys­tem. Es gibt Bun­des­au­to­bah­nen, Bun­des­stra­ßen, Lan­des­stra­ßen, Kreis­stra­ßen und Gemein­de­stra­ßen. Die­se Namen klas­si­fi­zie­ren unter ande­rem die Aus­bau­stu­fe der Stra­ße: ihre Brei­te, die Anzahl der Spu­ren, aber auch Stei­gung, Gefäl­le und Kur­ven­ra­di­en. Die­se spe­zi­fi­schen Eigen­schaf­ten begrün­den jeweils die vor­ge­ge­be­nen Geschwin­dig­keits­be­gren­zun­gen. Um zügig von A nach B zu kom­men, wählt das Navi­ga­ti­ons­sys­tem aus, wel­che Rou­te und damit auch wel­che Stra­ßen genutzt wer­den. In aller Regel begibt man sich von sei­nem Start­punkt aus immer zur nächst­grö­ße­ren Stra­ßen­ka­te­go­rie bis hin zur Auto­bahn und wenn man sich dem Ziel nähert, vice versa.

So zu fah­ren geht oft bedeu­tend schnel­ler, als z. B. die kür­zes­te Stre­cke zu wäh­len, die über Land- und Kreis­stra­ßen führt. Doch unab­hän­gig davon, wel­chen Weg man wählt: Stra­ßen kön­nen wegen zu hohem Ver­kehrs­auf­kom­men ver­stop­fen, aber auch Bau­stel­len und Unfäl­le sor­gen für Stö­run­gen im Ver­kehrs­fluss. Und genau hier sto­ßen wir an das Pro­blem, dass die Rou­te von jedem Navi­ga­ti­ons­sys­tem nur für sich selbst opti­miert wird und nicht die Zie­le und Wege der umlie­gen­den Fahr­zeu­ge mit ein­rech­net. Dies führt dann z.B. dazu, dass vie­le Fahrer*innen in einer Stau­si­tua­ti­on die­sel­be Umfah­rungs­ent­schei­dung tref­fen und dadurch wei­te­re Staus verursachen.

Wenn Sie jetzt das Wort Stra­ßen durch Lei­tun­gen erset­zen, ihre Brei­te und die erlaub­te Geschwin­dig­keit mit Daten­ra­ten, die sie über­tra­gen kön­nen und aus Autos und Per­so­nen Daten­pa­ke­te machen – dann haben Sie eine gute Vor­stel­lung davon, wie die Infra­struk­tur für die Tele­kom­mu­ni­ka­ti­on und damit das Inter­net aussieht.

Fujitsu Aktuell_Mehr Internet für alle_Conent_Wikipedia 1This file is licen­sed under the Crea­ti­ve Com­mons Attri­bu­ti­on 2.5 Gene­ric license.

Viele Faktoren beeinflussen Wege und Geschwindigkeit

Es gibt eine Viel­zahl von wei­te­ren Fak­to­ren, die die Infra­struk­tur und die erreich­ba­ren Geschwin­dig­kei­ten beein­flus­sen. Bei­spiels­wei­se ver­su­chen Rou­ter anhand von his­to­ri­schen Daten und Ereig­nis­sen den Daten­fluss zu opti­mie­ren. Hier­bei flie­ßen die Erfah­run­gen in die Iden­ti­fi­ka­ti­on von zukünf­tig mög­li­cher­wei­se aus­ge­las­te­ten Rou­ten und Teil­ver­bin­dun­gen ein. Dabei stößt die Vor­her­sa­ge zur Iden­ti­fi­ka­ti­on von kri­ti­schen Teil­stre­cken jedoch durch­aus an Gren­zen. Der Grund dafür liegt in vie­len Fäl­len in der kon­ti­nu­ier­lich infle­xi­blen Ver­wen­dung der weni­ger kri­ti­schen Teil-Rou­ten, die jeweils auf his­to­ri­schen Daten beruht. Gera­de weil jeder Rou­ter einem Daten­strom eine weni­ger kri­ti­sche Teil­ver­bin­dung zuwei­sen möch­te, kommt es zur Über­be­an­spru­chung die­ser Ver­bin­dun­gen.

Aber auch welt- oder fir­men­po­li­ti­sche Fra­gen spie­len beim Daten­rou­ting eine Rol­le: wel­cher Firma/welchem Betrei­ber gehö­ren die Kabel und wie dür­fen sie genutzt wer­den? Dür­fen Pake­te auf dem Weg von Finn­land nach Deutsch­land durch die viel­leicht schnel­le­re Land­ver­bin­dung über Russ­land gerou­tet wer­den, oder neh­men wir einen Geschwin­dig­keits­ver­lust in Kauf, indem wir uns am stark aus­ge­las­te­ten, aber dafür direk­ten Unter­see­ka­bel anstel­len [4]?

Fujitsu Aktuell_Mehr Internet für alle_Conent_Wikipedia 2This file is licen­sed under the Crea­ti­ve Com­mons Attri­bu­ti­on-Share Ali­ke 2.0 Gene­ric license.

Die Infra­struk­tur, die hin­ter unse­ren Inter­net­an­schlüs­sen, egal ob zu Hau­se oder mobil, liegt ist also sehr kom­plex und wird von vie­len Fak­to­ren beein­flusst. Wenn Sie sich mehr mit dem The­ma beschäf­ti­gen wol­len, emp­feh­le ich Ihnen das Buch „Kabel­sa­lat: Wie ich einem kaput­ten Kabel folg­te und das Inne­re des Inter­nets fand” von Andrew Blum. In jedem Fall soll­te jetzt deut­lich gewor­den sein, dass es immer wie­der – auch schon vor Coro­na – in Zei­ten gro­ßer Aus­las­tung zu Datenstaus kom­men kann, die das Nut­zungs­er­leb­nis stark beein­träch­ti­gen. Und hier kom­men wir zurück zur Opti­mie­rung. Erin­nern Sie sich kurz an die „ego­is­ti­schen” Autofahrer*innen und ihre Navi­ga­ti­ons­sys­te­me: sie opti­mie­ren nur die Rou­te für sich selbst und berück­sich­ti­gen nicht, wel­che Zie­le die Fahr­zeu­ge um sie her­um haben. Ein Tele­kom­mu­ni­ka­ti­ons­pro­vi­der hin­ge­gen kommt mit einer sol­chen, „ego­is­ti­schen” Lösung nicht weit. Er muss sich die Zie­le aller Daten­pa­ke­te in sei­nem Netz­werk anschau­en und jedem eine Rou­te zuwei­sen, so dass alle Pake­te gemein­sam ihr Ziel in der best­mög­li­chen Zeit errei­chen. Das ist eine kom­ple­xe kom­bi­na­to­ri­sche Auf­ga­be, die mit der heu­te ver­füg­ba­ren Rechen­leis­tung nur sehr schwer zu lösen ist.

Kombinatorische Optimierung ist Trumpf oder zu langsam

„Kom­bi­na­to­ri­sche Pro­ble­me kön­nen expo­nen­ti­ell wach­sen, wenn es dar­um geht, jede mög­li­che Zusam­men­set­zung zu betrach­ten”, erläu­tert Dr. Sebas­ti­an Engel, Tech­ni­cal Con­sul­tant für den Digi­tal Annea­ler bei Fuji­tsu. „Neh­men wir zum Bei­spiel an, Sie haben eine gro­ße Fami­lie und möch­ten an Weih­nach­ten Ihre Geschen­ke über­brin­gen. Auf Grund von Coro­na wird das die­ses Jahr nicht bei einer gro­ßen Fami­li­en­fei­er mög­lich sein, son­dern Sie müs­sen zu jedem Haus­halt ein­zeln fah­ren und dort natür­lich kon­takt­frei Ihr Päck­chen hin­ter­las­sen. Die Rei­hen­fol­ge spielt dabei kei­ne Rol­le, aber aus Nach­hal­tig­keits­grün­den soll der Gesamt­weg natür­lich so kurz wie mög­lich sein.

Fujitsu Aktuell_Mehr Internet für alle_Conent_Wikipedia 3
Public Domain Image from Wikipedia/CIA World Factbook

Suchen Sie sich zehn belie­bi­ge Adres­sen auf einer Stra­ßen­kar­te und schon erken­nen Sie, dass die Anzahl der mög­li­chen Rei­hen­fol­gen extrem groß ist. Genau­er gesagt haben Sie bei zehn Haus­hal­ten rund 3,63 Mil­lio­nen Mög­lich­kei­ten (= 10 x 9 x 8 x … = 10 Fakul­tät), um Ihre Geschen­ke zu über­rei­chen. Und Sie müs­sen sich alle Mög­lich­kei­ten anse­hen, um her­aus­zu­fin­den, wel­che nun die kür­zes­te Rou­te ist”, so Dr. Engel wei­ter. Also auch, wenn jede ein­zel­ne Mög­lich­keit an sich schnell berech­net wer­den kann, die Viel­zahl die­ser bringt kon­ven­tio­nel­le Rech­ner und auch HPCs regel­mä­ßig an ihre Gren­zen. [5]

Die Lösung dafür könn­te und wird irgend­wann in der Zukunft auch „Quan­ten­com­pu­ter” lau­ten. „Quan­ten­com­pu­ter haben, in einem ganz prak­ti­schen Sin­ne gespro­chen, die Eigen­schaft bestimm­te Rechen­ope­ra­tio­nen expo­nen­ti­ell schnel­ler lösen zu kön­nen als kom­mer­zi­el­le Rech­ner”, erläu­tert Dr. Marc Geitz von den Tele­kom Inno­va­ti­on Labo­ra­to­ries (T‑Labs). „Das macht dies sehr attrak­tiv, denn vie­le die­ser Pro­blem­stel­lun­gen sind rele­vant für die For­schung, aber auch Indus­trie. Und klas­si­sche Rech­ner sto­ßen lang­sam an phy­si­ka­li­sche Gren­zen, was die Minia­tu­ri­sie­rung ihrer Archi­tek­tur angeht, denn es tre­ten bereits jetzt Quan­ten­ef­fek­te dort auf, wo man sie nicht haben will und auch die Ablei­tung der ent­ste­hen­den Hit­ze wird immer schwieriger.”

Digital Annealing vs. Quanten Annealing

„Quan­ten Annea­ler arbei­ten mit Quan­ten­zu­stän­den”, so fährt der pro­mo­vier­te Phy­si­ker Geitz fort, „das sind zum Bei­spiel klei­ne quan­ten­me­cha­ni­sche Magne­ten oder Atom­zu­stän­de. Für ihren Betrieb wird eine kom­ple­xe Infra­struk­tur benö­tigt: sie müs­sen von magne­ti­schen Fel­dern iso­liert und nahe dem abso­lu­ten Null­punkt betrie­ben wer­den. Wäh­rend der Berech­nung ori­en­tie­ren sich die quan­ten­me­cha­ni­schen Magne­ten so aus, dass die Gesamt­ener­gie der QPU (Quan­tum Pro­ces­sing Unit) mini­miert wird. Die resul­tie­ren­de Aus­rich­tung ergibt dann das Ergeb­nis der Berech­nung. Wäh­rend der Berech­nung kommt es bei aktu­el­ler Hard­ware zu Stö­run­gen, so dass die Kohä­renz der Quan­ten­zu­stän­de auf der QPU nicht not­wen­di­ger­wei­se erhal­ten bleibt, was letzt­end­lich die Leis­tungs­fä­hig­keit aktu­el­ler Hard­ware limi­tiert. Die Hard­ware ver­bes­sert sich von Jahr zu Jahr, so dass wir hof­fen, in den kom­men­den Jah­ren eine wirk­li­che Quan­ten Advan­ta­ge zu sehen.” Damit sind Quan­ten Gate Com­pu­ter und Quan­ten Annea­ler noch nicht da, wo sie für den pro­duk­ti­ven Ein­satz in der Indus­trie sein müssten.

„Der Digi­tal Annea­ler stellt dage­gen eine Brü­cken­tech­no­lo­gie zwi­schen klas­si­schen Com­pu­ter-Sys­te­men und Quan­ten Annea­lern dar. Basie­rend auf Sili­zi­um-Pro­zes­sor­tech­no­lo­gie emu­liert der Mikro­chip Quan­ten Anne­aling, sprich sei­ne spe­zi­el­le Archi­tek­tur nutzt die Funk­ti­ons­prin­zi­pi­en von Quan­ten Annea­lern, um kom­bi­na­to­ri­sche Pro­ble­me sehr schnell und effi­zi­ent zu lösen. Und das ohne den tech­ni­schen Auf­wand, den der Betrieb eines Quan­ten­com­pu­ters erfor­dern wür­de. Dabei lie­fert der Digi­tal Annea­ler die vol­le Kon­nek­ti­vi­tät aller Bits, also jedes Bit kann mit jedem ande­ren kom­mu­ni­zie­ren”, fährt Sebas­ti­an Engel fort. „Und auch das Prin­zip der Super­po­si­ti­on wird nach­ge­zeich­net: ich gehe ite­ra­tiv durch den Anne­aling-Algo­rith­mus und bei jedem Schritt schaue ich par­al­lel in eine Viel­zahl von mög­li­chen Rich­tun­gen, sprich ver­än­de­re jede Varia­ble um eine Ein­heit, von wel­cher ich die Bes­te gefun­de­ne Ver­än­de­rung anneh­men kann.

Auch das soge­nann­te Quan­ten-Tun­ne­ling lie­fer­te Inspi­ra­tio­nen für das Chip­de­sign: gegen Ende eines Quan­ten Anne­alings befin­det sich der Algo­rith­mus in einem Tal, einem Ener­gie­mi­ni­mum. Aber han­delt es sich um ein glo­ba­les Mini­mum oder ein Loka­les? Und liegt in direk­ter Nach­bar­schaft viel­leicht ein noch bes­se­res Ener­gie­mi­ni­mum? Der Digi­tal Annea­ler geht das Pro­blem mit War­te­zy­klen an, indem er sich das Bes­te, bereits gefun­de­ne Mini­mum merkt und den Algo­rith­mus noch ein­mal ‚aus dem Tal schubst‘ und ihm so erlaubt, die nähe­re Umge­bung wei­ter zu unter­su­chen.” Zusam­men­ge­fasst kann man daher sagen: Im Ver­gleich zu heu­te ver­füg­ba­ren Quan­ten­com­pu­tern hat der Digi­tal Annea­ler eine deut­lich höhe­re Anzahl an nutz­ba­ren Bits und eine höhe­re Prä­zi­si­on. Die tech­ni­sche Pra­xis­taug­lich­keit der Archi­tek­tur ist daher der gro­ße Vor­teil des Digi­tal Annea­lers und ermög­li­chen die Betrach­tung von indus­trie­re­le­van­ten Problemen.

Mehr Internet für alle: T-Labs und Fujitsu optimieren die Nutzung der Netzinfrastruktur-Content 1

Infrastruktur optimieren – Wie beginnt man so etwas?

„In den T‑Labs arbei­ten wir an wis­sen­schaft­li­chen Fra­ge­stel­lun­gen in Bezug auf die Tele­kom­mu­ni­ka­ti­on der Zukunft. Dabei sind wir auch auf der Suche nach neu­en Tech­no­lo­gien und Anwen­dun­gen, die einem Tele­kom­mu­ni­ka­ti­ons­dis­tri­bu­tor, also in die­sem Fall der Deut­schen Tele­kom, in den nächs­ten drei bis fünf Jah­ren einen nicht uner­heb­li­chen Vor­teil brin­gen kön­nen”, erklärt Marc Geitz die Moti­va­ti­on, den Digi­tal Annea­ler aus­zu­pro­bie­ren. „Jedes Pro­jekt, bezie­hungs­wei­se jeder Pro­of of Con­cept, beginnt damit, dass zunächst ein­mal die Pro­blem­stel­lung gemein­sam mit dem Kun­den erar­bei­tet wird. Das geschieht oft mit Hil­fe unse­res Human-Centric Co-Crea­ti­on Ansat­zes. Dabei ist es wich­tig, dass wir ver­schie­de­ne Her­aus­for­de­run­gen und Pro­zes­se beleuch­ten, denn nicht jede Fra­ge­stel­lung ist für Quan­ten Annea­ler oder Quan­tum-inspi­rier­te Tech­no­lo­gien wie den Digi­tal Annea­ler wirk­lich geeig­net. Es muss immer iden­ti­fi­ziert wer­den, ob eine bestimm­te Pro­blem­stel­lung mit einem klas­si­schen algo­rith­mi­schen Ansatz, durch einen Quan­ten Sol­ver oder Digi­tal Annea­ler gelöst wer­den kann”, beschreibt Dr. Engel die ers­ten Schritte.

„Unser Pro­blem bzw. unse­re Fra­ge­stel­lung ist nun: das Netz ist ein sehr kom­ple­xes Gebil­de. Gro­ße Städ­te sind mit Glas­fa­ser­strän­gen ver­bun­den und das heißt, wir haben hier – ähn­lich wie bei Auto­bah­nen oder Bun­des­stra­ßen auch – ver­schie­de­ne Mög­lich­kei­ten, um zum Bei­spiel von Frank­furt am Main nach Ber­lin zu gelan­gen. Wie genau müs­sen wir nun die Daten­strö­me in ihrer Gesamt­heit rou­ten, damit das Netz idea­ler­wei­se eine mitt­le­re Aus­las­tung auf allen Stre­cken erfährt. Denn in die­sem Zustand fühlt es sich am wohls­ten, wenn man es poe­tisch aus­drü­cken möch­te”, erläu­tert der Exper­te von den T‑Labs das iden­ti­fi­zier­te Pro­blem. „Dazu arbei­ten wir in einem Drei­er­ge­spann zusam­men: Fuji­tsu, wir als T‑Labs und die Fach­ab­tei­lung der Deut­schen Tele­kom, in die­sem Fall natür­lich die Kol­le­gin­nen und Kol­le­gen vom Netz­be­trieb.” Durch den regel­mä­ßi­gen, fach­über­grei­fen­den Aus­tausch gewähr­leis­tet der Co-crea­ti­on Ansatz, dass alle Stakeholder*innen eines Pro­jek­tes gese­hen wer­den und ihre Per­spek­ti­ve mit ein­brin­gen können.

Kombinatorische Optimierung: Ohne Mathematik funktioniert es nicht

Im nächs­ten Schritt muss das Pro­blem nun in Mathe­ma­tik gegos­sen wer­den. Hier kom­men die Expert*innen von Fuji­tsu zum Ein­satz, die auf dem Gebiet der kom­bi­na­to­ri­schen Opti­mie­rung für die Indus­trie bereits in ver­schie­de­nen Pro­jek­ten Erfah­run­gen sam­meln konn­ten. So erklärt Dr. Engel die nächs­ten Schrit­te: „Bei kom­bi­na­to­ri­schen Pro­ble­men geht es in der Regel um zwei Din­ge: zunächst müs­sen Ener­gie oder Kos­ten für einen bestimm­ten Ablauf mini­miert wer­den. Das erfolgt oft unter gewis­sen Bedin­gun­gen, Wenn-Dann-Bezie­hun­gen oder Fall­un­ter­schei­dun­gen. Das über­set­zen wir dann in die Spra­che der Mathe­ma­tik, idea­ler­wei­se direkt in soge­nann­te binä­re qua­dra­ti­sche Poly­no­me. Manch­mal sind dafür Zwi­schen­schrit­te erfor­der­lich, manch­mal muss das Modell ver­ein­facht wer­den – all dies sind jedoch Ent­schei­dun­gen, die immer im Wech­sel­spiel mit dem Kun­den getrof­fen und dis­ku­tiert wer­den, da die­se Zwi­schen­schrit­te erheb­lich von den rea­len Bedin­gun­gen abhängen.”

„In die­sem Zusam­men­spiel ent­steht natür­lich auch ein gro­ßer Wett­be­werbs­vor­teil für uns. Denn neben der Erpro­bung neu­er Tech­no­lo­gien und der Ein­schät­zung ihres Poten­ti­als für einen Tele­kom­mu­ni­ka­ti­ons­dis­tri­bu­tor, ler­nen wir unheim­lich viel dabei. In die­sem Fall, die Erstel­lung der kor­rek­ten mathe­ma­ti­schen Model­le, die auch Qubos (Qua­dara­tic Uncons­trai­ned Bina­ry Opti­miz­a­ti­on) genannt wer­den”, hebt Dr. Geitz her­vor. „Dadurch, dass wir jetzt bereits begin­nen die­se Model­le auf dem Digi­tal Annea­ler zu ent­wi­ckeln, haben wir bei einem zukünf­ti­gen Über­gang zum Quan­ten Annea­ler kei­ne Wrap-Up oder Trai­nings­pha­se, und kön­nen direkt durchstarten.”

Ist das Modell fer­tig, kommt der Digi­tal Annea­ler zum Ein­satz und löst die ent­spre­chen­den Algorithmen.

Was konnten wir erreichen?

„Im letz­ten Schritt eines jeden Pro­jek­tes muss der Digi­tal Annea­ler gegen die aktu­ell ver­wen­de­ten Lösun­gen beim Kun­den bestehen und zei­gen, ob und wenn ja in wel­chem Rah­men, Ver­bes­se­run­gen erzielt wur­den. Dies bezieht sich zumeist auf die benö­tig­te Rechen­zeit und die Qua­li­tät der Ergeb­nis­se”, betont Dr. Engel, „denn am Ende steht der Nut­zen für das Busi­ness des Kun­den im Vor­der­grund.” Dr. Geitz bestä­tigt: „Bei der Opti­mie­rung des Rou­tings von Daten­pa­ke­ten haben wir auch ver­schie­de­ne Metho­den und damit Model­le des Rou­tings mit­ein­an­der ver­gli­chen. So wur­den bei­spiels­wei­se Model­le für das Mul­ti­com­mo­di­ty Flow Rou­ting, das Two Seg­ment Rou­ting und Source Rou­ting erstellt.” Die Ergeb­nis­se der Zusam­men­ar­beit zwi­schen den T‑Labs und Fuji­tsu sehen bereits sehr viel­ver­spre­chend aus und unse­re Eva­lu­ie­rungs­er­geb­nis­se zei­gen, dass das Rou­ting nahe­zu opti­ma­le Ergeb­nis­se lie­fert und den­noch mit ange­mes­se­nem Auf­wand ein­setz­bar ist.

Zukünftige Projekte

Für die Zukunft sind wei­te­re Zusam­men­ar­bei­ten geplant, zum Bei­spiel im Mobil­funk: das Fre­quen­cy Assign­ment, das als eine kom­ple­xe Vari­an­te des Color-Map Pro­blems ver­stan­den wer­den kann, um zum Bei­spiel Inter­fe­ren­zen zu mini­mie­ren und damit die Gesprächs­qua­li­tät zu erhö­hen. Eben­so soll die Nut­zung des Digi­tal Annea­lers im Bereich des Maschi­nel­len Ler­nens unter­sucht wer­den. Bei­de Fir­men sind außer­dem Part­ner im vom BMWi geför­der­ten Pro­jekt Plan­QK, bei dem gemein­sam mit ande­ren Unter­neh­men und For­schungs­ein­rich­tun­gen an einer Platt­form und einem Öko­sys­tem für Quan­ten­un­ter­stüt­ze Künst­li­che Intel­li­genz gear­bei­tet wird. „Wir befin­den uns auf der Suche nach den Appli­ka­ti­ons­klas­sen im Tele­kom­mu­ni­ka­ti­ons­um­feld, die beson­ders von mög­li­chen Gewin­nen durch Quan­ten­rech­nern pro­fi­tie­ren kön­nen”, schließt Dr. Marc Geitz das Gespräch.

Wei­te­re Infor­ma­tio­nen zum Digi­tal Annea­ler fin­den Sie auf unse­rer Web­sei­te.

Schlagwörter: , , , ,

Story Page