Generative KI On-Premise nutzen und Risiken senken

Der On-Premise-Einsatz generativer KI erlebt derzeit einen Aufschwung. Der Grund: Viele Unternehmen erkennen die Vorteile moderner Künstlicher Intelligenz (KI) – scheuen aber die Risiken, die Public-Cloud-Modelle mit sich bringen.

Erinnern Sie sich noch daran, wie es nach dem Start von ChatGPT hieß, dass generative KI die Zukunft von Unternehmen massiv beeinflussen wird? Denn wenn wir die richtigen Fragen stellen, ist es sehr wahrscheinlich, dass uns die Künstliche Intelligenz die richtigen Antworten geben wird. Und mit etwas Glück kann sie uns sogar sagen, wie die richtigen Fragen lauten.

Etwa zeitgleich kam aber auch eine zweite Erkenntnis auf: Sich auf öffentliche Large-Language-Model(LLM)-Anwendungen zu verlassen, die auf einer Public-Cloud-Plattform liegen, birgt eine Reihe von Risiken. Zwar sind ihr Funktionsumfang und ihre Innovationsgeschwindigkeit hervorragend. Aber bei einer ganzen Reihe anderer Themen wird es schwierig: Genauigkeit, Verzerrungen, dem Verlust geistigen Eigentums, Datenschutz, neue Vorschriften und Compliance, unkalkulierbare rechtliche Risiken, steigende Kosten, … Alles in allem ist das eine ziemlich lange Liste von Bedenken, die ein grundlegendes Vertrauensproblem aufzeigt.

Für viele Unternehmen ist daher der Einsatz generativer KI On-Premise eine gute Alternative. Einem aktuellen Bericht zufolge entscheidet sich schon die Hälfte der dort erfassten Kund*innen für diesen Weg. Die andere Hälfte nutzt Anwendungen auf Public Clouds. Unsere Erfahrungen bestätigen diesen Trend. Wir arbeiten gemeinsam mit Kund*innen und unserem Partner-Ökosystem an diesem Thema – und konnten bereits eine On-Premise-Lösung für generative KI entwickeln. Sie ist auch auf unserem KI-Testlaufwerk verfügbar und wird dort in mehreren Proof-of-Concepts mit Kund*innen genutzt – europaweit, in verschiedenen Unternehmensgrößen und in den unterschiedlichsten Branchen.

Die Ursache des Problems

Ein Schwachpunkt von LLM ist es, dass ihr Training auf der Grundlage zwar umfangreicher, aber begrenzter Datensätze erfolgt. Wenn dabei dann zum Beispiel die Verallgemeinerung über die Spezifizät gestellt wird, beeinflusst das die potenzielle Genauigkeit. Oft gibt es zudem keine Verifizierung und es ist unklar, woher die Informationen überhaupt stammen. Außerdem können Verzerrungen in den Trainingsdaten dazu führen, dass das Modell ebenfalls verzerrte Inhalte erzeugt. Zu all diesen Risiken bei der Nutzung öffentlicher generativer KI kommen weitere durch die Natur von Public-Cloud-Plattformen hinzu: Sicherheitsrisiken, Datenschutzverletzungen, IP-Lecks oder Betriebsrisiken sind nur ein paar Beispiele.

On-Premise ist präziser

Der unternehmensinterne Einsatz eines Modells besitzt hingegen eine Reihe von Vorteilen:

  • Das Modell kann viel spezifischer an die bestehenden Regelungen für Sicherheit, Datenschutz, Datenhoheit und DR angepasst werden.
  • Eine Kontrolle der Inhalte ist möglich. Das Risiko von Verzerrungen sowie falschen oder veralteten Informationen ist deutlich geringer.
  • Das Modell kann für einzelne Anwendungsfälle angepasst werden.
  • Das Training der Künstlichen Intelligenz findet auf hochwertigen, vielfältigen und repräsentativen Daten statt.
  • Die Ergebnisse lassen sich mit anderen vertrauenswürdigen Quellen abgleichen.
  • Es ist eine direktere Aufklärung der Nutzer*innen über die Stärken und Grenzen der Künstlichen Intelligenz möglich.

Nicht zu unterschätzen ist die Tatsache, dass die Datenquellen sehr viel hochwertiger sein können und Pools umfassen, die einer öffentlichen KI nicht zur Verfügung stehen – zum Beispiel aus Informationen, die in Teams, einem Intranet oder einem Extranet gespeichert sind. Auch die Aktualisierung ist einfacher: Daten über Produkte und Dienstleistungen werden zurückgezogen oder angepasst, wenn sie sich im Laufe der Zeit ändern.

Es ist außerdem möglich, Modelle zu erstellen, die genau auf die Bedürfnisse bestimmter Geschäftsbereiche oder Abteilungen zugeschnitten sind. So könnten beispielsweise Rechts-Teams von einer Künstlichen Intelligenz beraten werden, bei der Vorschriften Vorrang vor Marketingüberlegungen haben. Stellen Sie sich vor, Sie könnten perfekt auf Ihre Bedürfnisse zugeschnittene Fragen stellen wie: „Basierend auf den aktuellsten Versionen unserer Verkaufspräsentation und unserer Marketingstrategie: Was sind die überzeugendsten Botschaften, die wir unseren Top-10-Kund*innen in den am schnellsten wachsenden Branchen im zweiten Quartal übermitteln können?“

Ein nachhaltiger Ansatz

Wir haben uns bis hierhin mit dem Vertrauen in Genauigkeit, mit Verzerrungen, dem Datenschutz und dem Thema Sicherheit auseinandergesetzt. Mindestens ebenso wichtig ist aber ein weiterer Aspekt: die Auswirkungen auf unsere Umwelt. Der weiterhin wachsende Einsatz von Künstlicher Intelligenz geht mit steigenden Energie- und Kühlungskosten einher, die sich am Ende als untragbar erweisen könnten.

Die gute Nachricht: Die meisten Anwendungsfälle in Unternehmen erfordern keine riesigen Modelle. Durch das Hosting On-Premise ist es möglich, die Modellgröße, die Leistung und die Kosten an die Bedürfnisse des jeweiligen Unternehmens anzupassen. Statt eines Ansatzes, der sich irgendwie für alle eignet – aber für viele überdimensioniert ist –, sind durchdachte On-Premise-Lösungen genau so groß, wie sie benötigt werden. Das ermöglicht einen Einklang von betrieblicher Effizienz und umfassenden ESG-Verpflichtungen.

Der Einstieg wird immer einfacher

Bei all diesen Vorteilen ist es kein Wunder, dass der On-Premise-Einsatz generativer KI so viel Aufmerksamkeit erregt. Der Einstieg wird dabei immer einfacher. So bieten wir beispielsweise Referenzarchitekturen für die Optimierung Ihrer Infrastrukturkonfiguration und -dimensionierung an. Außerdem haben wir, gemeinsam mit unseren Partnern, ein komplettes Stack in unserem Portfolio – je nach Anwendungsfall.

Benötigen Sie eine Beratung zum Einsatz eines LLM? Vielleicht möchten Sie ja endlich den Inhalt und die Auswirkungen der etwa hundert Verträge verstehen, die Ihr Betriebsteam gerade offen hat. Diese Inhalte als Datenbasis in eine Public Cloud hochzuladen, kommt natürlich nicht in Frage. Wir zeigen Ihnen gerne, wie die Alternativen aussehen und wie Sie Ihre Ideen am besten umsetzen. Auf den Fujitsu Test Drives der DX Innovation Platform bieten wir Ihnen modernste Infrastruktur- und Beratungsunterstützung, um komplexe Anforderungen zu verstehen und die Daten zu validieren und zu bewerten. So können wir gemeinsam Business Cases erstellen und die für Sie richtige Infrastruktur auswählen. Außerdem besteht die Möglichkeit eines Tests der private GPT-Lösung von Fujitsu.

Für die Kontaktaufnahme oder eine Anmeldung für die Test Drives besuchen Sie einfach unsere Webseite: https://mkt-europe.global.fujitsu.com/DX-Innovation-Content-Hub.