Künstliche Intelligenz (KI) wird einen enormen Einfluss auf unsere Gesellschaft haben. Von der Verwaltung unserer Online-Präferenzen über die Steigerung der Effizienz von Lieferketten bis hin zur Beschleunigung medizinischer Entwicklungen ist die Technologie allgegenwärtig.
Ganz wichtig ist: Ihr Einsatz darf nicht zu Diskriminierung oder ungeplanten Ergebnissen führen. Wie kann eine KI aber ethisch und sicher sein?
Wieviel Automatisierung ist zu viel?
Der Einsatz von Künstlicher Intelligenz muss zwangsweise mit den jeweiligen Datenschutzgesetzen einer Nutzernation im Einklang stehen. Hierbei wird sich zeigen, wie sich die verschiedenen Wertegemeinschaften über ein einheitliches Konzept einigen. Die Gefahr besteht hierbei in einer möglicherweise ideologisch begründeten Beeinflussung des späteren Ergebnisses einer KI. Die Frage, warum und wie entschieden wurde, muss deshalb die Grundlage aller Diskussionen und der Entwicklung künstlicher neuronaler Netze vorgeschaltet sein.
Eine weitere Herausforderung die zu Beginn neuer Technologien besteht, ist es, eine Sensibilisierung der Nutzer*innen zu schaffen. Es kann und darf nicht sein, dass eine KI dafür verwendet wird, sich der eigenen Entscheidungsverantwortung zu entziehen. Die Bediener*innen müssen für ihre Handlungen einstehen und entscheidungsfreudig bleiben. Wie dies in immer dynamischeren Situationen auf zukünftigen Gefechtsfeldern möglich sein wird, ist an die entsprechende Rechenpower von Super- und Quantencomputern gekoppelt, welche die Datenmengen nutzbar macht. Fujitsu bietet schon heute mit seinem marktverfügbaren Digital Annealing quanteninspirierte Rechenleistung.
Um also sicherzugehen, dass die Nutzung für Ihre Anwendung Vorteile bringt, müssen Sie sich die Frage stellen: Wie viel Kontrolle sind Sie bereit in die Algorithmen zu geben und zu welchem Maße sind Sie bereit, die Entscheidungsfindung und – in einem geringeren Umfang – die Verantwortung abzugeben?
Entwicklungsfragen für ein KI-Ethik-Framework
Um eine Künstliche Intelligenz ethisch und sicher zu gestalten, wird ein Framework benötigt. Aufgrund der hohen Zahl an Einsatzzwecken sollten Sie dieses immer projektbezogen definieren. Nur so wird es den jeweiligen Anforderungen auch gerecht. So wird zum Beispiel ein KI-Modell, das Spam-E-Mails filtert, weniger ethische Herausforderungen aufwerfen als eines, das gefährdete Kinder oder potenzielle Angriffsziele identifiziert.
Ein Handlungsleitfaden für den ethischen Einsatz sind diese vier zentralen Entwicklungsfragen:
1. Für welches Ziel planen Sie den Einsatz einer KI?
KI ist ein Werkzeug, das helfen kann, schnellere und im Idealfall bessere Entscheidungen zu treffen. Der Einsatzbereich entscheidet über den Stellenwert des ethischen Aspekts in der Implementierung. Dies ist zu Beginn des Projekts wichtig festzulegen. Eine Anpassung der ethischen Entscheidungsgrundsätze ist im späteren Projektverlauf deutlich herausfordernder.
2. Können Sie die Entscheidungen nachvollziehen?
Damit Künstliche Intelligenz zu einem vertrauenswürdigen Hilfsmittel werden kann, muss der Entscheidungsprozess transparent sein. Die Entwicklung innerhalb der Algorithmen muss jederzeit nachvollziehbar sein. Auch die genutzten Daten- und Informationsquellen müssen nachvollziehbar sein.
Es kann schwierig sein, die genauen Gründe für eine Entscheidung komplexer Systeme zu verstehen. Besonders in stark regulierten Branchen und Sektoren ist es essenziell, dass die maschinelle Argumentation erklärbar wird – auch, um die Verantwortlichkeiten für getroffene Entscheidungen klarzustellen. Ein integriertes Tracking für KI-Anwendungen hilft dabei, die spezifischen Datenpunkte zu identifizieren, die zu den getroffenen Empfehlungen geführt haben.
3. Können Sie es erkennen und beheben, wenn eine KI voreingenommen ist?
Eine KI wird eine Entscheidung objektiver als ein Mensch treffen, da die neuronalen Netze in der Regel keine Emotionen einfließen lassen. Diese vorausgesetzte Objektivität kann gefährlich werden, wenn aktiv oder versehentlich eine Beeinflussung zu einem anderen Ergebnis führt.
Mögliche Ursachen für eine Voreingenommenheit liegen dabei sowohl in den zu Grunde liegenden Daten selbst als auch in den Teams, die das Training durchführen. Unterrepräsentierte und unausgewogene Datensätze neigen genauso dazu, zu Verzerrungen zu führen wie zu kleine Teams. In letzterem Fall kann es passieren, dass die Algorithmen nur die Denkweise einiger weniger reflektieren, statt die eines repräsentativen Schnittes.
4. Wie sicher sind die Daten, die Sie verwenden?
Daten, die für KI-Algorithmen verwendet werden, müssen sicher sein. Sonst können Manipulationen die Ergebnisse auf Kosten der Nutzer*innen verfälschen oder gar zu unerwünschten Ergebnissen führen.
Die Trainingsphase einer Künstlichen Intelligenz wird nie alle möglichen Variationen enthalten, mit denen sich das System in der realen Welt auseinandersetzen muss. Eine Manipulation der Daten vergrößert dieses Problem. Treffen Sie daher fortlaufend aktive Maßnahmen, um die Daten und Anwendungen zu härten.
Vielfalt bei der Erstellung eines KI-Ethik-Frameworks
Eine Künstliche Intelligenz ist nur so gut wie die Daten, auf denen sie basiert. Um bessere Ergebnisse zu erzielen und eine Voreingenommenheit der KI zu vermeiden, sollte das Training daher so viele Szenarien und Nutzer*innen wie möglich enthalten. Individuen mit unterschiedlichen Fähigkeiten und Hintergründen sollten ihre Expertise einbringen. Das umfasst beispielsweise:
- Ethische Fragen
Setzen Sie ein Beratungsgremium ein, welches Diskussionsforen fördert und die daraus entstehenden Leitlinien für die Branche, die Gemeinschaft und die Regulierungsbehörden veröffentlicht. Damit stellt es sicher, dass ethische Fragen angemessen berücksichtigt werden. - Unterschiedliche Perspektiven
Beziehen Sie beim Umgang mit KI-Ethik und der Erstellung von Leitlinien eine große Bandbreite an Perspektiven ein. Ein vielfältiges Team blickt aus verschiedenen Perspektiven auf das Projekt und erkennt potenzielle Probleme frühzeitig. - Vertrauen
Kommunizieren Sie die Entwicklungen einer breiten Nutzerbasis. So wird deutlich, dass die Frage des Vertrauens in Künstliche Intelligenz ernst genommen wird. Je isolierter die KI-Tools von den zu lösenden Problemen sind, desto größer ist das Potenzial unerwünschter negativer Konsequenzen. - Feedback
KI entwickelt sich und wächst durch iterative Feedback-Schleifen und ihre Nutzung. Stellen Sie daher sicher, dass Entwickler*innen und Nutzer*innen eng zusammenarbeiten, um das System weiter auszubauen. - Ethische Codes
Fördern Sie spezifische ethisches Codes, die ständig präsent sind und teilen Sie sie mit denjenigen Mitgliedern der Community, die an ähnlichen Fällen in verschiedenen Anwendungsbereichen arbeiten. - Zusammenarbeit mit den Behörden
Um zu vermeiden, dass Regularien nicht mehr mit der technischen Entwicklung Schritt halten, sind inklusive Design-Praktiken wichtig. Kommunizieren Sie frühzeitig mit den Behörden, um die zukünftige Gesetzgebung mitzugestalten. - Kulturelle Besonderheiten
Berücksichtigen Sie bei der Implementierung, wie die Ergebnisse Ihrer KI von verschiedenen kulturellen Gruppen aufgenommen werden. Ein inklusives Design hilft, kulturelle Unterschiede zu überwinden.
KI-Ethik im Verteidigungssektor
Ein KI-Ethik-Grundsatz ist auch im Verteidigungssektor sinnvoll. Er steht aber, gerade wenn es um einen Informationsvorsprung geht, immer im Zwiespalt: mit globalen, internationalen sowie nationalen Gesetzen und Regularien, allgemeinen moralischen und ethischen Grundsätzen und, im Gegenpol dazu, dem Umgang damit durch autokratisch geführte Staaten. So entwickeln Mitarbeiter des Britischen MoD gemeinsam mit Fujitsu Experten die Grundsatzdokumente über den Einsatz von KI beim britischen Militär.
Es geht dabei nicht nur um den Einsatz autonomer Waffen. Vielmehr erstreckt sich die Nutzung von KI auch auf Anwendungen, die einen Informationsvorsprung gewährleisten sollen und solche zu Diagnostik, Cybersecurity, Lieferkettenlogistik und Anlagenwartung.
Auch im Verteidigungssektor gilt: Eine Künstliche Intelligenz ist nur so gut wie die Daten und Informationen, die ihr zur Verfügung stehen. Wir müssen den Datenquellen vertrauen können und resiliente, gehärtete Systeme aufsetzten. Abschließend wird die Entwicklung zeigen, ab und bis zu welchem Punkt der Operator im Loop verbleibt. Wir sind jedoch fest davon überzeugt, dass verfügbare Technologien im Verteidigunssektor zukünftig noch erfolgreicher zur Alarmierung und Rettung von Menschenleben auf Gefechtsfeldern eingesetzt werden können.
Fujitsu im Verteidigungssektor
Fujitsu kann Sie neben KI-Technologien auch mit Lösungen in den Bereichen RPA (Robotic Process Automation), Digital Annealing, Blockchain, globalem Assetmanagement & Tracking sowie beim Supercomputing unterstützen. Oft sind diese Anwendungen effizienter und kombinierbar, je nachdem wie sich eine Herausforderung darstellt. Gern stehen wir in diesen Bereichen mit unserer globalen zivilen und international militärischen Expertise zur Verfügung. Anfragen dazu übermitteln Sie bitte an unsere zentrale Mailadresse: defence@fujitsu.com. Unsere Experten setzen sich dann mit Ihnen in Verbindung.
Tassilo Markert-Mesters verantwortet für Fujitsu als Head of Defence Germany das Geschäft mit der Bundeswehr, BWI sowie der wehrtechnischen Industrie. Nach seiner aktiven Zeit als Soldat war er als Reserveoffizier im Planungsamt der Bundeswehr eingesetzt. Bis heute engagiert er sich als ZgFhr im Heimatschutz.