Mensch, Soldat, KI
ArtikelDeutsche Artikel

Vertrauen als kognitive Präkondition für den Erfolg

Abstract: Dieser Artikel erkundet die fundamentale Bedeutung von Vertrauen in der Welt der Softwareentwicklung, insbesondere im Kontext militärischer Anwendungen. Er argumentiert, dass das Vertrauen der Nutzer:innen in die Zuverlässigkeit und Sicherheit von Softwareanwendungen ein entscheidender Faktor für deren Erfolg ist. Zentral ist hierbei die Frage, wie Vertrauen als Grundvoraussetzung für den effektiven Einsatz von Software aufgebaut und erhalten werden kann. Der Artikel legt einen Schwerpunkt darauf, die vielschichtigen Faktoren zu beleuchten, die das Vertrauen beeinflussen, und wie diese in der Praxis berücksichtigt werden können. Durch die Betrachtung von Vertrauen aus unterschiedlichen Blickwinkeln bietet der Artikel wertvolle Einsichten für Entwickler:innen und Entscheidungsträger:innen, um ein tieferes Verständnis für die Notwendigkeit von Vertrauen und dessen Förderung zu entwickeln.

Problemdarstellung: Welche Faktoren beeinflussen das Vertrauen in autonome Systeme und künstliche Intelligenz im militärischen Kontext?

Was nun?: Für den Erfolg sensibler Software, besonders im militärischen Kontext, ist ein gezielter Vertrauensaufbau essenziell. Entwickler:innen und Entscheidungsträger:innen sollten Transparenz, Zuverlässigkeit, Sicherheit und Benutzerfreundlichkeit priorisieren. Dies erfordert kontinuierliche Qualitätssicherung, Nutzer:inneneinbindung und ethische Reflexion, um Akzeptanz und Effektivität sicherzustellen.

Source: shutterstok.com/Gorodenkoff

Vertrauen und Vertrauensaufbau

Im Bereich der Technologie und insbesondere bei der Softwareentwicklung ist das Vertrauen der Nutzer:innen in die Zuverlässigkeit und Sicherheit der Anwendungen von entscheidender Bedeutung für den Erfolg der Produkte. Ein Mangel an Vertrauen kann zu einer Ablehnung der Software und einer daraus resultierenden schlechten Nutzerakzeptanz führen. Dies ist besonders kritisch, wenn es um militärische Anwendungen geht, wo die Folgen von Fehlern verheerend sein können.

In diesem Kontext stellt sich die Frage, wie Vertrauen als Präkondition für den erfolgreichen Einsatz von Software, insbesondere im militärischen Bereich, aufgebaut werden kann. Es ist wichtig, die Faktoren zu identifizieren, die das Vertrauen der Nutzer beeinflussen und zu verstehen, wie diese Faktoren berücksichtigt werden können, um das Vertrauen zu fördern. Ein weiteres Ziel ist es, zu untersuchen, wie Vertrauen in Softwareanwendungen in militärischen Szenarien aufgebaut und aufrechterhalten werden kann.

Es ist wichtig, die Faktoren zu identifizieren, die das Vertrauen der Nutzer beeinflussen und zu verstehen, wie diese Faktoren berücksichtigt werden können, um das Vertrauen zu fördern.

In diesem Forschungsartikel werden daher die zentralen Aspekte des Vertrauens und des Vertrauensaufbaus im Kontext der Softwareentwicklung und des militärischen Einsatzes von Technologie diskutiert. Dabei werden insbesondere die Faktoren untersucht, die das Vertrauen beeinflussen und wie diese Faktoren in der Softwareentwicklung und im militärischen Kontext berücksichtigt werden können. Ziel dieses Artikels ist es, die Leserinnen und Leser für die Bedeutung von Vertrauen in der Softwareentwicklung, insbesondere im militärischen Kontext, zu sensibilisieren. Es soll verdeutlicht werden, wie Vertrauen aufgebaut und aufrechterhalten werden kann und welche Rolle es für den Erfolg von Technologieprodukten spielt. Die Erkenntnisse sollen dazu beitragen, dass Softwareentwickler:innen sowie Entscheidungsträger:innen im militärischen Bereich die Bedeutung von Vertrauen und Vertrauensaufbau besser verstehen und entsprechende Maßnahmen ergreifen können.

Vertrauen als Präkondition

Der Begriff Vertrauen

Derzeit erfährt die sozialwissenschaftliche Debatte zum Begriff des Vertrauens einen Aufschwung, obwohl die zentrale Thematik bereits zu Beginn des 20. Jahrhunderts wissenschaftlich untersucht worden ist. Im Zeitraum dazwischen wird der Begriff in der Literatur vernachlässigt und taucht erst zur Jahrtausendwende vermehrt und mit diskussionswürdiger Intensität auf. Die Betrachtung von Vertrauen kann aus verschiedenen Perspektiven erfolgen. Es existieren jedoch bestimmte Elemente, die eine gemeinsame Basis bilden und eine Definition von Vertrauen ermöglichen. Dabei sind zwei Dimensionen von Vertrauen festzustellen: Zunächst handelt es sich um die Situation, in der eine Person mehr verlieren als gewinnen kann, wodurch Vertrauende einem Risiko ausgesetzt sind. Darüber hinaus vertieft sich das Vertrauen, wenn Vertrauensgebende ihre Verletzlichkeit erhöhen und sich Vertrauensnehmern ausliefern. Der Grund dafür ist die positive Erwartung, nicht zum Nachteil der Vertrauenden ausgenutzt zu werden. Dieses mehrdimensionale Modell bezieht sich nicht nur auf zwischenmenschliche Vertrauensbeziehungen, sondern kann auch auf Vertrauen in Institutionen oder Vertrauen in Technologie angewendet werden.[1]

Zustandekommen von Vertrauen

Um den Ursprung des Vertrauens zu verstehen, ist es notwendig, die Entwicklung des Menschen im Kleinkindalter zu betrachten. In diesem Lebensabschnitt bildet sich eine sichere Bindung zu einer wichtigen Bezugsperson, die die Grundlage für die Entwicklung von zwischenmenschlichen Beziehungen im späteren Leben legt. Ein sicherer Bindungsstil entsteht, wenn die Eltern auf die Bedürfnisse des Kindes eingehen und seine Entwicklung fördern. Im Gegensatz dazu kann ein unsicherer Bindungsstil entstehen, wenn die Eltern das Kind vernachlässigen oder übertrieben auf seine Bedürfnisse reagieren.

Es gibt drei Haupttypen von Bindungsstilen: sicher, vermeidend und ängstlich-ambivalent, die sich aus den Sozialisierungserfahrungen des Kindes ergeben. Der ängstlich-ambivalente Bindungsstil ist durch häufiges Suchen der Nähe der Mutter und starke Angstgefühle gekennzeichnet, die schon bei geringfügigen Anlässen ausgelöst werden. Das Kind reagiert oft emotional aufgewühlt und kann Schwierigkeiten haben, Trost von anderen Bezugspersonen als der Mutter anzunehmen. Im Gegensatz dazu suchen sichere Kinder gelegentlich die Nähe ihrer Mutter, während sie sich mit Spiel und Erkunden der Umwelt beschäftigen. Obwohl es, weltweit betrachtet, in den verschiedenen Regionen kulturelle Differenzen gibt, zeigen vergleichende Studien, dass die Ähnlichkeiten zwischen den Bindungsstilen in verschiedenen Ethnien und Gesellschaften, gegenüber den Unterschieden überwiegen. Insgesamt legt die Bindungstheorie nahe, dass die Art und Qualität der Beziehung, die ein Mensch in seiner frühen Kindheit erfahren hat, einen wesentlichen Einfluss auf die Fähigkeit hat, Vertrauen in zwischenmenschliche Beziehungen aufzubauen.[2]

Zwischenmenschliches Vertrauen

Vertrauen ist ein allgegenwärtiges Phänomen in allen Bereichen des Lebens, vor allem in zwischenmenschlichen Belangen. Dabei spielt das Vertrauen, in all seinen Stufen, eine große Rolle in der Teamfähigkeit von Personen, wobei man in der Berufswelt zwei verschiedene Richtungen des Vertrauens unterscheiden muss. Einerseits das Vertrauen Vorgesetzter in Untergebene, andererseits im Umkehrschluss das Vertrauen der Untergebenen in Vorgesetzte. Hierbei zeigt sich, dass, wenn ein Grundvertrauen von der höheren Ebene in die Mitarbeiterebene vorliegt, diese auch ein größeres Vertrauen in ihre Führung hat.[3]

Vertrauen ist ein allgegenwärtiges Phänomen in allen Bereichen des Lebens, vor allem in zwischenmenschlichen Belangen.

Vertrauen steht immer in Bezug zu einem möglichen Risiko, im sozialen Bereich bedeutet das, dass man bei einem Missbrauch von Vertrauen einer manipulativen Absicht des Gegenübers ausgesetzt ist.[4]

Stufen des Vertrauens

Vertrauen von Mensch zu Mensch

Zunächst bilden persönliche Faktoren die Basis für Vertrauen, wobei gemeinsame Sprache, Einstellungen, kulturelle Werte, Freizeitgestaltung oder Lebensverläufe zu Beziehungen führen können. Allerdings ist diese Voraussetzung nicht immer gegeben, beispielsweise aufgrund regionaler Diskrepanzen in Brauchtum. Der Beziehungsaufbau erfordert daher viel Arbeit, um die erste Stufe des Vertrauens, das Fundament einer jeden Vertrauensbeziehung, zu erreichen. Der persönliche Kontakt zwischen den handelnden Personen ist grundsätzlich von Bedeutung, um erkennbare Muster zu schaffen und wechselseitiges Verständnis zu erlangen. Dabei ist zu beachten, dass Ängste und Konflikte auf einer unsichtbaren und nicht ausgesprochenen Ebene der Vertrauensbeziehung bleiben und den Beziehungsaufbau erschweren können. In der initiativen Phase der Vertrauensbildung geht es primär um die grundlegenden Einstellungen einer Person zu bestimmten Themengebieten und nicht um konkrete Inhalte oder Handlungen. Insgesamt erfordert der Aufbau von Vertrauen eine kontinuierliche Anstrengung beider agierenden Seiten.[5]

Die zweite Phase gleicht einer Strategieentwicklung, wobei beide Seiten eine Analyse zu spezifischen Absichten des Anderen anstellen. Der Grundstein jeder Vertrauensbeziehung liegt in diesem Abschnitt, da es zu keiner vertraulichen Bindung kommt, wenn die Ziele des gemeinsamen Zusammenwirkens zu weit auseinanderliegen. In der darauffolgenden Phase kommt es zur Konkretisierung, wer welchen Teil im vorliegenden System übernimmt. In der vierten Phase einer Kooperation zwischen Individuen wird die operative Zusammenarbeit gestartet, wobei jede beteiligte Person unterschiedliche Aufgaben übernimmt, die im Vorfeld klar definiert werden. Hierbei manifestiert sich das Verhalten der Involvierten im Einklang mit den gemeinsamen Zielen und Interessen. Eine präzise Abstimmung der Handlungen ist in dieser Phase von entscheidender Bedeutung, die eine klare und einheitliche Sprache sowie eine transparente Kommunikation einschließt. In der fünften Phase des Zusammenwirkens steigt die Effizienz und Produktivität. Eine vertrauensvolle Basis zwischen den Parteien ermöglicht es der einen Person Eigenständigkeit zu entwickeln, während die andere Person eine Form der Entlastung spürt. Offenheit und Mut erreichen in dieser finalen Phase des Vertrauens ihre maximale Ausprägung.[6]

Vertrauen von Mensch zu Maschine

Im beruflichen Alltag sind Computersysteme und elektronische Geräte unverzichtbar geworden. Sie steuern die Abläufe in Unternehmen, erleichtern die Arbeit und ermöglichen eine höhere Effizienz. Allerdings hängt die reibungslose Funktion dieser Technologien von vielen Einzelkomponenten ab, wie beispielsweise der Zuverlässigkeit der Hardware, der Leistungsfähigkeit der Software und der Qualität der Datenbanken. In der Interaktion zwischen Mensch und Technologie spielt das Konzept des Vertrauens eine wichtige Rolle, insbesondere im Zusammenhang mit vollautonomen Systemen. Vertrauen in solche Techniken wird durch verschiedene Faktoren beeinflusst, darunter die Nutzererfahrung und die Bedeutung der technischen Einrichtung für Nutzer:innen.[7]

Im beruflichen Alltag sind Computersysteme und elektronische Geräte unverzichtbar geworden. Sie steuern die Abläufe in Unternehmen, erleichtern die Arbeit und ermöglichen eine höhere Effizienz.

Das vorliegenden Basisvertrauen ist solange präsent, bis das erste Mal Fehlfunktionalitäten auftreten und dabei nicht zufriedenstellende Resultate erzielt werden, oder ganze Prozesse zum Stillstand gebracht werden.[8]

Menschliche Fehler als auch technische Fehlfunktionen, können jedoch das Vertrauen in Computersysteme beeinträchtigen, was dazu führen kann, dass sie als unvorhersehbar und undurchsichtig empfunden werden.[9]

Um das Vertrauen in digitale Systeme zu erhöhen, sollten bei der Gestaltung der Technologie soziale und organisatorische Faktoren sowie die technische Funktionalität berücksichtigt werden. Eine sozio-technische Perspektive kann dazu beitragen, das Vertrauen der Nutzer:innen zu gewinnen. Verschiedene Designprinzipien können dazu beitragen, das Vertrauen in Computersysteme zu erhöhen. Insgesamt ist das Vertrauen in digitale Technologien eine komplexe Angelegenheit, die von vielen Aspekten beeinflusst wird, und erfordert eine multidisziplinäre Herangehensweise zur Bewältigung dieser Herausforderung.[10]

Die qualitative Einstufung eines Systems

Nachdem Personen dazu neigen zu ihren Geräten und Maschinen eine Art von zwischenmenschlicher Beziehung aufzubauen, ist es wichtig, dass das Individuum sich mit der Marke identifiziert, da sonst die erste Stufe des Vertrauens, gleich den zwischenmenschlichen Beziehungen, nicht aufgebaut werden kann. Bei einem unbekannten Hersteller herrscht zwar ein Basisvertrauen in die Technologie, welches aber beim ersten Versagen, oder Nichtentsprechen der Erwartung, schnell wieder minimiert werden kann. Durch das Zurückgreifen auf Bekanntes werden die Stufen des Vertrauens in das System schneller durchlaufen, oder sogar übersprungen und man endet rasch in der erwünschten Endstufe.[11]

Software

Der Begriff der Software umfasst mehrere Bestandteile. Der Kern ist das Computerprogramm selbst. Zusätzlich besteht die Software aus Datenstrukturen, die zur Bearbeitung der Informationen dienen. Um letztendlich die Software wartbar zu gestalten, werden sämtliche Eigenschaften und Funktionen einer Software angemessen dokumentiert.[12]

Software erscheint im Zusammenhang mit verschiedensten Domänen. Das sind unter anderem Anwendungssoftware, System-Software, Web-/Mobilapplikationen und Software gestützt durch künstliche Intelligenz. KI-Software nutzt Heuristiken, um verschiedenste Problemstellungen zu lösen. Meist ist bei solchen Problemstellungen die Anwendung von einfachen Berechnungen keine proprietäre Vorgangsweise. KI-Software wird beispielsweise bei maschinellem Lernen, Spielen oder auch im Bereich der Entscheidungsfindung eingesetzt.[13]

Softwareengineering

Engineering beschreibt den Prozess, bei dem mithilfe wissenschaftlicher und mathematischer Prinzipien die Eigenschaften der Materie sowie natürliche Energiequellen analysiert werden, um sie auf eine effektive Art und Weise zu verwenden. Das Ziel besteht darin, Strukturen, Maschinen, Produkte, Systeme und Prozesse zu entwickeln, die dem Menschen von Nutzen sind.[14]

Engineering beschreibt den Prozess, bei dem mithilfe wissenschaftlicher und mathematischer Prinzipien die Eigenschaften der Materie sowie natürliche Energiequellen analysiert werden, um sie auf eine effektive Art und Weise zu verwenden.

Eine Synthese der vorangegangenen Definitionen von Software und Engineering sowie die Berücksichtigung der Definition des Institute of Electrical and Electronics Engineers (IEEE) ergibt, dass Softwareengineering ein systematischer und disziplinierter Prozess ist, der sich auf die Entwicklung, den Betrieb und die Wartung von Software durch die Anwendung mathematischer und wissenschaftlicher Prinzipien konzentriert.[15] Das Ziel besteht darin, die Funktionen des Systems an die Anforderungen und Bedürfnisse der Benutzer:innen anzupassen und es für den menschlichen Gebrauch geeignet zu machen. Darüber hinaus umfasst Softwareengineering auch die Dokumentation und Verwaltung von Softwareprojekten sowie die Qualitätssicherung und die Einhaltung von Standards, um die Zuverlässigkeit, Wartbarkeit und Benutzerfreundlichkeit der Software zu gewährleisten.[16]

Softwaredesign

Das Design von Software erfordert ein tiefgreifendes Verständnis zweier Bereiche: Mensch und Computer. Auf der einen Seite müssen die psychologischen und sozialen Aspekte des menschlichen Verhaltens sowie mögliche Fehler bei der Verwendung der Software berücksichtigt werden. Auf der anderen Seite ist es ebenso wichtig, die technischen Möglichkeiten zu verstehen und zu wissen, was umsetzbar ist. Die Softwareentwicklung beinhaltet somit nicht nur das Verfassen von unzähligen Code-Zeilen, sondern auch die Untersuchung der menschlichen Komponente.[17]

Nutzbarkeit von Software

Die Lesbarkeit und somit die Nutzbarkeit von Software sind von großer Bedeutung, um eine möglichst breite Zielgruppe zu erreichen und indirekt eine Vertrauensbasis zu schaffen. Eine Methode zur Verbesserung der Effizienz von Software besteht in der Anwendung einer grafischen Benutzeroberfläche, die üblicherweise als GUI (Graphical User Interface) bezeichnet wird. Diese kann dazu beitragen, dass die Anwender:innen die Funktionen der Software schneller und einfacher nutzen können. Jedoch reicht es nicht aus, einfach eine GUI zu implementieren. Um die Benutzung der Software zu optimieren, müssen auch die Anordnung und das Design der Elemente in der GUI optimiert werden. In diesem Kontext spielen Grundsätze wie Leichtigkeit, Flexibilität und Robustheit eine wesentliche Rolle.[18], [19]

Leichtigkeit

Interaktive Systeme sollen leicht verständlich und einfach zu nutzen sein, besonders für unerfahrene Benutzer:innen. Dies macht sich beispielsweise durch für sich selbst sprechende Schaltflächen wie „Absenden“ oder einfache Beschreibungen der Elemente einer grafischen Oberfläche bemerkbar. Dem Grundsatz der Leichtigkeit kommt hierbei eine bedeutende Rolle zu. Insbesondere werden dabei die Eigenschaften Vorhersehbarkeit, Rekonstruierbarkeit, Vertrautheit, Generalisierbarkeit und Konsistenz betont. Weist eine Software all jene Eigenschaften auf, kann sie auch als leicht bedienbar eingestuft werden.[20]

Interaktive Systeme sollen leicht verständlich und einfach zu nutzen sein, besonders für unerfahrene Benutzer:innen.

Vorhersehbarkeit unterstützt Benutzer:innen bei der Bestimmung der Auswirkungen seiner Aktionen aufgrund vorangegangener Interaktionen oder Informationen. Rekonstruierbarkeit hilft Anwender:innen bei der Bewertung der Auswirkungen vergangener Operationen auf den aktuellen Zustand. Vertrautheit beschreibt den Grad, in dem Benutzer:innen Wissen und Erfahrung aus anderen Bereichen auf die Interaktion mit dem neuen System anwenden können. Generalisierbarkeit ermöglicht die Erweiterung des Wissens über spezifische Interaktionen in Anwendungen auf andere ähnliche Situationen. Konsistenz besteht, wenn ein Zusammenhang im Eingabe-Ausgabe-Verhalten bei ähnlichen Situationen oder Aufgabenzielen erkennbar ist.[21]

Flexibilität

Im Kontext des Flexibilitätsgrundsatzes gibt es verschiedene Merkmale, die eine Software besitzen sollte, um eine Vielzahl von Interaktionsmöglichkeiten mit dem System durch Endbenutzer:innen zu gewährleisten. Eine dieser Eigenschaften ist die Dialoginitiative, bei der die Software Benutzer:innen die Informationseingabe ohne Einschränkungen überlässt. Jedoch kann das System Benutzer:innen bei der Eingabe von Informationen unterstützen, indem es beispielsweise aufgrund seiner vorherigen Eingaben oder Präferenzen Vorschläge unterbreitet. Eine weitere wichtige Eigenschaft ist die Multithreading-Fähigkeit, welche es der Anwendung erlaubt, mehrere Benutzerinteraktionen oder Aufgaben, die durch eine einzelne Interaktion ausgelöst werden, gleichzeitig auszuführen und zu unterstützen. [22]

Die Aufgabenteilbarkeit ist ein weiteres Merkmal der Flexibilität. Es beschreibt die Möglichkeit der Segregation der Verantwortung von Aufgaben zwischen Benutzer:innen und dem System. Demnach sollte es möglich sein, die Kontrolle vollständig dem System oder Benutzer:innen zu überlassen oder die Kontrolle zwischen beiden zu teilen. Substituierbarkeit bezieht sich darauf, dass die Software in der Lage sein sollte, beispielsweise Werte unterschiedlicher Maßeinheiten selbstständig anzupassen. Schließlich ist auch die Anpassungsfähigkeit der Benutzeroberfläche durch Benutzer:innen oder das System eine wichtige Eigenschaft, um eine maximale Flexibilität zu erreichen. Diese beschreibt, wie die Software mit unterschiedlichen Bildschirmgrößen und Endgerätetypen wie Desktop-PCs mit Monitoren, Tablets oder Smartphones umgehen sollte.[23]

Robustheit

Um eine robuste Interaktion zwischen Benutzer:innen und System zu ermöglichen, sollte die Software bestimmte Merkmale aufweisen. Dazu gehört die Beobachtbarkeit, die Wiederherstellbarkeit, die Reaktionsfähigkeit und die Aufgabenkonformität.[24]

Beobachtbarkeit heißt, dass das System Benutzer:innen jederzeit Informationen über  aktuellen Zustand und Tätigkeiten liefern können sollte. Dadurch können Benutzer:innen besser einschätzen, ob das System den Erwartungen entspricht. Fehler können immer wieder auftreten, und das System sollte im Sinne der Wiederherstellbarkeit in der Lage sein, sie zu erkennen, zu korrigieren und, wenn notwendig, sich selbst zu reparieren beziehungsweise in einen früheren Zustand zurückkehren. Robustheit heißt auch stets reaktionsfähig zu bleiben. Damit ist gemeint, dass schnell auf Eingaben der Benutzer:innen reagiert und diesen Feedback gegeben werden sollte. Letztlich ist die Aufgabenkonformität eine wichtige Eigenschaft eines flexiblen Systems. Ein robustes System sollte die Bedürfnisse und Anforderungen der Benutzer:innen verstehen und darauf reagieren können, um eine erfolgreiche Interaktion sicherzustellen. Als Beispiel hierfür können Suchmaschinen angeführt werden, welche die Eigenschaft aufweisen, anhand bestimmter Algorithmen die Suchvorschläge auf Benutzer:innen abzustimmen.[25]

Robustheit heißt auch stets reaktionsfähig zu bleiben. Damit ist gemeint, dass schnell auf Eingaben der Benutzer:innen reagiert und diesen Feedback gegeben werden sollte.

Anforderungen für das Vertrauen

Die Nutzbarkeit von Software ist eine grundlegende Voraussetzung, um eine Vertrauensbasis zwischen Nutzer:innen und dem System aufzubauen. Um das Vertrauen in Software und Systeme zu gewinnen, sind neben der Erfahrung und den Präferenzen der Nutzer:innen auch andere Faktoren von Bedeutung. Hierbei handelt es sich insbesondere um die Qualität, Korrektheit, Sicherheit und Privatsphäre der Anwendung. Einige dieser Faktoren spiegeln sich in den Designgrundsätzen des Softwareengineering wider. Qualität bedeutet, dass die Software stets zuverlässig und performant arbeiten sollte. Korrektheit ist dann gegeben, wenn die Anwendung Aufgaben erwartungsgemäß ausführt. Sicherheit ist ein weiteres wichtiges Merkmal, das sicherstellt, dass nur autorisierte Personen Zugriff auf das System haben. Abschließend ist zu beachten, dass eine angemessene Wahrung der Privatsphäre in Bezug auf den Schutz persönlicher Daten sichergestellt werden sollte. Wenn eine Software all diesen Faktoren gerecht wird, kann davon ausgegangen werden, dass ein hohes Maß an Vertrauen zwischen Benutzer:innen und System herrscht.[26]

Besonderheiten bei Software für herausfordernde Einsatzgebiete

Die Thematik des allgemeinen Informationsüberschusses stellt in der heutigen digitalisierten Gesellschaft ein weit verbreitetes Problem dar. In herausfordernden Einsatzgebieten wie der Medizin, dem autonomen Transportwesen oder militärischen Szenarien spielt der Detaillierungsgrad der Informationen eine bedeutende Rolle, da essenzielle Entscheidungen in Echtzeit getroffen werden müssen. Um in solchen dynamischen Umgebungen agieren zu können, müssen Organisationen und Einzelpersonen in der Lage sein, schnell und präzise Entscheidungen zu treffen, die auf den relevantesten Informationen basieren.

Der OODA-Loop-Prozess (Observe-Orient-Decide-Act) hat seinen Ursprung im militärischen Kontext und findet mittlerweile Anwendung in vielerlei anspruchsvollen Anwendungsbereichen. Ziel des OODA-Loop-Prozesses ist die Verbesserung der schnellen und präzisen Entscheidungsfähigkeit. Dies wird durch die kontinuierliche Wiederholung der vier Schritte erreicht, beginnend mit Observe, gefolgt von Orient, Decide und Act. Dabei ist der Prozess darauf ausgerichtet, eine iterative und adaptive Herangehensweise an Entscheidungen zu fördern, indem jede Phase auf den Ergebnissen der vorherigen Phase aufbaut. Observe und Orient dienen der Analyse der aktuellen Situation, während Decide sich auf die Wahl der am besten geeigneten Handlungsoptionen bezieht und Act sich auf die Umsetzung der Entscheidung in die Praxis bezieht. Durch die konsequente Anwendung des OODA-Loop-Prozesses können Organisationen und Einzelpersonen schnell auf Veränderungen in der Umgebung reagieren und ihre Entscheidungsprozesse effektiver und effizienter gestalten.[27], [28]

Ziel des OODA-Loop-Prozesses ist die Verbesserung der schnellen und präzisen Entscheidungsfähigkeit.

Wie bereits dargelegt, sind die Phasen Observe und Orient im OODA-Loop-Prozess von entscheidender Bedeutung für die Analyse der aktuellen Lage. Die Fähigkeit, relevante Informationen schnell und effektiv zu filtern und zu verarbeiten, ist eine wichtige Fertigkeit, die innerhalb des Entscheidungsfindungsprozesses vorhanden sein muss. Je nach Führungsebene, obliegt der gesamte Prozess einer einzigen militärischen Führungskraft oder aber einem Team von solchen. In einer Umgebung, in der komplexe Informationen schnell verarbeitet werden müssen, ist es unerlässlich, dass eine unterstützende Software in der Lage ist, die Informationsmenge effektiv zu visualisieren und gleichzeitig die Überforderung der Nutzer:innen zu vermeiden. Eine solche Software kann dazu beitragen, die Analysephase des OODA-Loop-Prozesses zu verbessern und damit die Entscheidungsfindung im militärischen Kontext zu optimieren.[29]

Varianz in der Bewertung von KI-Software in militärischen Szenarien

Im internationalen Kontext zeigt sich eine erhebliche Varianz in der Bewertung der Anwendung von KI-Software in anspruchsvollen Einsatzgebieten, beeinflusst durch kulturelle und moralische Wertvorstellungen.

In den Vereinigten Staaten liegt die grundsätzliche Entscheidungsbefugnis zur Freigabe von automatisiertem und autonomem Handeln derzeit beim Präsidenten. Diese Befugnis wurde im Irak- und Afghanistan-Krieg sogar bis auf die Ebene der Brigadekommandanten delegiert. [30] Ein völlig autonomes Wirken eines Waffensystems wäre somit im Rahmen von Einsätzen der Vereinigten Staaten denkbar.

Die Europäische Union legt ihren Mitgliedsstaaten die Verpflichtung auf, beim Einsatz von KI-Systemen eine signifikante menschliche Kontrolle sicherzustellen. Diese soll es einem Menschen ermöglichen, bei unerwartetem Verhalten jederzeit einzugreifen, um es zu korrigieren oder zu beenden. Die Perspektive auf die menschliche Kontrolle bietet den Mitgliedsstaaten jedoch Raum für Interpretationen. Dies impliziert, dass die Legitimierung des Einsatzes entweder durch die physische Anwesenheit einer Person vor Ort oder durch eine systemgestützte Überwachung aus der Ferne erfolgen kann.[31]

Die Europäische Union legt ihren Mitgliedsstaaten die Verpflichtung auf, beim Einsatz von KI-Systemen eine signifikante menschliche Kontrolle sicherzustellen.

Diese grundlegend unterschiedlichen Herangehensweisen spiegeln die Vielfalt der internationalen Perspektiven auf den Einsatz von KI-Software in militärischen Kontexten wider. Dabei liegt der Fokus auf potenziellen seitlichen Auswirkungen auf Individuen. In der Entscheidungsfindung müssen nicht nur die Effektivität und eine optimale Visualisierung berücksichtigt werden, sondern auch die juristischen Rahmenbedingungen eingehend in Betracht gezogen werden.

Militärischer Anwendungsfall

Relevanz von Entscheidungen beim Militär

Entscheidungsfindung ist ein zentrales Element im militärischen Umfeld. Im Militär sind Entscheidungen häufig mit Unsicherheiten und Risiken verbunden. Daher ist Risikomanagement ein unverzichtbarer Bestandteil der militärischen Entscheidungsfindung.

Risikomanagement ist ein organisatorischer Prozess, der dazu beiträgt, potenzielle Risiken zu identifizieren, zu bewerten und angemessene Entscheidungen im Umgang mit diesen Risiken zu treffen. Im militärischen Kontext bezieht sich dies auf die Fähigkeit, Entscheidungen unter Berücksichtigung verschiedener Unsicherheiten und Risiken zu treffen, die aufgrund der oftmals dynamischen und schnelllebigen Natur von Militäroperationen entstehen.[32]

Um bessere Entscheidungen zu treffen, setzen militärische Führungskräfte verschiedene Methoden zur Bewertung, Evaluierung und Messung von Risiken ein. Dazu gehören quantitative Ansätze sowie subjektive Methoden, die alle dazu beitragen, die menschliche Entscheidungsfindung zu unterstützen. Dabei sind Effizienz und Effektivität zentrale Aspekte der Entscheidungsfindung, die durch die Qualität der verfügbaren Informationen, die Organisation der Entscheidungsstrukturen und die Fähigkeiten der beteiligten Personen beeinflusst werden.[33]

Ein Ansatz zur Verbesserung der Effizienz und Effektivität von Entscheidungen im Militär ist der Einsatz von Technologie. Moderne Informationssysteme, Sensoren und KI können dazu beitragen, die Qualität und Verfügbarkeit von Informationen zu verbessern und so die Entscheidungsfindung zu unterstützen. KI-basierte Systeme können auch dazu beitragen, die Informationsverarbeitung zu beschleunigen und Entscheidungsträger bei der Identifizierung von Risiken und Chancen zu unterstützen.[34]

Moderne Informationssysteme, Sensoren und KI können dazu beitragen, die Qualität und Verfügbarkeit von Informationen zu verbessern und so die Entscheidungsfindung zu unterstützen.

Trotz dieser technologischen Fortschritte bleibt die Rolle des menschlichen Entscheidungsträgers von zentraler Bedeutung. In vielen Situationen ist menschliches Urteilsvermögen und Expertise unerlässlich, um die Komplexität von militärischen Entscheidungen zu bewältigen. Die ethischen, moralischen und rechtlichen Dimensionen erfordern Ausbildung, Erfahrung und die Fähigkeit, unter Druck zu arbeiten. Diese Aspekte sind entscheidend und haben einen messbaren Einfluss auf die erfolgreiche Umsetzung von Risikomanagement und Entscheidungsfindung im militärischen Kontext.[35]

Militärischer Entscheidungsfindungsprozess

In der Ära hybrider Gefahren und komplexer Herausforderungen ist eine Erweiterung des Führungskonzeptes von Streitkräften hin zu einer flexiblen, in alle Richtungen und Dimensionen ausgedehnten Kampfführung erforderlich. Dabei ist es wichtig, Eigeninitiative und Anpassungsfähigkeit zu betonen, insbesondere aufgrund der Wechselwirkungen zwischen den Domänen Land, Luft, Meer, Welt- und Cyberraum. Der Einsatz von neuen Technologien wie Drohnen, KI und autonomen Waffensystemen macht das Schlachtfeld vielschichtiger. Dies erfordert systematisches Denken und den effizienten Umgang mit Risiken in der militärischen Entscheidungsfindung.[36]!!

Militärische Entscheidungsträger:innen müssen in der Lage sein, unter extremen Bedingungen, sowohl physiologischer als auch psychologischer Natur, zu agieren. Unsicherheit, Komplexität, Zeitdruck und Verantwortung, um innerhalb eines Rahmens von strategischen, ethischen, moralischen und rechtlichen Grenzen handeln zu können, prägen den Alltag im militärischen Umfeld.[37]

Der Military Decision Making Process, in weiterer Folge als MDMP bezeichnetMilitärische Entscheidungsfindungsprozesse sind rational-methodische Prozesse, die von Führungskräften des Militärs angewendet werden um angesichts der, in den vorangegangenen Ausführungen beschriebenen Situationen, eine rasche und, je nach individueller Kompetenz, auch die möglichst beste Entscheidung zu finden. Verwendung findet dieses Instrument vor allem zur Lösung taktischer Probleme zur zeitnahen Findung von qualitativ hochwertigen Entscheidungen.[38], [39]

Human-Machine-Teaming (HMT)

HMT wird als eine zweckmäßige Zusammenarbeit von menschlichen und cyber-physischen Elementen definiert, die gemeinsame Ziele verfolgen, die für den einzelnen beider Komponenten unerreichbar sind. Daraus ergibt sich final eine Teamstruktur, die darauf abzielt, die gegenseitigen Stärken bestmöglich zu nutzen und dabei gleichzeitig Einschränkungen in der Zielverfolgung zu umgehen.[40]

HMT wird als eine zweckmäßige Zusammenarbeit von menschlichen und cyber-physischen Elementen definiert, die gemeinsame Ziele verfolgen, die für den einzelnen beider Komponenten unerreichbar sind.

Die dadurch entstehende Autonomie des benutzten Systems kann in 3 Hauptkategorien unterteilt werden:

  • Human-in-the-loop (HITL),
  • Human-on-the-loop (HOTL) und
  • Human-out-of-the-loop (HOOTL).[41]

Diese werden in den folgenden Ausführungen definiert und in Bezug auf den militärischen Anwendungsfall genauer erläutert.

Human-In-The-Loop (HITL)

HITL-Systeme sind Maschinen, die eine Aufgabe oder einen Prozess für einen festgelegten Zeitraum ausführen und nach Beendigung einen menschlichen Befehl einfordern, bevor sie weiter fortfahren können.[42] In vielen Anwendungsbereichen von Software ist ein vollständig autonom arbeitendes System zu restriktiv, umständlich, teuer oder langsam. Zusätzlich sind viele Prozesse darauf angewiesen, dass der Mensch während der Ausführung kritische Sicherheitsfunktionen ausführt.[43]

Die Rolle des Menschen in militärischer Hinsicht könnte darin bestehen, die Entscheidungen, die von einer KI-Software im Zuge einer Beurteilung im Rahmen des Entscheidungsfindungsprozesses generiert werden, zu validieren und gegebenenfalls auch zu korrigieren. Die KI liefert hierbei umfangreiche Möglichkeiten zur Lösung einer Problemstellung und bewertet diese hinsichtlich der Erfolgswahrscheinlichkeit, überlässt aber Bediener:innen die Entscheidung, welche dieser Möglichkeiten letztendlich gewählt wird.

Weiters ist die Einbindung des Menschen in den Prozess als sinnvoll zu erachten, da KI-Technologie aktuell nicht in der Lage ist, menschliche Empathie, moralische Überlegungen oder kulturelle Faktoren zu berücksichtigen, diese bei militärischen Einsätzen aber höchste Relevanz haben. HITL-Systeme sollen nicht nur schnellere, und durch den Zeitgewinn letztendlich auch qualitativ bessere, Ergebnisse liefern, sondern durch die direkte menschliche Integration auch das Vertrauen erhöhen. Die Leistung wird optimiert, Daten werden ergänzt und die Sicherheit des Systems erhöht, ohne den Menschen dadurch in seiner Entscheidungsfähigkeit einzuschränken. Hierdurch werden fatale Fehler der KI stark eingrenzt und gleichzeitig wird mehr Raum für Vertrauen gegenüber der Software geschaffen.[44]

Human-On-The-Loop (HOTL)

Grundsätzlich können HOTL-Systeme eine bestimmte Aufgabe oder einen Prozess vollständig und autonom ausführen, bedürfen aber einer menschlichen Überwachung oder Aufsicht. Der Mensch kann somit eingreifen, sollte die Maschine versagen.[45] HOTL ermöglicht bei entsprechender Kompetenz der KI die beinahe gleichen Anwendungsfelder im militärischen Kontext, wie bei Nutzung von HITL-Systemen. Die Geschwindigkeit der Entscheidungsfindung würde dadurch nochmals erhöht werden, allerdings setzt dies ein noch höheres Maß an Vertrauen der Benutzer:in gegenüber dem verwendeten System voraus. Das resultiert vor allem daraus, dass sich Bediener:innen einem HOTL-System gegenüber ausgelieferter fühlen, als dies bei einem HITL-System der Fall sein wird.

Das Vertrauen in eine Maschine, die nach dem HOTL-Prinzip arbeitet, definiert sich durch die Fähigkeit des Systems, eine Aktivität erfolgreich und determiniert, auch unter erschwerten Bedingungen, die sich durch Verwundbarkeit und Unsicherheit kennzeichnen, ausführen zu können. Benötigt werden dafür vor allem korrekte Informationen vom System um etwaige Fehlfunktionen als auch unerwünschte Entscheidungen rechtzeitig verhindern zu können. Führt eine Handlung des HOTL-Systems zu schädlichen Konsequenzen für Mensch oder Material, muss der Supervisor das Vertrauen in die Software erst wiederherstellen, was sich negativ auf die Gesamtqualität des Prozesses auswirken kann.[46]

Das Vertrauen in eine Maschine, die nach dem HOTL-Prinzip arbeitet, definiert sich durch die Fähigkeit des Systems, eine Aktivität erfolgreich und determiniert, auch unter erschwerten Bedingungen, die sich durch Verwundbarkeit und Unsicherheit kennzeichnen, ausführen zu können.

Human-out-Of-The-Loop

Es ist nicht klar definiert, ab wann eine KI als HOOTL-System bezeichnet werden kann. Für die folgenden Ausführungen wird festgelegt, dass es sich hierbei um eine Software handelt, die dazu in der Lage ist, völlig eigenständige Entscheidungen, ohne menschliches Eingreifen und Zutun, zumindest während eines Planungsprozesses zu erstellen. Die Durchführung dieser Planungen wäre ohne menschliche Unterstützung aber aufgrund des derzeitigen Standes der Technik undenkbar. Hierdurch wird eine eindeutige Abgrenzung zu HOTL-Systemen geschaffen.[47]

Wenn menschliche Bediener:innen und die verwendete KI die Welt auf unterschiedliche Weise wahrnehmen, könnte die Software sogar dazu gezwungen werden, ein für den Menschen suboptimales Ergebnis zu finden. Die Analyse einer Studie ergab, dass das angewandte System mit Integration menschlicher Bediener:innen ausnahmslos besser abschneidet, sogar wenn dieser nur über mangelhafte Ausbildung verfügt oder zufällig rät.[48]

Eine Entscheidungsfindungs-Software, die sich dem HOOTL-Prinzip bedient, führt spätestens dann zu Problemen, wenn der Planungsprozess in eine praktische Durchführung umgesetzt wird. Hier würden, aufgrund des Wahrnehmungsdilemmas der KI, fehlerhaft generierte Entscheidungen auf die Realität treffen und mit hoher Wahrscheinlichkeit nicht zur erwarteten wesentlichen Leistung führen.

Eine Entscheidungsfindungs-Software, die sich dem HOOTL-Prinzip bedient, führt spätestens dann zu Problemen, wenn der Planungsprozess in eine praktische Durchführung umgesetzt wird.

Obwohl die Entscheidungsfindung eines HOOTL-Systems ohne jegliche menschliche Interaktion stattfindet und daher kein Supervisor direkt eingreift, ist dennoch ein hohes Maß an Vertrauen in die Zuverlässigkeit und Sicherheit des Systems erforderlich. Dieses Vertrauen ist entscheidend, da das System autonom Entscheidungen trifft, die potenziell weitreichende Konsequenzen haben können.[49]

Vertrauen ist entscheidend

Vertrauen ist die entscheidende Präkondition für den Einsatz von Software im militärischen Kontext. Ohne Vertrauen in die Technologie und Software ist ein verantwortungsbewusster, erfolgreicher Einsatz im militärischen Kontext nur schwer möglich.

Um Vertrauen aufzubauen und aufrechtzuerhalten, sind verschiedene Faktoren wichtig. Dazu gehören Transparenz, Zuverlässigkeit, Sicherheit und Benutzerfreundlichkeit. Es ist wichtig, dass Benutzer:innen die Technologie und Software verstehen und darauf vertrauen können, dass sie ihre Aufgaben zuverlässig erfüllen.

Besonders im militärischen Kontext müssen Technologie und Software hohen Anforderungen gerecht werden. Die Sicherheit und Zuverlässigkeit müssen gewährleistet sein, um das Leben der Soldat:innen nicht zu gefährden. Gleichzeitig müssen die Systeme einfach und intuitiv bedienbar sein, um in extremen Situationen effizient und effektiv eingesetzt werden zu können.


Fähnrich Dominic Scherzer, Cybersicherheit, Programmierung von autonomen Systemen, militärischer Entscheidungsfindungsprozess; Fähnrich Martin Schoberegger, Kommunikationstechnologie, Satellitenkommunikation und Space-Technologie; Fähnrich Michael Wagner: Algorithmen und Datenstrukturen, Autarke und intelligent gesteuerte Systeme, Kommunikationstechnologie. Bei den in diesem Artikel vertretenen Ansichten handelt es sich um die der Autoren.


[1] Margit Osterloh, Antoinette Weibel, „Investition Vertrauen,“ (Wiesbaden: Gabler Verlag, 1. Auflage, 2006), 35.

[2] Hans-Werner Bierhoff, Elke Rohmann, „Vertrauen – zwischen sozialem Kitt und Senkung von Transaktionskosten,“ Artikel (2010), 72.

[3] Ibid., 71.

[4] Idem.

[5] Lorenz Steinke, „Die neue Öffentlichkeitsarbeit,“ (Wiesbaden: Gabler Verlag, 1. Auflage, 2015), 167.

[6] Idem.

[7] Karen Clark, Gillian Hardstone, Mark Rouncefield, Ian Sommerville, „Trust in Technology: A Socio-Technical Perspective,” (Wiesbaden: Springer Verlag, 1. Auflage, 2006), 17.

[8] Idem.

[9] Idem.

[10] Idem.

[11] Jan Rommerskirchen, „Vertrauen in Marken: die Praxis einer sozialen Beziehung. Philosophie der Psychologie,“ Artikel (2013), 1-23.

[12] Roger Pressman, „Software engineering: a practitioner’s approach,” (New York: McGraw-Hill-Verlag, 7. Auflage, 2010), 5.

[13] Ibid., 7.

[14] Barry W. Boehm, „Software engineering,” (Los Angeles: IEEE Trans. Computers, 1976), 25(12), 1226-1241, 15.

[15] IEEE Standards Committee, „IEEE standard glossary of software engineering terminology,” (IEEE std., 1990), 610, 12, 67.

[16] Roger Pressman, „Software engineering: a practitioner’s approach,” (New York: McGraw-Hill-Verlag, 7. Auflage, 2010), 5.

[17] Alan Dix, Janet Finlay, Gregory Abowd, Russell Beale, „Human-computer interaction,” (New Jersey: Prentice Hall, 3. Auflage, 2004), 193-194.

[18] Jenifer Tidwell, „Designing interfaces: Patterns for effective interaction design,” (Sebastopol: O’Reilly Media Inc., 2010), 1-30.

[19] Alan Dix, Janet Finlay, Gregory Abowd, Russell Beale, „Human-computer interaction,” (New Jersey: Prentice Hall, 3. Auflage, 2004), 260-261.

[20] Idem.

[21] Ibid., 261-265.

[22] Ibid., 266-269.

[23] Ibid., 266-269.

[24] Ibid., 270.

[25] Ibid., 270-275.

[26] Wilhelm Hasselbring, Ralf Reussner, „Toward Trustworthy Software Systems,” (Computer 39, no. 4, 2006), 91-92.

[27] Raymond J. Curts, Douglas E. Campbell, “Avoiding information overload through the understanding of OODA loops, a cognitive hierarchy and object-oriented analysis and design.,” (Annapolis, MD: C4ISR Cooperative Research Program (CCRP) 2001), 2-3.

[28] John Boyd, “Patterns of conflict,” (Defense and the National Interest, 2007).

[29] Idem.

[30] Lawrence Freedman, “Command: The politics of military operations from Korea to Ukraine,” (Penguin UK, 2022).

[31] Entschließung des Europäischen Parlaments vom 20. Januar 2021 zu dem Thema „Künstliche Intelligenz: Fragen der Auslegung und Anwendung von für die EU geltenden internationalen Rechtsvorschriften in Bezug auf die zivile und militärische Nutzung und der Zuständigkeit des Staates außerhalb des Anwendungsbereichs der Strafgerichtsbarkeit,“ (2020/2013(INI)), C456/37.

[32] „Risiko, Security und Compliance,“ Quality Austria, Mai 25, 2023, https://www.qualityaustria.com/produktgruppen/risiko-security-und-compliance/iso-31000/, abgerufen am 19.12.2023.

[33] Jie Lu, Lakhmi C. Jain, Guangquan Zhang, „Handbook on Decision Making Vol 2: Risk Management in Decision Making,” (Braunschweig: Springer Verlag, 2012), 3-7.

[34] Idem.

[35] Idem.

[36] Sönke Marahens, „Auftragstaktik – mehr als nur ein Führungsprinzip“, (The Defence Horizon Journal, 2021).

[37] Neil Shortland, Laurence Alison, Chloe Barrett-Pink, „Military (in)decision-making process: a psychological framework to examine decision inertia in military operations,” (Taylor & Francis Online, 2018), 2-3.

[38] David W. Burwell, „Logical Evolution of the Military Decision Making Process,” Bericht (2001), 8.

[39] Neil Shortland, Laurence Alison, Chloe Barrett-Pink, „Military (in)decision-making process: a psychological framework to examine decision inertia in military operations,” (Taylor & Francis Online, 2018), 753.

[40] Azad M. Madni, Carla C. Madni, „Architectural Framework for Exploring Adaptive Human-Machine Teaming Options in Simulated Dynamic Environments,” (MDPI, 2018), 5.

[41] Saeid Nahavandi, „Trusted Autonomy Between Humans and Robots Toward Human-on-the-Loop in Robotics and Autonomous Systems,” (IEEE, 2017), 10.

[42] Idem.

[43] Fabio Massimo Zanzotto, „Viewpoint: Human-in-the-loop Artificial Intelligence,” (Journal of Artificial Intelligence Research, 2019), 247.

[44] Stuart E. Middleton, Emmanuel Letouze, Ali Hossaini, Adriane Chapman, „Trust, Regulation and Human-in-the-Loop Artificial Intelligence within the European Region,” (ACM Digital Library, 2022), 3.

[45] Saeid Nahavandi, „Trusted Autonomy Between Humans and Robots Toward Human-on-the-Loop in Robotics and Autonomous Systems,” (IEEE, 2017), 10.

[46] Ibid., 12.

[47] Natasha Merat, Bobble Seppelt, Tyron Louw, Johan Engström, John D. Lee, Emma Johansson, Charles A. Green, Satoshi Katazaki, Chris Monk, Makoto Itoh, Daniel McGehee, Takashi Sunda, Klyozumi Unoura, Trent Victor, Anna Schleben, Andreas Kelnath, „The “Out-of-the-Loop” concept in automated driving: proposed definition, measures and implications,” (Braunschweig: Springer Verlag, 2019), 95.

[48] Junzhe Zhang, Elias Bareinboim, „Can Humans Be out of the Loop?,” (Proceedings of Machine Learning Research, 2022), 12.

[49] Saeid Nahavandi, „Trusted Autonomy Between Humans and Robots Toward Human-on-the-Loop in Robotics and Autonomous Systems” (IEEE, 2017), 12.

You may also like

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert