In Zeiten der Künstlichen Intelligenz (KI) kommt der Qualitätssicherung eine neue Rolle zu

Die Erziehung der Künstlichen Intelligenz und die Rolle der Qualitätssicherung
Keine Kommentare

KI-basierte Anwendungen schicken sich an, die Welt, wie wir sie kennen, nachhaltig zu verändern. Nicht nur an der Oberfläche, sprich den Eingabe- und Ausgabe-Tools für die Kommunikation mit der Maschine, sondern noch viel tiefer, dort, wo automatisierte Entscheidungen mit erheblicher Reichweite getroffen werden. Aber die Intelligenz der Maschinen fällt nicht vom Himmel. Sie müssen trainiert und getestet werden. Das ist alles andere als trivial.

Ohne das Stichwort KI oder ihrem kleineren Bruder, dem Machine Learning, läuft in der IT kaum noch etwas. Ging es in den vergangenen Dekaden meist um Hypes wie Cloud oder Mobile, so wartet heute auch die simpelste Anwendung mit Funktionen der künstlichen Intelligenz auf. Tatsächlich hat sich die KI von ihren Anfängen bis heute zu einer Technologie entwickelt, die in Millisekunden Entscheidungen trifft, ohne dass ihre Anwender hierauf Einfluss haben. Einmal implementiert, schalten und walten allerorts Algorithmen und bestimmen den Verlauf der Dinge. Das bedeutet ein gänzlich neues Maß an Verantwortung für deren Entwicklung.

Nicht wirklich neu

Dabei ist KI mitnichten eine neue Technologie. Bereits in den sechziger Jahren des vergangenen Jahrhunderts experimentierten Wissenschaftler wie Joseph Weizenbaum mit den Möglichkeiten der intelligenten Interaktion zwischen Mensch und Maschine in natürlicher Sprache, mit dem Ergebnis, dass es zumindest schwierig ist, eine Unterscheidung zu treffen. 50 Jahre später steht heute eine unvergleichliche Performance der Hard- und Software bereit, die nun in Kaffeemaschinen wie auch in Industrieanlagen Anwendung findet.

Nach wie vor bildet die Spracherkennung eines der illustren Beispiele für die Fortschritte in der KI. Konnte das Programm ELIZA von Weizenbaum den Testpersonen bereits 1966 vorgaukeln, Sie kommunizierten mit einem menschlichen Gegenüber, so stehen heute Sprachschnittstellen zur Verfügung, die es ermöglichen, Geräten in beliebigen Sprachen und Zusammenhängen Befehle zu erteilen, die zu entsprechenden Aktionen führen. Nicht immer zu den richtigen, wie die Erfahrung zeigt.

Die Spracherkennung ist noch heute eines der wesentlichen Gebiete der künstlichen Intelligenz. Eben weil die Korrelation von Phonemen mit hinterlegten Inhalten stark kontextabhängig ist. Aber KI-Anwendungen finden sich daneben auch in der Mustererkennung, der Prozesssteuerung, dem Finanzwesen oder in der Medizin. Das geht hin bis zur Entwicklung von KI-basierten Anwendungen in Start-ups oder mittelständischen Unternehmen für nahezu beliebige Funktionen.

Massive Datenmengen

Die Krux ist offensichtlich: Wenn Maschinen weitreichende Entscheidungen auf Basis der einmal implementierten Algorithmen treffen sollen, dann müssen zumindest die Algorithmen fehlerfrei sein und auf eine entsprechende allgemeingültige Datenbasis zurückgreifen können. Das ist so lange eher unproblematisch, als es sich um eine begrenzte Umgebung handelt. Innerhalb eines Produktionsunternehmens mit einer definierten Anzahl von Sensoren, Aktoren und Relationen können mittels des maschinellen Lernens und der künstlichen Intelligenz Prozesse relativ einfach erfasst, analysiert und optimiert werden. Bei der Sprach-, Muster- oder Bilderkennung im allgemeinen Raum sieht dies deutlich anders aus. Das liegt vor allem in der Erfordernis einer riesigen Datenmenge sowie eines kontinuierlichen Trainings der Algorithmen.

Das, was die Qualität einer KI-basierten Anwendung ausmacht, trägt einen Namen: Bias, oder Verzerrung. Ob gewollt oder nicht – jedwede KI-Anwendung enthält Verzerrungen der Realität, eben weil sie von Entwicklern programmiert wird, die bewusst oder unbewusst ihre eigenen Vorstellungen von der Wirklichkeit in die Programme einfließen lassen. Das kann im schlechtesten Falle zu Entscheidungen führen, die erheblichen Auswirkungen auf einzelne Menschen oder ganze Unternehmen haben. Das Problem ist in der Praxis nicht den einzelnen Entwicklern anzulasten, sondern immanent.

Die Verzerrung der Realität

Bias erscheint in der Programmierung von KI-Anwendungen in zwei Formen – bewusst oder unbewusst. Programmierer sind Menschen und sie besitzen deshalb eine voreingenommene Haltung gegenüber Ideen, Gruppen oder Sachen. Ist ihnen diese bewusst, so können sie darauf entsprechend reagieren. Nur ist dies meist nicht der Fall. Vorurteile basieren auf gelernten Stereotypen, die der Person in der Regel nicht bewusst sind und trotzdem ihre Entscheidungsfindung leiten. Das kann in der Praxis in vielfältiger Weise in die Algorithmen einfließen. Bei der Programmierung eines KI-basierten Systems zur Personalbeschaffung oder zur Lohnfindung könnten persönliche Vorurteile hinsichtlich Geschlecht, Alter oder Herkunft Einfluss finden. Selbst bei der Prozessoptimierung im industriellen Sektor könnte eine Präferenz bestehen hinsichtlich entscheidender Fragen im Zusammenhang mit Umweltverträglichkeit, Wirtschaftlichkeit oder Personaleinsatz.

Nur – wie lässt sich dieses Problem umgehen? Bias, die Verzerrung der Entscheidungsfindung – hat vielfältige Gründe, nicht nur die Voreingenommenheit der Entwickler: In vielen Fällen verfügen Unternehmen einfach nicht über eine ausreichende Datenbasis, um ihre KI-Algorithmen zu definieren. Tatsächlich macht es zum Beispiel eine zu kleine Datenbasis schwierig, Trends zu identifizieren und akkurate Relationen zu ermitteln. Aber die schiere Datenmenge ist nicht das einzige Problem. Sie muss am Ende auch ein repräsentatives Panel geben. Wenn es an der Zahl der Datenquellen fehlt, dann ist oftmals auch die Diversität der Daten begrenzt, nicht nur hinsichtlich demographischer, sondern auch bezüglich einer Reihe anderer Informationen. Und in der Praxis verfügen vor allem mittelständische Unternehmen nicht über ein geeignet großes Potenzial an Entwicklern, die unterschiedliche demographische Gruppen repräsentieren. Zudem stehen möglicherweise die erforderlichen Daten nicht in einer für das Unternehmen nutzbaren Form bereit.

Ethische Fragestellung

Es gibt in der Praxis eine Reihe von Beispielen die zeigen, wie KI-basierte Algorithmen zu Entscheidungen kommen, die bei genauerer Betrachtung zumindest Anlass zu Bedenken geben. Daraus ergeben sich zwei grundsätzliche Fragen: Ist dieses Phänomen der Technologie als solcher anzulasten, und zweitens, kann die Technologie in einer Weise optimiert werden, die Bias so weit wie möglich ausschließt.

Zunächst ist Bias in der KI auch ein soziologisches Problem, dass sich durch den Einsatz maschineller Entscheidungsfindungen in einer Art Black-Box manifestiert und letztlich verselbständigt und multipliziert. „Der Umgang mit Algorithmen und selbstlernenden Systemen“, fordert ein entsprechendes gemeinsames Papier von Bitkom und dem deutschen Forschungszentrum für Künstliche Intelligenz „muss in ethischer Hinsicht bewertet werden.“ [1] Nur ist es letztlich nicht zielführend, auf die Vorzüge des Einsatzes von KI-Systemen zu verzichten, weil sie den gleichen Problematiken unterworfen sind wie alle Grundlagen für die Entscheidungsfindung.

Zudem ist es in der Praxis kaum möglich, die Verantwortung für aufgrund des Einsatzes von KI-Systemen getroffene Entscheidungen den Unternehmen anzulasten, die diese einsetzen. Tatsächlich führen derartige Fragestellungen zu weitreichenden Irritationen. Zwar zieht eine große Mehrzahl von Unternehmen den Einsatz von KI-Systemen in Betracht, wie Untersuchungen zeigen, allerdings verfügen die befragten Teilnehmer nach eigenen Angaben in der Mehrzahl nicht über das benötigte interne Know-how und befürchten zudem Haftungsfragen.

Welche Möglichkeiten ergeben sich in der Praxis, um dem Problem zu begegnen? Berechnungen, Prognosen und daraus resultierende Folgeprozesse müssen in der gesamten IT transparent und nachvollziehbar sein. Das gilt bereits heute und für KI-Systeme in besonderem Maße. „Allerdings wird die Stärke mit dem Nachteil erkauft, dass einzelne Ergebnisse nicht mehr oder nur mit verhältnismäßig hohem Aufwand nachvollziehbar sind“, so die Empfehlungen von Bitkom und DFKI.

Gangbare Wege

Tatsächlich arbeiten große Player derzeit auch an Softwaresystemen, die es ermöglichen sollen, Verzerrungen in Algorithmen der künstlichen Intelligenz zu erkennen und den Nutzern zu erklären, was der Entscheidungsfindung zugrunde liegt. Es gilt, die Black-Box transparenter zu machen.

Eine Möglichkeit, einen praktisch realisierbaren Einstieg zu finden, liegt in einem 360-Grad-Ansatz zur Beurteilung der Ergebnisse von KI-Algorithmen in unterschiedlichsten Szenarien. Dieser basiert auf einem Mechanismus, um Anwendungen im Vorfeld im Hinblick auf Funktionalität und Unvoreingenommenheit auf einer breiten Basis zu testen. Crowdtesting ist dabei eine mögliche Methode, die Qualitätssicherung von Softwareanwendungen inklusive Usability, Funktionalität und Diversität der Anwender zu optimieren. Dabei wird die Anwendung von einer globalen Community geprüfter Probanden unter die Lupe genommen, die je nach Anforderung ein spezifisches oder unspezifisches Panel repräsentieren. Dadurch kann die Entwicklung entsprechender Anwendungen beschleunigt und optimiert werden, weil in kurzer Zeit Datensätze für das Training der KI-Algorithmen erzeugt werden. Durch die Definition heterogener Nutzergruppen lässt sich gewährleisten, dass die Trainingsdaten nicht voreingenommen oder diskriminierend sind.

Bias ist ein inhärentes Moment jeglicher KI-Anwendungen. Der praktische Weg liegt darin, sich dessen bewusst zu sein und Maßnahmen zu treffen, um weitestgehende Transparenz und ein größtmögliche Diversität der Datenbasis sicherzustellen.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -