Return to site

Schwächen von Bilderkennungssystemen - Risiken und Lösungsansätze

· KI Ethik,KI Allgemein

Hintergrund

Der aktuelle Aufschwung im Bereich Künstliche Intelligenz ist zu einem großen Teil darauf zurückzuführen, dass durch größere Datensätze und schnellere Computer sogenannte neuronale Netze besser einsetzbar geworden sind. Diese Algorithmen werden heutzutage besonders dafür eingesetzt, unstrukturierte Daten wie Bilder oder Text zu verarbeiten. Bilderkennung, also die Identifizierung von Objekten in Bildern, ist das mit Abstand am meisten erforschte Anwendungsgebiet für neuronale Netze. Viele Unternehmen setzen neuronale Netze für diesen Zweck ein, z.B. für autonomes Fahren oder die Erkennung von defekten Bauteilen.

In den letzten Jahren wurde jedoch des Öfteren gezeigt, dass solche Systeme anfällig für gezielte Angriffe sein können. So berichteten unter Anderem der Tagesspiegel und die Zeit über wissenschaftliche Studien, die erfolgreiche Angriffsszenarien auf Bilderkennungssysteme beschreiben. Die wohl bekannteste Studie aus diesem Bereich konnte Google's Bilderkennungssoftware Vision AI in 90% der Fälle zu falschen Klassifizierungen leiten. Ein Beispiel ist im Bild unten abgebildet, bei ein von den Autoren so abgeändert wurde, dass eine Katze fälschlich als Guacamole klassifiziert wurde. Diese Manipulation ist für den Menschen nicht erkennbar.

In diesem Artikel möchten wir zunächst erklären, wie solche Fehlklassifikationen zu Stande kommen, welche Gefahren damit verbunden sind und wie diesen vorgebeugt werden kann.

Warum versagt KI bei vielen optischen Phänomenen?

Die Funktionsweise einer KI basiert auf statistischen Zusammenhängen, die durch Algorithmen aus einer Vielzahl von Daten extrahiert werden. Um beispielsweise eine KI zu trainieren, die zwischen Bananen und Toastern unterscheiden kann, werden den Algorithmen eine Vielzahl an Bildern gezeigt, die entweder Bananen oder Toaster abbilden. Die Algorithmen der KI versuchen dann Zusammenhänge zu extrahieren, die genutzt werden können, um beide Gruppen zu unterscheiden. So könnte beispielsweise eine KI evaluieren, ob gelbe krumme oder silberne rechteckige Formen auf den Bildern zu erkennen sind. Je nachdem würde dann die KI ein Bild mit Banane oder Toaster klassifizieren. 

Allerdings sind die Algorithmen, die heutzutage für Bilderkennungen genutzt werden (zumeist neuronale Netze), schlecht nachvollziehbar. Letztendlich können wir dadurch nicht vollständig verstehen, anhand welcher Muster die KI ihre Entscheidung trifft. Dadurch ist es schwierig sicherzustellen, dass die KI ihre Entscheidung wirklich anhand generalisierbarer Muster trifft, die Bananen und Toaster grundlegend in der Realität unterscheiden, und nicht nur Muster verwendet, die lediglich die Bananen und Toaster gut auseinanderhalten kann, die in den zur Entwicklung der KI genutzten Daten enthalten sind.

Die Daten, die also für die Entwicklung einer solchen KI verwendet werden, sollten so repräsentativ wie möglich für alle existierenden Bananen und Toaster sein. Ein gutes Beispiel, bei dem schnell klar wird, dass es nicht so einfach ist repräsentative Daten sicherzustellen, ist folgendes: Angenommen, Sie möchten eine KI erstellen, die einen Audi von einem Jeep anhand von Bildern unterscheiden kann. Nun nutzen Sie die Bilder der letzten Marketing Kampagne der beiden Marken. Hierbei wurden Jeeps generell in einer Wald-Kulisse und Audis stets in einer Stadt dargestellt. Die KI funktioniert wunderbar, wenn Sie versucht die Marketing-Bilder auseinanderzuhalten. Jedoch als die KI ein Bild Ihres Jeeps, den Sie in Frankfurt fotografiert haben, versucht zu klassifizieren, so ist sie sich auf einmal sicher, dass es sich hierbei um einen Audi handelt. Was ist hier nun schief gelaufen? Dadurch, dass die beiden Marken immer in zwei verschiedenen Kulissen (Stadt vs. Wald) dargestellt wurden, hat die KI nicht gelernt, wie sie Audis und Jeeps unterschieden kann, sondern wie sie Wald- von Stadtkulissen unterscheiden kann. Die Funktionsweise der KI hängt also stark von den Zusammenhängen ab, die sie in den Trainingsdaten auffinden kann, um die verschiedenen Klassen voneinander zu unterscheiden. Doch welche Zusammenhänge dies letztendlich sind, können wir bisher oftmals nur vermuten oder nur mit viel Aufwand nachvollziehen.

Welche Gefahren gehen davon aus?

Zum einen kann es durch die obige beschriebene Funktionsweise passieren, dass die KI ihre Entscheidungen auf Grundlage der falschen Zusammenhänge trifft. Während eine falsche Klassifizierung von Bananen oder Toastern nicht unbedingt gravierende Folgen haben wird, kann dies in anderen Bereichen großen Schaden anrichten. Denken Sie dabei bspw. an KIs, die Krankheitsprognosen für Patienten stellen. Wenn hierbei nicht sichergestellt werden kann anhand welcher Zusammenhänge die KIs ihre Entscheidungen treffen, so können diese sogar Menschenleben gefährden.
Zum anderen ermöglichen solche KI-Systeme neuartige Cyber-Angriffe. Experten können nämlich durch bestimmte Techniken die Zusammenhänge, die eine KI nutzt, in Erfahrung bringen und diese gezielt fehlleiten. Hierbei werden Bilder gezielt nur ganz leicht verändert, d.h. einzelne Pixelwerte werden minimal angepasst. Für den Menschen erscheint das Bild immer noch identisch, bei der KI kann es jedoch zu Fehlklassifikationen führen. Angreifer könnten damit bspw. Stop-Schilder so präparieren, dass selbstfahrende Autos diese nicht mehr erkennen und nicht mehr stehen bleiben. Im schlimmsten Fall könnten damit terroristische Gruppen diese Sicherheitslücken als neue Art von Angriffen auf unsere Gesellschaft ausnutzen. Die Täuschung von KIs könnte somit eine der Hauptgefahren unserer zukünftigen KI-getriebenen Gesellschaft darstellen.

Wie können diese Probleme gelöst werden?

Verschiedene Ansätze der Problemlösung sind denkbar:

  1. Viel Forschung wird momentan im Bereich Explainable AI (kurz: XAI, für erklärbare KI) betrieben. Ziel ist die Entwicklung von KI-Systemen, deren interne Operationen für den Menschen ersichtlich und nachvollziehbar sind. Mit Hilfe solcher Systeme könnten Biases durch den Menschen schneller entdeckt und behoben werden.
  2. Bereits beim Training der KI-Systeme sollten auch Bilder berücksichtigt werden, die das zu identifizierende Objekt in ungewöhnlichen Positionen zeigen. Je größer die Vielfalt der zu verarbeitenden Bilder für die KI ist, desto allgemeinere Zusammenhänge kann sie lernen. Je allgemeiner die gelernten Zusammenhänge sind, desto schwieriger wird es für Angreifer die Schwächen eines Systems auszunutzen.
  3. Auch sollten Bilder in den Trainingsdaten berücksichtigt werden, die speziell für Angriffe konzipiert wurden. Dadurch kann die KI lernen, mit solchen Angriffen umzugehen. Generell sollten auch Bilder, die im produktiven Betrieb falsch klassifiziert wurden, in den Trainingsdatensatz aufgenommen werden. Eine kontinuierliche Weiterentwicklung der KI ist Grundlage für langfristig gute Performance.
All Posts
×

Almost done…

We just sent you an email. Please click the link in the email to confirm your subscription!

OK