Mit Bildern Verbrechen aufdecken: Erlanger Forscher stellt vielversprechende KI-Methoden vor

- Uni Erlangen: Wie KI Fotos zu belastbaren Beweisen vor Gericht machen kann
- Forscherteam für Cybercrime entwickelt mathematische und statistische Methoden
- Höhenschätzung und Gangart: was Bilder erkennen lassen
- Von Trainingsdaten abhängig: Künstliche Intelligenz hat auch Nachteile
"Wie kann KI Bilder zu belastbaren Beweisen vor Gericht machen?", fragt die Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) in einer aktuellen Pressemitteilung. Benedikt Lorch ist Doktorand für "Cybercrime und Forensische Informatik" und beschäftigt sich mit technischen und juristischen Fragen rund um digitale Beweismittel. Fotos könnten dank Künstlicher Intelligenz bei der strafrechtlichen Verfolgung eine Rolle spielen, doch es gebe auch Nachteile.
KI-Forscher der Uni Erlangen: "Bilder als Hilfsmittel können für vieles genutzt werden"
Kernziel der Forschung sei, "Bilder auf ihre Echtheit zu überprüfen und ihren Ursprung zu identifizieren", so Lorch. "Wir forschen daran, wie man maschinelles Lernen zuverlässig einsetzen kann. Das schließt unterschiedliche Fragestellungen ein: Wurde ein Bild nach der Aufnahme verändert? Stammt ein bestimmtes Bild X von einer bestimmten Kamera Y? Ist ein Video geschnitten worden, was möglicherweise den Kontext verändert?" Für all diese Anwendungsfälle gebe es unterschiedliche Werkzeuge.
Physikbasierte Methoden analysieren laut Lorch Spuren wie Schatten, Reflexionen und die Richtung des Lichteinfalls. Statistische Methoden analysierten kaum sichtbare Merkmale auf Pixelebene. "Bilder als Hilfsmittel können für vieles genutzt werden, unter anderem auch zur forensischen Höhenschätzung, also die Einschätzung, wie groß eine Person oder ein Objekt ungefähr ist, und der Erkennung von Personen anhand von biometrischen Merkmalen oder der Gangart."
Zur Zuordnung von Bildern zu bestimmten Kameras ließe beispielsweise wertvolle Rückschlüsse ziehen. "Klassischerweise wird eine Szene über eine Kameralinse auf den Sensor der Kamera projiziert. Der Sensor ist in Millionen kleine Zellen eingeteilt. Diese sollten alle gleich groß sein. In der Fertigung ist das nicht möglich, und das hinterlässt Spuren: Manche Zellen nehmen ein bisschen mehr oder weniger Licht auf. Daraus kann man eine Art individuellen Fingerabdruck der Kamera erstellen."
KI funktioniert mit einer großen Menge von Beispielbildern
Bilder könnten auch selbst im Zentrum einer Straftat stehen. Ein Beispiel sei der Einsatz von sogenannten "Deepfakes", also gefälschte Audio-, Bild- oder Videodateien, die kaum von einem Original unterscheidbar seien. "Mögliche Delikte, die sich aus Bildfälschungen ergeben können, sind Betrug, rechtswidrige Marktmanipulationen oder die Verleumdung von Personen."
KI lerne anhand von einer großen Menge von Beispielbildern, was ein Original ausmacht. Es brauche im Gegensatz zu klassischen Methoden keine Definition eines Originals nach bestimmten Kriterien. Die Forschung setze auf dem Gebiet der Bildforensik immer mehr auf KI. Denn wenn zum Beispiel Bilder und Nachrichten über Social-Media-Plattformen oder Messenger verteilt werden, würden sie üblicherweise verkleinert und komprimiert, so Lorch.
"Leider gehen dabei forensisch interessante Spuren teilweise verloren oder werden verwaschen. Mit klassischen Methoden ist dann die Analyse schwer. KI-Methoden hingegen können selbst in diesen schwierigen Fällen gute Ergebnisse erreichen."
Die Nachteile von Künstlicher Intelligenz
Der Einsatz von Künstlicher Intelligenz habe aber auch Nachteile: "KI funktioniert sehr gut bei Bildern, die den Trainingsdaten ähneln. Wenn die Testbilder stark von den Trainingsdaten abweichen, treffen KI-Methoden oft falsche Vorhersagen. Der Anwender kann nicht erkennen, dass das KI-Modell außerhalb seines 'Wissens' operiert", erklärt Lorch. Gleichzeitig sei es praktisch unmöglich, alle Lücken in den Trainingsdaten zu schließen, dazu gebe es zu viele Möglichkeiten.
Ob Trainingsdaten für einen speziellen Fall repräsentativ sind und darauf angewendet werden können, sei nicht immer klar.
"Ein weiteres Problem ist die Intransparenz: Den Entscheidungsprozess von KI-Methoden vollständig nachzuvollziehen, ist nahezu unmöglich. Ermittlungsmaßnahmen müssen aber begründet werden und auf einer gesicherten Tatsachenlage basieren - gerade im strafrechtlichen Bereich", so der Forscher weiter.
Wenn man den Entscheidungsprozess nachvollziehen könne, könne man sicherstellen, dass ein KI-System zuverlässig arbeitet. Da das nicht gehe, sei es enorm wichtig, KI-Methoden ausführlich zu testen, um deren Zuverlässigkeit zu gewährleisten.
Manche Anwendungen von Künstlicher Intelligenz verboten
"Ob man KI-Methoden in der Strafverfolgung einsetzen darf, war lange fraglich. Die Europäische Kommission hat im April 2021 dann einen Entwurf für die Regulierung von KI vorgestellt. In dieser Regulierung werden KI-Detektoren zur Erkennung von Bildfälschungen für Zwecke der Strafverfolgung als Hochrisikoanwendung eingestuft." KI-Systeme für Hochrisikoanwendungen dürften eingesetzt werden, müssten aber verbindliche Anforderungen erfüllen, wie ein gewisses Maß an Genauigkeit, Robustheit und Sicherheit gegen Angriffe.
"Bestimmte KI-Anwendungen sind auch verboten: Biometrische Echtzeitfernüberwachung, also Videoüberwachung mit automatisierter Gesichtserkennung, und Social Scoring, also das Bewerten des Verhaltens von Menschen innerhalb der Gesellschaft, zählen dazu."
"KI-Methoden in der Forensik haben also viel Potenzial, aber wie wir mit diesem Werkzeug umgehen müssen, um Fehler zu vermeiden, müssen wir noch bessern lernen", so Benedikt Lorch zum Schluss.