Dachverband der Fanhilfen – Positionspapier zum Thema “Einsatz von ‘KI’ im Fußballkontext”

Anbei möchten wir das Positionspapier des Dachverband der Fanhilfen zum Thema “Einsatz von ‘KI’ im Fußballkontext” mit euch teilen:

Polizeiliche Überwachungstechniken & ‘Künstliche Intelligenz’ – eine Gefahr für Fußballfans?!
Die anzunehmende Nutzung von sogenannter Künstlicher Intelligenz (KI) seitens der Polizei zur Überwachung von Fußballfans wirft erhebliche rechtliche, ethische, aber auch grundlegende gesellschaftliche Fragen auf. Während Befürworter argumentieren, dass KI-gestützte Systeme zur Gewaltprävention und Sicherheit beitragen würden, verweisen Kritiker auf die zahlreichen Risiken, die mit der Technik verbunden wären und unserer Ansicht nach nicht außer Acht gelassen werden dürfen.
Wir möchten Euch im Folgenden aufzeigen, welche Auswirkungen KI-gestützte Überwachungstechniken bei der Polizei für die aktive Fanszene haben können. Hierfür sind zu Beginn einige grundlegenden Verständnisfragen zu klären.

Was ist ‘Künstliche Intelligenz’?
Die Enquete-Kommission des Bundestages veröffentlichte 2020 ihren Abschlussbericht “Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale” (https://dserver.bundestag.de/btd/19/237/1923700.pdf). Demnach sind KI-Systeme erst einmal “von Menschen konzipierte, aus Hardware- und/oder Softwarekomponenten bestehende intelligente Systeme, die zum Ziel haben, komplexe Probleme und Aufgaben in Interaktion mit der und für die digitale oder physische Welt zu lösen” (BT-Drucksache 19/23700: 51).

Unterschieden wird dabei zwischen regelbasierten und lernenden KI-Systemen. Erstgenannte kennzeichnen sich darüber, dass ihr “Verhalten vollständig durch algorithmische Regeln und maschinenlesbares Wissen von menschlichen Expertinnen oder Experten definiert ist. Dazu gehören insbesondere sogenannte Expertensysteme und die ihnen zugrunde liegenden Wissensdatenbanken. Das Verhalten regelbasierter KI-Systeme ist für den Menschen nachvollziehbar, da die Verfahren der Ergebnisfindung von Menschen gestaltet, definiert und einsehbar sind” (ebd.: 51).
Wichtig! Diese regelbasierten KI-Systeme fallen dabei nicht unter die neue ‘KI’-Verordnung der EU!

Hingegen zeichnen sich lernende ‘KI’-Syteme “dadurch aus, dass ihre initiale Konfiguration durch den Menschen nur die Grundlage für die konkrete Funktionsweise im eigentlichen Betrieb darstellt. Mithilfe von Daten trainieren sie, wie ein Problem zu lösen bzw. eine Aufgabe zu erfüllen ist. Sie passen hierbei ihre Funktionsweise durch einen entsprechenden Lernprozess kontinuierlich an” (ebd.: 51). So wird eine spezifische Fähigkeit bzw. ein Verhalten trainiert, indem das System “schrittweise mit Beispielen, oft Trainingsdaten genannt, gefüttert” (ebd.: 52) wird. “Diese Daten kommen entweder vom Menschen und/oder das System verschafft sich die Daten durch selbstständige (wenn auch vom Menschen methodisch vorgegebene) Interaktion und Messung” (ebd.: 52).
So warnte das Human Rights Council der Vereinten Nationen in seiner Resolution “53/29 New and emerging digital technologies and human rights” (https://documents.un.org/doc/undoc/gen/g23/146/09/pdf/g2314609.pdf) davor, dass die für das Training von Algorithmen verwendeten Daten korrekt, relevant und repräsentativ sein müssten und auf kodierte Verzerrungen geprüft gehörten. Gerade weil von ‘Künstlicher Intelligenz’ eine höhere Gefahr der Diskriminierung ausgehen, insbesondere aufgrund von Ethnie, Geschlecht, Alter, Behinderung, Nationalität, Religion und Sprache (vgl. A/HRC/RES/53/29: 4).

Der Fachjournalist Sebastian Meineck, von netzpoltik.org, spricht in diesem Zusammenhang von “typischen Probleme[n] von KI-Systemen: Sie können Leute benachteiligen, die nicht ausreichend in den Trainingsdaten repräsentiert waren.” (https://netzpolitik.org/2023/vereinte-nationen-warnung-vor-rassistischer-und-sexistischer-ki/). In Hamburg soll daher jetzt das Polizeigesetz geändert werden, damit “KI-Training unter Verwendung des Klarnamens der Person erfolgen können, von der die Daten stammen. Außerdem soll die Polizei Daten zum KI-Training auch an Dritte weiterleiten dürfen” (https://netzpolitik.org/2025/videoueberwachung-hamburger-polizei-soll-ki-mit-personenbezogenen-daten-trainieren/). Beides soll dann möglich sein, sobald die Anonymisierung oder Pseudonymisierung der Daten für die Polizei einen unverhältnismäßigen Aufwand bedeutet würde. Wir alle können so zu Trainingsobjekten einer ‘KI’-gestützten polizeilichen Überwachung werden.

Nicht nur Fanhilfen sehen also die Entwicklung kritisch, sondern auch die UN oder mit Thema vertraute Fachjournalisten.

Wie funktioniert ‘KI’-gestützte Überwachung?
Die Funktionsweise ‘KI’-gestützter Überwachung lässt sich pauschal nicht beschreiben, vielmehr muss hier im Einzelfall die jeweilige Anwendung betrachtet und beschrieben werden. Eric Töpfer vom Deutschen Institut für Menschenrechte und langjähriger Experte für den Einsatz von Informations- und Überwachungstechnologien durch Polizei und Migrationsbehörden plädiert dafür, dass “bei der Frage nach dem Funktionieren nicht nur auf die Technik geschaut werden, sondern die Anwendung als sozio-technisches System verstanden werden [sollte], bei dem Menschen Technik bedienen, während die Technik zugleich die Optionen menschlichen Handelns vorstrukturiert” (Eric Töpfer 2024: Konversation mit dem Dachverband der Fanhilfen). Zumal die ‘KI’-gestützten Überwachungssysteme oftmals eine Blackbox darstellen.

Fehlende Transparenz und mangelnde Kontrolle
Bisher sind die bei ‘KI’ verwendeten Algorithmen undurchsichtig und für Außenstehende meist nicht ein- bzw. nachvollziehbar. Sei es aufgrund privatwirtschaftlicher Geschäftsgeheimnisse oder bspw. intellektuellem Eigentums. Sie bleiben auch hier eine Blackbox.
Eine Tatsache, welche ebenfalls der Deutsche Ethikrat in seiner Stellungnahme von 2023 (https://www.ethikrat.org/fileadmin/Publikationen/Stellungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf) bemängelt. So heißt es dort: “Es bedarf der Entwicklung ausgewogener aufgaben-, adressaten- und kontextspezifischer Standards für Transparenz, Erklärbarkeit und Nachvollziehbarkeit und ihrer Bedeutung für Kontrolle und Verantwortung sowie für deren Umsetzung durch verbindliche technische und organisatorische Vorgabe” (Deutscher Ethikrat 2023: 76). Im Umkehrschluss ist dieses bisher alles NICHT gegeben!
Es bleibt demnach offen, wie das ‘Erkennen’ und die Definition von vermeintlich gefährlichen Personen im Einzelnen funktioniert – Fehlinterpretationen sind möglich! Wie weitreichend diese sein können, zeigen die strukturellen Folgen am das Beispiel Argentinien. Hier kam es de facto mit der Einführung ‘KI’-gestützter Videoüberwachung zu einer Abschaffung der Unschuldsvermutung sowie einer Beweislastumkehr (https://www.deutschlandfunkkultur.de/gesichtserkennung-in-argentinien-kuenstliche-intelligenz-als-gefahr-weltzeit-dlf-kultur-bbeb2410-100.html). Zu Unrecht beschuldigte Personen waren hier dazu gezwungen, ihre Unschuld zu beweisen!

Aber ist doch nur Fußball?
Wie schnell man aufgrund einer bloßen Verdächtigung in die polizeiliche Verbunddatei ‘Gewalttäter Sport’ oder äquivalenter Datensammlungen der Bundesländer rutschen kann, wissen viele Fußballfans leider nur allzu gut. Die fehlende Informationspflicht über die Speicherung selbst erschwert den Betroffenen noch einmal mehr ihre Rechte wahrzunehmen. Ein ähnlicher Umgang ist auch hinsichtlich der Nutzung ‘KI’-gestützter Überwachung zu befürchten.
Beim Champions League-Finale 2017 in Cardiff identifizierte die dort verwendete automatisierte Gesichtserkennung bei insgesamt 170.000 Besucher 2.470 mögliche Übereinstimmungen. Davon waren jedoch ganze 92% d.h. 2.297 Menschen falsch positiv (https://www.theguardian.com/uk-news/2018/may/05/welsh-police-wrongly-identify-thousands-as-potential-criminals). 2.297 Menschen wurden demnach durch die verwendete ‘KI’ fälschlicherweise als potenzielle ‘Kriminelle’ identifiziert.

Was das zukünftig für die Vergabe und Einhaltung von Stadionverboten bedeuten kann, darf sich jede:r selbst denken. Klar scheint aber, dass private Überwachungsanbieter schon jetzt diesen Markt für sich erkannt haben. So bietet bspw. die Firma AXIS Comunications bereits eine “intelligente Technologie für die Sicherheit im Stadion” an. (https://web.archive.org/web/20240419024800/https://www.axis.com/blog/secure-insights-de/intelligente-technologie-fuer-die-sicherheit-im-stadion/).

Die schleichende Normalisierung der (Massen)Überwachung?
Die Akzeptanz von ‘KI’ bei der Polizeiarbeit kann dazu führen, dass immer weitreichendere Überwachungsmaßnahmen gesellschaftlich legitimiert bzw. akzeptiert werden. Was heute zur Kontrolle von Fußballfans eingesetzt wird, kann morgen auf andere gesellschaftliche Bereiche und Gruppen ausgeweitet werden – von der freien Meinungsäußerung auf Demonstrationen bis hin zur alltäglichen Überwachung des (teil)öffentlichen Raums.
Beispiele aus der Vergangenheit, wie die Einführung der polizeilichen Verbunddatei “Gewalttäter Sport”, lassen genau diese Entwicklung befürchten. Der weitreichende Eingriff in Grundrechte wird über die Delegitimierung als Gruppe, hier Fußballfans, erst ermöglicht und dann schrittweise erweitert.

Die permanente Überwachung schränkt persönliche Freiheitsrechte nicht nur ein, sondern schafft sie in letzter Konsequenz auch ab. Das Gefühl des ‘ständig beobachtet Werdens’ beeinflusst auch das eigene Verhalten. Fankultur lebt aber davon, dass Grenzen immer wieder aufs Neue verhandelt werden. Die Kurve ist unser Ort, dem Verein gehört unsere Liebe!

Was nun?
Bei der Verwendung ‘Künstlicher Intelligenz’ geht es nicht um Tools wie beispielsweise ChatGPT, die im Alltag vielleicht ganz hilfreich sein können. Hier geht es um die sicherheitspolitischen Anwendungsbereiche durch Polizeien, Geheimdienste und private Sicherheitsunternehmen – sie bedrohen deine (Freiheits)Rechte ganz direkt. ‘KI’ (Überwachung) birgt hier erhebliche Gefahren für eine aktive und kreative Fankultur! Sie ist schon jetzt eine unkontrollierte, stigmatisierende Blackbox.
Lassen wir uns als Fußballfans nicht davon einschüchtern. Hinterfragen und begleiten wir den Einsatz von “KI” durch Polizeien und private Sicherheitsunternehmen kritisch. Treten wir alle zusammen dieser Entwicklung entschieden entgegen. Auch wenn sich technischer Fortschritt nicht zurückdrehen lässt, so kann und muss er doch reguliert werden. Hier gilt es anzusetzen.

Für eine freie Kurve – für eine lebhafte Fankultur! Fuck your surveillance!