loader-logo

„Bad AI“: Wann wendet sich KI gegen uns?

Wir kennen Sie alle: Diese apokalyptischen Filme, in denen sich eine KI der Kontrolle durch den Menschen entzieht und gegen den Willen ihrer Entwickler*innen agiert. Um das einmal klarzustellen: Das ist der Stoff, aus dem Science-Fiction-Filme gemacht sind. Der Realität entspricht das nicht. KI-Systeme können zwar zu Lösungen kommen, die nicht absehbar waren. Eigene, bösartige Ziele entwickelt sie jedoch nicht – dafür fehlt ihnen etwas ganz Wesentliches: Bewusstsein. Dennoch kann eine eigentlich sinnvolle Künstliche Intelligenz gefährlich werden: Wenn sie missbräuchlich eingesetzt wird. In diesem Artikel beschäftigen wir uns mit der dunklen Seite der KI.

Der bösartige Supercomputer HAL – reine Fiktion

Erinnern Sie sich noch an den Supercomputer HAL aus Stanley Kubricks Verfilmung des Science-Fiction-Klassikers „2001: Odyssee im Weltraum“? Er befindet sich auf einer bemannten Mission zum Jupiter und hat ein Problem mit Menschen. Er hat nämlich erkannt, wie fehleranfällig die Zweibeiner sind. Die KI kommt daher zu dem Schluss: Die menschliche Besatzung ist für den Auftrag entbehrlich. Daher wendet sie sich gegen sie.

Viele Streifen dieser Sorte haben im Kino Filmgeschichte geschrieben. „A.I. – Künstliche Intelligenz“, „Terminator“, „I, Robot”, „Matrix“ oder „Ex Machina“ – sie alle drehen sich um ein und dasselbe Motiv: Eine KI entwickelt ein Bewusstsein und wendet sich mit verheerenden Folgen gegen ihre Schöpfer*innen. Doch von der Realität ist das weit entfernt. Das Ganze ist und bleibt der Stoff für Filme.

KI kann Schäden anrichten

Kleinzureden ist es aber nicht, dass Künstliche Intelligenz tatsächlich erhebliche Schäden anrichten kann. Dann etwa, wenn sie für die falschen Zwecke eingesetzt wird. Eines der markantesten Beispiele dafür ist die Entwicklung der Bilderkennung und -generierung durch KI. Diese war vor ein paar Jahren noch auf dem Stand, dass sie nur grauschleierige Phantombilder schaffen konnte. Inzwischen ist es mit sogenannten Deep-Fake-Technologien möglich, in Videos Gesichter mit extrem realitätsnaher Mimik auf fremde Körper zu pfropfen.

Grundsätzlich ist diese Entwicklung bahnbrechend. Als Visual Effect erlaubt sie in Filmen einmalige Aufnahmen, in denen zum Beispiel verstorbene Schauspieler*innen auf der Leinwand wieder zum Leben erweckt werden können. Ein gutes Beispiel hierfür ist die Nachbildung des 1994 verstorbenen Peter Cushing in Star Wars: Rogue One (2017). Mit Deepfakes ist es auch möglich, Schauspieler*innen jünger erscheinen zu lassen. Die Technik ist bei Will Smith in Gemini Man angewandt worden.

Deep-Fakes in der Bildung

Auch in der Bildung kommen Deep-Fakes gewinnbringend zum Einsatz. Das Dalí-Museum in St. Petersburg, Florida, nutzte etwa die Technologie als Teil einer Ausstellung. Ein lebensgroßer Deep-Fake von Salvador Dalí erzählte den Besucher*innen Geschichten über sein Leben. 

Die Schattenseite: Die Technik öffnet bei der Manipulation von Nachrichten Tür und Tor. Was ist, wenn mit derartigen Deep-Fake-Videos Politiker*innen falsche Aussagen in den Mund gelegt werden? Diese sind so täuschend echt, dass es schwerfällt, den Betrug zu erkennen. Das kann Katastrophen bis hin zu Kriegen auslösen.

Schadhafter Einsatz von Gesichtserkennungstechnologien

Ein nicht minder brisantes Thema ist der Einsatz von Gesichtserkennungstechnologien, der derzeit weltweit für heftige Debatten sorgt. Einerseits gelten Gesichtserkennungstechnologien zum Beispiel in der Strafverfolgung als äußerst effizient. In verschiedenen Ländern konnten damit schon einige Straftäter*innen zur Rechenschaft gezogen werden. 

Auch hierzulande melden die Ermittlungsbehörden in Deutschland Erfolge und haben bereits Hunderte mutmaßliche Täter und Täterinnen per Gesichtserkennungsprogramm gestellt. Nach Angaben der Bundesregierung recherchierte die Bundespolizei im ersten Halbjahr 2019 rund 1.200-mal im Gesichtserkennungssystem des BKA und identifizierte 219 Personen.

Wenn Grenzen beim Einsatz einer KI überschritten werden

Aber auch hier gibt es eine Kehrseite. Was ist, wenn die Technik – wie in China – eingesetzt wird, um die Bevölkerung zu kontrollieren und zu beobachten? Stichwort: Social Scoring. Im Grunde müssen Sie sich das Ganze wie folgt vorstellen: Überall im öffentlichen Raum gibt es Kameras, die alles mitschneiden. Jede noch so kleine Verfehlung wird registriert. Beispielsweise, wenn jemand bei Rot über die Straße geht. Eine Gesichtserkennungssoftware analysiert die Gesichter und dokumentiert alles. Jeden noch so kleinen Fehltritt.

Je nach Schwere eines Fehlers sinkt der persönliche Social Score einer Person um eine festgelegte Anzahl an Punkten. Was ist das? Durch die Vergabe von „Punkten“ für bestimmte Verhaltensweisen fördert die Regierung Chinas wünschenswertes Verhalten. Durch den Entzug von Punkten sanktioniert sie dagegen negatives Verhalten. Der persönliche Punktewert einer Person ist der Social Score.

Stichwort: Social Scoring

Restriktive Regierungen können den Social Score nutzen, um die verschiedensten Lebensbereiche zu beeinflussen. Zum Beispiel könnte wegen wiederholten Fehlverhaltens im öffentlichen Raum die Haftpflichtversicherung teurer werden. Wer sich nicht gesund ernährt, muss höhere Krankenkassenbeiträge zahlen und so weiter. Auch auf die Berufswelt kann sich der Social Score auswirken. Personen mit einem schlechten Social Score könnten von vornherein von bestimmten Berufen ausgeschlossen werden. Der Staat kann also das ganze Leben beeinflussen.

Und je nachdem, wie strikt er Sanktionen schon bei kleineren Fehltritten vornimmt, führt das zu erheblichen persönlichen und beruflichen Einschränkungen. Damit ist das Ende der Fahnenstange nicht erreicht: Was ist, wenn es zu Manipulationen kommt und der Social Score bestimmter Personen von vornherein so eingestellt ist, dass diese nie über einen bestimmten Schwellenwert kommen? So könnten ganze Bevölkerungsgruppen von sozialen und beruflichen Möglichkeiten ausgeschlossen werden. Das ist Diskriminierung mittels KI.

Fazit

Diese Beispiele zeigen: KI ist immer nur so gut, wie ihre menschlichen Anwender*innen. Eine KI kann jederzeit ausgenutzt werden. Was ist die Lösung? Künstliche Intelligenzen zu zentralisieren und streng zu kontrollieren, wäre zum Beispiel eine Möglichkeit, Missbrauch vorzubeugen. Es muss Regeln geben, die festlegen, was erlaubt ist und was nicht. Wenn es erstmal einen gewissen STANDARD gibt, verringert sich die Wahrscheinlichkeit, dass KI in großem Stil schädlich eingesetzt wird.

Aber eines sollte bis hierhin klar geworden sein: Man muss die Menschheit nicht vor einer KI schützen, sondern vor sich selbst. Sie ist es, die die Möglichkeiten, die eine Künstliche Intelligenz bietet, schädlich nutzt. Dafür müssen Lösungen geschaffen werden. Und zwar schnell.


Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.