Amberg
16.03.2022 - 16:48 Uhr

Wenn die Künstliche Intelligenz zum Verbrecher wird

Prominente Frauen wie Natalie Portman, Emma Watson oder Scarlett Johannsen mussten bereits die Erfahrung machen: Sie wirkten vermeintlich in einem Pornofilm mit, obwohl sie das real niemals taten. Hier war Künstliche Intelligenz im Spiel.

Ohne Corona wäre der große Rathaussaal am Dienstagabend beim zweiten Vortrag der Erlanger Universitätstage wahrscheinlich wieder aus allen Nähten geplatzt. Der Vortrag von Professor Felix Freiling über „Chancen und Risiken des Einsatzes von KI bei der Bekämpfung von Cyberkriminalität“ versprach einen tiefen Einblick auch in die dunkle Seite der Künstlichen Intelligenz. So kamen wenigstens die erlaubten 50 Zuhörer in den Genuss eines kurzweiligen Vortrages. Der ein beruhigendes Fazit gab: "Es gibt keine Künstliche Intelligenz, die KI imitiert nur."

Trotzdem kann diese KI sehr gefährlich werden. Daran ließ Felix Frieling keinen Zweifel. Und es geht meistens um eines: "Sie wollen Ihnen das Geld aus der Tasche ziehen." So würden die gefälschten Pornofilme natürlich dazu benutzt, die betreffenden Menschen zu erpressen. Oder Firmen. Denn tatsächlich gibt es Versuche, die selbstfahrende KI in Autos zu überlisten, indem – mit Hilfe von KI natürlich – deren Bilderfassungssysteme getäuscht werden. So kann laut Frieling mit einem einfachen QR-Code jedes Verkehrsschild für den Bordcomputer in ein Stopp-Schild verwandelt werden.

Staaten als neue "Spieler"

Relativ neu sind die Staaten als "Spieler" in die dunkle Seite der KI eingestiegen. Mehr oder weniger gelungene Bildfälschungen oder das Hacken von Energiesystemen mit Hilfe der Künstlichen Intelligenz nannte Frieling, der den Lehrstuhl für Informatik 1 an der Friedrich-Alexander-Universität Erlangen-Nürnberg innehat. So sei 2015 die ukrainische Energieversorgung von Hackern vorübergehend übernommen worden – vermutlich aus Russland. Die USA und Israel stecken seiner Ansicht nach hinter dem Hacker-Angriff auf das iranische Energieprogramm, das dieses vermeintlich um Jahre zurückgeworfen hat.

Künstliche Intelligenz, so Frieling, kann böse sein – sie muss es aber nicht. "Es gibt immer die beiden Seiten der KI: gut und böse." So verwenden die Hersteller von Virenprogrammen ganz gezielt Schadsoftware, die mit Hilfe der KI leicht verändert wird, um zu testen, ob ihr Programm auch diese Varianten erkennt. Beeindruckend war die praktische Vorführung von Freiling, der erst einen gesprochenen Text von einem Sprachprogramm schriftlich ausgeben ließ. Nach einer "Behandlung" mit einem leichten Rauschen, gab die Maschine plötzlich einen völlig anderen Text aus, der wiederum für ein elektronischen System sehr gefährlich werden konnte.

KI "erfindet" Bilder

Wie weit KI inzwischen ist, das zeigte Felix Freiling anhand von Bildern, die vollständig von KI geschaffen worden sind. Stichwort Deepface. Das sind Porträts von Menschen, die real überhaupt nicht existieren, von Pferden oder Katzen. Das geht sogar soweit, dass man inzwischen überlegt, ob die KI für Kunstwerke, die von ihr geschaffen werden können, das Copyright besitzen kann. Manchmal geht der künstliche Schuss aber auch gewaltig nach hinten los, wie Felix Freiling anhand eines teilweise gefälschten Bildes von einem iranischen Raketenabschuss zeigte. Weil eine Rakete von vier nicht zündete, wurde sie kurzerhand ins Bild montiert. Die Community konnte über diesen Versuch nur lachen und produzierte reihenweise Bilder, auf denen nun Dutzende iranische Raketen kreuz und quer flogen.

KI kann aber auch sehr nützlich sein, um Verbrechen aufzudecken, sagte Professor Freiling. Die Kriminalistik nutzt sie beispielsweise, um große Datenmengen auf sichergestellten Festplatten und Rechnern systematisch zu untersuchen. Wer hat wem und wie oft eine Email geschrieben? Woher stammt ein bestimmtes Bild? Mit welchem Gerät wurde es aufgenommen? Welche "Fingerabdrücke" haben bestimmte Programme auf einer Festplatte hinterlassen? Das geht laut Freiling so weit, dass die Polizei KI nutzt, um herauszufinden, wo künftig vermehrt Verbrechen stattfinden werden.

Vorsichtig im Umgang mit KI

Der Informatik-Professor selbst ist übrigens vorsichtig im Umgang mit der Künstlichen Intelligenz, die uns jeden Tag umgibt: in den sozialen Medien oder in "intelligenten" Lautsprechersystemen mit Namen wie Alexa oder Siri. Nach Amberg ist Felix Freiling trotzdem mit Hilfe der KI gekommen, nämlich mit seinem Navi. "Ich habe aber schon auf der Karte nachgeschaut, ob das auch stimmen kann, was mir das Navi da anzeigt." So ganz traut nicht einmal der Profi der Künstlichen Intelligenz.

"Es gibt immer die beiden Seiten der KI: gut und böse."

Professor Felix Freiling

Professor Felix Freiling

 
Kommentare

Um Kommentare verfassen zu können, müssen Sie sich anmelden.

Bitte beachten Sie unsere Nutzungsregeln.

Klicken Sie hier für mehr Artikel zum Thema:
Zum Fortsetzen bitte

Sie sind bereits eingeloggt.

Um diesen Artikel lesen zu können, benötigen Sie ein OnetzPlus- oder E-Paper-Abo.