Cybersicherheit – Welche Vor- und Nachteile ChatGPT für die IT-Landschaft hat

Sie wächst, macht immer schneller Fortschritte und dringt nach und nach in alle Bereiche der Informationstechnologie vor. Künstliche Intelligenz, kurz KI, ist auf dem Vormarsch. Die Technologie könnte vieles einfacher machen. Das gilt allerdings auch für Cyberkriminelle und ihre Phishing-Maschen.

Einige sind begeistert, reden von einem neuen Zeitalter, von revolutionärer Technologie. Andere sind skeptisch. Beeindruckt, was moderne KI-Systeme mittlerweile können, dürften aber die meisten sein. Einer der größten Streitpunkte von künstlicher Intelligenz ist die IT-Sicherheit. Viele technische Anwendungen profitieren von künstlicher Intelligenz oder werden das in Zukunft. Moderne Intrusion-Detection-Systeme etwa lernen mit Hilfe von KI, den normalen Netzverkehr und normale Ereignisse eines laufenden Betriebssystems von Unregelmäßigkeiten – sprich, potenziellen Gefahren – zu unterscheiden und dementsprechend einzugreifen. Sandbox-Systeme, eine Art sichere Testumgebung, nutzen künstliche Intelligenz, um bislang unbekannte potenzielle Schadsoftware durch dynamische Analysen automatisch zu erkennen und einzuordnen.

Hintertürchen für Hacker*innen

Doch unverwundbar sind KI-Systeme nicht. Das haben die vergangenen Jahre gezeigt. Modelle künstlicher Intelligenz können detailreiche Infos über ihre Trainingsdaten leaken. Backdoors ermöglichen es Hacker*innen, den normalen Zugang zu umgehen und auf Computer zuzugreifen.

Das ist ChatGPT

ChatGPT ist ein Chatbot, der künstliche Intelligenz einsetzt. Nutzer*innen können mit ihm durch textbasierte Nachrichten kommunizieren. Der Chatbot nutzt eine moderne maschinelle Lerntechnologie, um natürlich klingende und für das Gespräch relevante Antworten zu generieren. Die neueste Version von ChatGPT wurde vom US-amerikanischen Unternehmen OpenAI im März 2023 veröffentlicht.

Es ist ein ständiges Katz-und-Maus-Spiel zwischen Cyberkriminellen und Herstellern von Sicherheitssystemen. Die Systeme werden dadurch aber auch immer effizienter. „Mit der weiteren Entwicklung und Verbesserung der KI-Technologien könnten künftige IT-Schutzsysteme noch besser und proaktiver auf potenzielle Bedrohungen reagieren“, sagt John Burmester, Leiter der Digitalen Unternehmensentwicklung bei Funk. Gleichzeitig müssen Sicherheitsexpert*innen fortlaufend wachsam und anpassungsfähig bleiben, um so den Angreifer*innen immer einen Schritt voraus zu sein.

Cyberkriminelle können sich die KI-Technologie aber auch selbst zu Nutze machen. Im März 2023 ist die neueste Version von ChatGPT veröffentlicht worden. Ein KI-basierter Chatbot, der mit Benutzer*innen einen Dialog führen und Fragen beantworten kann. Die Ergebnisse sind faszinierend, das Sprachmodell beeindruckt. Eine Idee fürs Abendessen? In Sekunden da, samt Rezept und Kochanleitung. Ebenso ein detaillierter Trainingsplan oder die Gliederung der nächsten Hausarbeit – und eben auch kriminelle Starthilfe.

Phishing-Mails vom „Profi“

Für Cyberattacken sind aktuell Phishing-Mails hoch im Kurs. Über gefälschte E-Mails, Webseiten oder Kurznachrichten werden Daten von Nutzer*innen abgefangen, wie etwa Kontodaten. Die Texte dafür kann man sich im Grunde vorschreiben lassen, wie Prof. Dr. Sebastian Biedermann, Experte für Informationssicherheit, jüngst in einem Selbstversuch herausfand.

Das dürfte die Betrugsmasche künftig noch gefährlicher machen. Bislang sind die meisten Phishing-Mails teilweise ziemlich schlecht verfasst. Tippfehler, falsche Rechtschreibung oder ungewöhnliche Formulierungen werden von den meisten Empfänger*innen schnell erkannt. KI-Systeme wie ChatGPT können Phishing-Mails aber perfekt ausformulieren, personalisieren und mit Details anreichern. Und: Der Chatbot kann auch dabei helfen, die dazugehörige Phishing-Webseite zu entwickeln. Auf dieser werden gern die Login-Daten der Opfer gezogen, etwa für deren Bankkonten.

Regeln oder keine Regeln für KI?

Es braucht also Regeln – oder? Selbst Sam Altman, Chef des ChatGPT-Erfinders OpenAI, hat sich jüngst für eine strikte Regulierung von Künstlicher Intelligenz ausgesprochen. Burmester hält das für nur begrenzt geeignet: „Entscheidend ist vielmehr, grundsätzliche Sicherheitsmechanismen der in allen Unternehmen eingesetzten Technologien kontinuierlich und abgestimmt zu verbessern.“

„Unternehmen sind gefordert, unabhängig von Technologien wie ChatGPT ihre Sicherheitsvorkehrungen kontinuierlich weiterzuentwickeln.“

Süleyman Yenier, BSC - CBO von Funk International Austria GmbH

Ob Künstliche Intelligenz wirklich eine Bedrohung darstellt, die es einzudämmen gilt, darüber streiten Expert*innen. Von etwaigen Horrorszenarien aus Filmen oder Büchern, in denen künstliche Intelligenz die Menschheit unterwirft, ist die Gesellschaft laut Burmester technologisch eh noch weit entfernt. „Eine solche künstliche Intelligenz ist nicht in Sicht“, sagt er.

Die Europäische Union hat unterdessen schon Ideen, wie KI reguliert werden kann. Das birgt laut Alexandra Köttgen, stellvertretende Abteilungsleiterin Digital Risks bei Funk, aber auch die Gefahr, dass die Technologie überreguliert wird. „Zudem muss man sich die Frage nach dem technischen Fortschritt stellen“, sagt sie. Zu strikte Regeln könnten diesen bremsen – was Europa in Sachen Digitalisierung noch weiter zurückwerfen würde. „Aufgrund der Geschwindigkeit des technologischen Fortschritts besteht außerdem die Gefahr, dass ein Gesetz zwischen Verfassung, Verhandlung und Inkrafttreten zumindest in Teilen bereits wieder veraltet ist“, erläutert Köttgen.

Fluch und Segen zugleich

Doch künftige Regeln hin oder her: Unternehmen schützen sich Burmesters Meinung nach am besten aus einer Kombination aus Technik und Organisation sowie der Sensibilisierung von Mitarbeitenden.

Ist Künstliche Intelligenz nun Fluch oder Segen? „Jede Technologie setzt sich dann durch, wenn der Bedarf dafür besteht“, sagt Burmester. Der technische Fortschritt lasse sich nicht aufhalten. Dynamit etwa sei ja auch beides gewesen, Fluch und Segen zugleich. Diese Ambivalenz gelte für viele Erfindungen und Technologien – dementsprechend auch für ChatGPT oder andere KI-Systeme. Burmester hat eine klare Haltung dazu: „Wir müssen lernen, mit den Risiken umzugehen, um den Nutzen unter angemessenen Sicherheitsvorkehrungen zu maximieren.“

Sie haben Fragen zum Thema Cybersicherheit und IT-Technologie? Dann wenden Sie sich gern an unsere Expert*innen. Weitere Informationen zu Cyberrisiken finden Sie außerdem auf unserer Webseite.

11.08.2023

Ihr Kontakt

Süleyman Yenier, BSc