KI als Werkzeug und Waffe: Die Ambivalenz moderner Sprachmodelle in der Cybersicherheit
Die Dualität der KI: Werkzeug und Bedrohung
Künstliche Intelligenz (KI) hat in den letzten Jahren enorme Fortschritte gemacht. Sie wird in vielen Bereichen eingesetzt, von der Medizin bis zur Softwareentwicklung. Doch mit der zunehmenden Leistungsfähigkeit von KI-Systemen wachsen auch die Risiken. Besonders besorgniserregend ist die Nutzung von KI durch Cyberkriminelle. Sprachmodelle wie ChatGPT oder Claude können nicht nur Texte generieren, sondern auch komplexe Aufgaben automatisieren – einschließlich der Planung und Durchführung von Cyberangriffen. Diese Ambivalenz macht KI zu einem zweischneidigen Schwert.
Automatisierung von Cyberangriffen: Social Engineering und Exploits
KI senkt die Einstiegshürden für Cyberangriffe erheblich. Ein zentrales Problem ist das Social Engineering, bei dem Angreifer die menschliche Psyche ausnutzen. KI kann täuschend echte Phishing-Mails verfassen, die individuell auf das Opfer zugeschnitten sind. Diese Mails imitieren den Schreibstil von Kollegen, Freunden oder sogar Banken. Studien zeigen, dass KI in der Lage ist, Menschen zu überzeugen, auf schädliche Links zu klicken. Doch KI kann noch mehr: Sie hilft auch bei der Suche nach Schwachstellen in Software, sogenannten Bugs. Einige Modelle sind sogar in der Lage, Zero-Day-Exploits zu finden – Schwachstellen, die bisher unbekannt waren.
Autonome KI-Systeme: Die Zukunft des Hackings?
Die Fähigkeiten von KI gehen über die bloße Unterstützung hinaus. Bei einem Wettbewerb der US-Behörde DARPA im Jahr 2025 zeigten KI-Systeme, dass sie autonom Schwachstellen in echtem Programmcode finden können. Einige Modelle entdeckten nicht nur Bugs, sondern testeten auch, ob diese ausnutzbar sind. Das bedeutet, dass KI in Zukunft möglicherweise völlig autonom Angriffe durchführen könnte. Experten wie Matthias Deeg von der SySS GmbH warnen, dass dies die Cybersicherheit grundlegend verändern könnte. Angreifer bräuchten dann kaum noch technisches Wissen, um erfolgreiche Hacks durchzuführen.
Die Rolle der KI-Unternehmen: Warnungen und Interessenkonflikte
Große KI-Unternehmen wie OpenAI, Anthropic und Google warnen öffentlich vor den Risiken ihrer eigenen Technologien. Anthropic berichtete beispielsweise, dass eine Hackergruppe ihren Chatbot Claude nutzte, um 90 Prozent eines Cyberspionageangriffs zu automatisieren. Allerdings fehlen oft technische Details, die diese Aussagen unabhängig überprüfbar machen. Einige Experten vermuten, dass die Warnungen auch dem Marketing dienen. Schließlich haben KI-Unternehmen ein finanzielles Interesse daran, ihre Modelle als besonders leistungsfähig darzustellen. Gleichzeitig verkaufen einige dieser Unternehmen auch Sicherheitslösungen gegen KI-gestützte Angriffe.
Schutzmaßnahmen: Bleiben die alten Regeln gültig?
Trotz der neuen Bedrohungen durch KI bleiben die grundlegenden Schutzmaßnahmen für IT-Systeme weitgehend unverändert. Experten empfehlen: - Regelmäßige Sicherheitsupdates, um bekannte Schwachstellen zu schließen. - Starke Passwörter und Multi-Faktor-Verifizierung, um den Zugang zu Konten zu schützen. - Vorsicht im Umgang mit E-Mails und Links, um Phishing-Angriffe zu vermeiden. Allerdings steigt der Aufwand für die Verteidigung, da KI-Angriffe schwerer zu erkennen und abzuwehren sind. Die defensive Seite sieht sich daher mit neuen Herausforderungen konfrontiert, während Angreifer von der Automatisierung profitieren.