Armasuisse nimmt genKI ins Visier
Mit einer Open-Access-Studie will das Bundesamt für Rüstung über aktuelle Risiken aufklären. Zudem gibt es Hinweise zu einer angemessenen Verteidigung.
Mit dem Vordringen von KI-Lösungen in immer weitere Bereiche unserer Lebenswelt gehen auch neue Bedrohungen einher. Der Cyber-Defence Campus des Bundesamtes für Rüstung armasuisse veröffentlicht nun bereits zum zweiten Mal eine frei zugängliche Studie (Open Access) zu diesem Thema.
Die Untersuchung konzentriert sich auf die Auswirkungen von generativer künstlicher Intelligenz (genKI) auf die Cybersicherheit. Fachpersonen und Entscheidungsträgern aus der öffentlichen Verwaltung und der Wirtschaft soll dabei geholfen werden, die Einsatzrisiken zu beurteilen und geeignete Sicherheitsmassnahmen zu entwickeln.
Einfluss grosser Sprachmodelle
Aus Sicht der Autoren ergeben sich aus der Entwicklung und Verbreitung von künstlicher Intelligenz grosse Herausforderungen für die Sicherheit im Cyberraum. Insbesondere maschinelle Lernmodelle zum Erstellen von Texten, Bildern oder Videos würden immer leistungsfähiger. Deren Einsatz fände weite Verbreitung in der Bevölkerung. Dabei böte die generative KI erhebliche Missbrauchsrisiken wie etwa Deep Fakes, gefälschte Nachrichten oder Betrugsversuche. Gleichzeitig könne der bewusste Einsatz von KI auch positive Effekte mit sich bringen.
Die Studie zeigt auf, dass die Manipulation und der Missbrauch von Lernalgorithmen die Sicherheit der genutzten KI-Anwendungen gefährden kann. Beispielsweise könnten maschinelle Lernmodelle Text oder Software generieren, die teilweise subtile Fehler enthalten, jedoch nur schwer zu finden seien.
Grosse Sprachmodelle (Large Language Models, LLMs) hätten das Verständnis von Sprache revolutioniert und würden bereits heute in sicherheitsrelevanten Produkten und Anwendungen eingesetzt. Einerseits würden es LLMs damit ermöglichen, Cyberangriffe wirksamer zu bekämpfen, gleichzeitig könnten „bösartige“ Akteure LLMs verwenden, um kostengünstig Malware, Phishing-Nachrichten und Chatbots zu erstellen.
Stärkung der Cybersicherheit
Laut Studie werden LLMs mehrheitlich im Ausland hergestellt. Es ist für staatliche Akteure wie die Schweiz entsprechend wichtig zu verstehen, welche Abhängigkeiten von diesen ausländischen Herstellern bestehen und welche Risiken damit verbunden sind.
Die wichtigsten Erkenntnisse der vom CYD Campus und der Fachhochschule Westschweiz (HES-SO) Studie lauten:
- Generative künstliche Intelligenz und insbesondere grosse Sprachmodelle (LLMs) bringen erhebliche neue Bedrohungen in Bezug auf Cybersicherheit;
- Die Verwendung von generativer künstlicher Intelligenz beim Staat, in der Wirtschaft und in der Gesellschaft soll mit Sorgfalt erfolgen;
- Für eine sichere Entwicklung und einen sicheren Einsatz von generativer künstlicher Intelligenz, müssen Sicherheitskontrollen in der Datenverarbeitungskette eingesetzt werden.
Cyber-Defence Campus
Der Cyber-Defence Campus (CYD) wurde im Januar 2019 gegründet, um Cyber-Entwicklungen schneller zu antizipieren. Er bildet das Bindeglied zwischen VBS, Industrie und Wissenschaft in der Forschung, Entwicklung und Ausbildung für die Cyber-Verteidigung. Er ist beim Bundesamt für Rüstung armasuisse im VBS angesiedelt.