• news.cision.com/
  • eloquenza/
  • Ein Kommentar von Fabien Rech, SVP & GM EMEA bei Trellix, zu EU AI Act und EU Cyber Resilience Act

Ein Kommentar von Fabien Rech, SVP & GM EMEA bei Trellix, zu EU AI Act und EU Cyber Resilience Act

Report this content

“Der EU AI Act ist ein notwendiger erster Schritt zur Schaffung einer Governance-Struktur für die ethische und sichere Implementierung von KI-Anwendungen auf der Grundlage eines risikobasierten Ansatzes. Künstliche Intelligenz entwickelt sich rasant, und es ist Aufgabe der Industrie und der Politik, dafür zu sorgen, dass Technologie verantwortungsvoll eingesetzt wird. Der Mensch muss dabei stets im Mittelpunkt stehen. Es ist klar, dass wir einen Rechtsrahmen benötigen, der ein Gleichgewicht zwischen Schutz und Innovation in der Industrie schafft. 

In ihrer jetzigen Form sind die Vorschriften unflexibel. Das bedeutet, dass die Gefahr besteht, dass eine KI-Anwendung böswillig eingesetzt wird, ohne dass es einen Mechanismus gibt, um sie als hochriskant einzustufen. Dies ist insofern beunruhigend, weil wir in der Vergangenheit gesehen haben, dass Bedrohungsakteure KI eingesetzt haben, um effektivere Cyber-Angriffe durch Phishing durchzuführen. Um die Cyber-Sicherheitsrisiken von KI-Systemen zu mindern, könnten weitere Leitlinien für die Nutzer-Community aufgenommen werden, damit diese von den bestehenden KI-Standards profitieren kann. 

Organisationen sollten die Zeit bis zur Umsetzung der Verordnung nutzen, um ihre Sicherheitssysteme zu optimieren. Und dabei prüfen, ob ihre E-Mail- und Endpoint-Sicherheitslösungen maschinelle Lernfunktionen nutzen, um den bestmöglichen Schutz zu bieten. KI schafft neue Angriffsflächen für Akteure, die diese je nach ihren Absichten ausnutzen können. Daher kann die Implementierung spezifischer Cyber-Sicherheitskontrollen, wie z. B. eine verstärkte Sicherheitsüberwachung von ML- und KI-Systemen, die Widerstandsfähigkeit und Zuverlässigkeit ihrer Anwendungen gewährleisten. Darüber hinaus hat MITRE ein neues Rahmenwerk namens ATLAS veröffentlicht, das die Taktiken und Techniken von Angreifern beschreibt, die ML-Systeme kompromittieren. Dies ist eine wertvolle Ressource für Unternehmen, um ihre Sicherheitskontrollen, Richtlinien und die Sichtbarkeit dieser Angriffsvektoren zu überprüfen. 

Insgesamt entwickelt sich die generative KI-Landschaft in einem rasanten Tempo weiter. Die Tools, die allen Akteuren zur Verfügung stehen, werden immer raffinierter. Um Organisationen und staatliche Einrichtungen zu schützen, müssen Vorschriften eingeführt werden, die spezifische Sicherheitskontrollen für KI-Systeme festlegen.” 

Abonnieren

Medien

Medien