Kaspersky hat eine Richtlinie für eine sichere KI-Entwicklung vorgestellt. Ziel sei es, Unternehmen dabei zu unterstützen, die Cybersicherheitsrisiken der bereits allgegenwärtigen Technik zu adressieren.
Kasperskys „Guidelines for Secure Development and Deployment of AI Systems“ – vorgestellt diese Woche auf dem United Nations Internet Governance Forum (IGF) 2024 in Riad, Saudi-Arabien – wurden in Zusammenarbeit mit führenden akademischen Experten entwickelt, um die wachsende Komplexität der Cybersicherheitsherausforderungen im Zusammenhang mit KI-gesteuerten Systemen zu adressieren.
Die Richtlinie soll als Ressource für Entwickler, Administratoren und KI-DevOps-Teams dienen und enthält detaillierte, praxisorientierte Empfehlungen, um technische Sicherheitslücken zu schließen und Betriebsrisiken zu minimieren.
„Guidelines for Secure Development and Deployment of AI Systems“ sei besonders für Organisationen relevant, die auf KI-Modelle von Drittanbietern und Cloud-basierte Systeme angewiesen sind, da Schwachstellen in diesen Bereichen zu erheblichen Datenlecks und Reputationsschäden führen können.
Durch die Integration von Security-by-Design-Prinzipien unterstützt die Richtlinie Organisationen dabei, die KI-Bereitstellung an Standards wie ESG und internationale Compliance-Anforderungen anzupassen. Sie behandelt zentrale Aspekte der Entwicklung, Bereitstellung und des Betriebs von KI-Systemen, einschließlich Design, bewährter Sicherheitspraktiken und Integration, ohne sich auf die Entwicklung grundlegender Modelle zu fokussieren.
Die Richtlinien adressieren die folgenden Prinzipien zur Verbesserung der Sicherheit von KI-Systemen:
Yuliya Shlychkova, Vice President of Public Affairs bei Kaspersky, kommnetierte: „Angesichts der zunehmenden Verbreitung von KI ist die Gewährleistung ihrer Sicherheit nicht optional, sondern unerlässlich. Beim IGF 2024 tragen wir zu einem Dialog mehrerer Interessengruppen bei, um Standards zu definieren, die Innovationen schützen und zur Bekämpfung neuer Cyberbedrohungen beitragen.“