Stand der Technik - vertrauenswürdiger AI-Standard für virtuelle Roboter
Während KI viel Gutes bewirken kann, einschließlich der Erhöhung der Sicherheit von Produkten und Prozessen, kann sie durch eine Vielzahl von Risiken auch Schaden anrichten, wie im vorangegangenen Artikel "Herausforderungen von KI-Anwendungen bei der Zollabfertigung" beschrieben. Daher sollte sich ein regulatorischer Rahmen sowie ein Unternehmensstandard für vertrauenswürdige KI, den ein Unternehmen befolgt, darauf konzentrieren, wie die verschiedenen Risiken potenzieller Schäden minimiert werden können, insbesondere die wichtigsten, wie die Risiken für die Grundrechte, die Sicherheit und das wirksame Funktionieren des Haftungssystems. Die folgenden Abschnitte enthalten daher erstens einen Vorschlag für einen rechtlichen Rahmen, mit dem KI-Probleme durch die Anwendung rechtlicher Maßnahmen entschärft werden könnten, und zweitens einen möglichen Unternehmensstandard, mit dem vertrauenswürdige KI-Lösungen erreicht werden können.
Rechtlicher Rahmen
In Anbetracht der bereits verfügbaren rechtlichen Maßnahmen ist ein umfangreicher Korpus bestehender EU-Rechtsvorschriften zur Produktsicherheit und -haftung, einschließlich sektorspezifischer Vorschriften, die durch nationale Rechtsvorschriften ergänzt werden, von Bedeutung und könnte bereits auf mehrere neu entstehende KI-Anwendungen Anwendung finden. Neben diesen bereits bestehenden Vorschriften könnte der Rechtsrahmen durch die folgenden Bestimmungen weiter verbessert werden:
Einführung eines fünfstufigen risikobasierten Regulierungssystems, wie es von der deutschen Datenethikkommission gefordert wird. Auf diese Weise wüssten Unternehmen, wo ein KI-Geschäft ohne jegliche Regulierung, mit wenig oder mit viel Regulierung begonnen werden kann und welches KI-Geschäft als gefährlicher Anwendungsbereich verboten ist. Bevor ein neu entstehendes KI-Geschäft jedoch nach diesen Stufen eingestuft wird, kann es erforderlich sein, es einige Zeit lang zu beobachten, um wirklich zu wissen, ob Regulierungen nicht notwendig sind oder ob das Geschäft vollständig verboten werden sollte, da die letztere Maßnahme das Tempo des technologischen Fortschritts verringern könnte,
Entwicklung eines gemeinsamen Ansatzes auf EU-Ebene, um den europäischen Unternehmen einen reibungslosen Zugang zum Binnenmarkt zu ermöglichen und ihre Wettbewerbsfähigkeit auf den globalen Märkten zu fördern,
die wirksame Anwendung und Durchsetzung bestehender EU- und nationaler Rechtsvorschriften, indem sichergestellt wird, dass KI-Maßnahmen interpretierbar und erklärbar sind,
Aufgrund von Produktänderungen und der möglichen negativen Auswirkungen von KI-Systemen auf die Sicherheit sollten neue Risikobewertungen, menschliche Aufsicht bei der Produktgestaltung und während des gesamten Lebenszyklus des KI-Produkts und -Systems als Schutzmaßnahme in Betracht gezogen werden,
ausdrückliche Verpflichtungen für die Hersteller könnten auch im Hinblick auf die psychischen Sicherheitsrisiken der Nutzer in Betracht gezogen werden,
gewerkschaftliche Rechtsvorschriften zur Produktsicherheit, um fehlerhafte Daten in der Entwurfsphase und die Aufrechterhaltung einer ausreichenden/hohen Datenqualität während der gesamten Nutzung von KI-Produkten und -Systemen zu gewährleisten,
Festlegung von Transparenzanforderungen, um die Undurchsichtigkeit von auf Algorithmen basierenden Systemen zu vermeiden,
Personen, die durch KI-Systeme geschädigt wurden, müssen das gleiche Schutzniveau genießen wie Personen, die durch andere Technologien geschädigt wurden, wobei die technologische Innovation weiter vorangetrieben werden sollte; für eine bessere Entschädigung ist eine Haftpflichtversicherung erforderlich,
Festlegung von EU-Sicherheitsanforderungen, die KI-Systeme erfüllen müssen, um als vertrauenswürdige KI zertifiziert zu werden. Dazu gehören z. B. ausreichend große Datensätze, die alle relevanten Szenarien abdecken und relevante Dimensionen wie Geschlecht, ethnische Zugehörigkeit und andere mögliche Gründe für verbotene Diskriminierung darstellen. Eine weitere EU-Sicherheitsanforderung könnte für Datenschutzmaßnahmen definiert werden,
Dokumentations- und Aufzeichnungspflichten für Daten,
Definition von Anforderungen an die technische Robustheit, damit die Unternehmen wissen, was ein robustes KI-System ist?! Wie groß soll die Genauigkeit für dieses spezifische KI-Unternehmen sein? Was sind die Anforderungen an reproduzierbare Ergebnisse? Wann sind die Anforderungen erfüllt, dass ein KI-System über alle Lebenszyklusphasen hinweg zuverlässig mit Fehlern oder Inkonsistenzen umgehen kann? Welche Anforderungen an die Resilienz könnten gestellt werden, um das KI-System vor Cyberangriffen und Daten-/Algorithmusmanipulationsversuchen zu schützen?
Festlegung verschiedener menschlicher Kontrollanforderungen und -ebenen für verschiedene KI-Unternehmen (Mensch in oder auf der Schleife, Mensch auf Befehl oder kein Mensch in der Schleife für nicht riskante, selbstlernende Anwendungen erforderlich), EU-Datenschutzvorschriften zum Verbot der Verarbeitung biometrischer Daten zur eindeutigen Identifizierung einer natürlichen Person, außer unter bestimmten Bedingungen.
Unternehmensstandard für vertrauenswürdige KI
Da es einen gesetzlichen Rahmen für KI-Anwendungen im Allgemeinen geben wird, ist es sehr empfehlenswert, dass Unternehmen Maßnahmen ergreifen, um bereits jetzt auf diese Zeiten vorbereitet zu sein und vertrauenswürdige Lösungen zu entwickeln. Diese KI-Systeme sollen den gesetzlichen Bestimmungen entsprechen und Vertrauen bei Unternehmen, die die Lösung kaufen möchten, und bei den Nutzern, die mit der KI-Engine interagieren, schaffen. Die Bewältigung unbekannter/neuartiger Themen, die vor uns liegen, ist jedoch nicht immer eine leichte Aufgabe. Daher möchte Digicust Unterstützung bei der Entwicklung vertrauenswürdiger KI-Anwendungen sowie bei der Gestaltung der Zukunft der Mensch-Computer-Interaktion bieten, indem es die folgenden Komponenten vorschlägt, die ein vertrauenswürdiger KI-Standard enthalten sollte:
Data Governance, Kontrolle und Aufsicht → dient als durchgängiges Grundgerüst für alle anderen Dimensionen, das in den Grundwerten des Unternehmens, ethischen Leitplanken und regulatorischen Einschränkungen verankert ist, wobei Kontrolle und Aufsicht durch Nutzer, Entwickler und Datenwissenschaftler die Norm sein sollten.
Ethik und Regulierung → ein KI-System sollte so entwickelt werden, dass es den Vorschriften entspricht, ethisch vertretbar ist und in den Unternehmensrichtlinien und Verhaltenskodizes für Mitarbeiter dokumentiert ist. Verantwortung und Rechenschaftspflicht → vertrauenswürdige KI-Systeme sollten Richtlinien enthalten, die festlegen, wer für ihre Ergebnisse verantwortlich und rechenschaftspflichtig ist.
Gestaltung, Interpretierbarkeit und Erklärbarkeit → in Bezug auf KI-generierte Entscheidungen, d. h. sie sollten für alle Parteien interpretierbar und leicht erklärbar sein. Diese Aspekte sollten in ein intelligentes UX/UI-Design einfließen, das den Menschen in den Mittelpunkt stellt, d.h. die Anforderungen und den zukünftigen Prozess kennt, um Datenschutz, Sicherheit und Transparenz in das Frontend zu integrieren.
Robustheit, Sicherheit und Schutz → nur KI-Systeme, die eine robuste Leistung bieten, sind sicher in der Anwendung, und es sollten nur solche entwickelt werden, die die negativen Auswirkungen von Cyberangriffen minimieren.
Voreingenommenheit und Fairness → Das Erkennen von Entscheidungen, die möglicherweise nicht für alle Parteien fair sind, ist die Grundlage für die Entwicklung von KI-Systemen, die unerwünschte Voreingenommenheit abmildern und faire Entscheidungen unter einer spezifischen und kommunizierten Definition realisieren.
Ausbildung, Personalentwicklung → Die zunehmende Automatisierung in allen Bereichen der Wirtschaft wird angenommen, was zu neuen Arbeitsplätzen führt, die neue Fähigkeiten erfordern, und Unternehmen müssen ihre Mitarbeiter weiterentwickeln. KI verändert die Art und Weise, wie Menschen arbeiten. Infolgedessen sollte eine KI-spezifische Ausbildung in Betracht gezogen werden.
Zertifizierung der Vertrauenswürdigkeit von KI und Standardisierung → Erreichen einer vertrauenswürdigen KI durch die Einhaltung von Standards, z. B. für Design, Herstellung und Geschäftspraktiken, die zusätzlich von Externen zertifiziert werden, die das entwickelte KI-System bescheinigen. Zu diesem Zweck will Digicust sein zukünftiges Produkt mit dem Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS testen, um seine KI-Anforderungen zu erfüllen und vertrauenswürdig-zertifizierte KI-Systeme zu realisieren.
Erfahren Sie mehr über Requirements Engineering, Benchmarking von IDP-Anbietern und Automatisierung von Zollanmeldungen mit Dexter IDP.
Erfahren Sie mehr über Zollabfertigung, Außenhandel, unsere Produktupdates und unsere neuesten Errungenschaften.