Heutzutage verändern sich volatile, unsichere, komplexe und mehrdeutige (VUCA-)Märkte schnell, beeinflusst durch Globalisierung, technologischen Fortschritt und viele andere Faktoren. Infolgedessen entstehen und verschwinden Unternehmen in einem atemberaubenden Tempo. Das ist im Markt der Zollabwicklung anders: Ein gutes Beispiel sind elektronische Signaturen für Zolldokumente, wie EUR.1, CITES etc. Obwohl deutsche Zollbehörden diese akzeptieren, lehnen viele andere Länder sie nach wie vor ab.
Der Grund dafür ist, dass weltweit nur wenige Länder technologisch so weit fortgeschritten sind wie Deutschland. Daher wird der Gültigkeit elektronisch signierter Dokumente nicht vertraut, was zu viel physischem Papierkram führt. Ebenso mangelt es KI-Anwendungen an Vertrauenswürdigkeit. Die Gründe für das fehlende Vertrauen in KI-Anwendungen unterscheiden sich jedoch deutlich vom vorherigen Beispiel und werden in den folgenden Abschnitten reflektiert.
Respekt der menschlichen Autonomie
Ein Hauptprinzip von vertrauenswürdiger KI ist, dass Menschen ihre eigenen Entscheidungen mit voller und effektiver Entschlossenheit treffen müssen. Dieses Grundrecht muss berücksichtigt werden, da KI-Systeme das Wissen von Zollabfertigungsspezialisten verwirren können. Angenommen, die Experten wissen nicht, dass die bereitgestellten Informationen/Erkenntnisse voreingenommen, instabil oder ungenau sein können, insbesondere zum Start der Verwendung solcher KI-Anwendungen - in diesem Fall können sich nicht so erfahrene Zollmitarbeiter von z. B. Speditionen falsches Know-how aneignen, was zu einer negativ manipulierten Entscheidungsfindung laufender Experten führt. Darüber hinaus kann sich ein Zollspezialist bedroht oder nicht respektiert fühlen, wenn das Unternehmen kein Bewusstsein für eine neue Anwendung geschaffen hat, die von seinen Mitarbeitern lernt. Ein Arbeitsumfeld sollte auf Vertrauen basieren, und wenn eine solche Basis fehlt, könnten mögliche Ängste aufkommen, was zu weniger motivierten Mitarbeitern und einer negativen Atmosphäre führt. Wenn man bedenkt, dass Digicust die Zollabfertigung für Experten erleichtern soll, damit sie nicht alle Zollvorschriften auswendig kennen müssen, stellt sich eine andere Frage: „Wie würden Zollspezialisten Notfälle bei Software-Ausfällen und totalen IT-Fallbacks bewältigen? Keine profunde Wissensbasis?" Wenn man noch weiter denkt, was passiert, wenn die Digicust-KI-Engine eine enorme Menge an Zollabfertigung in einem Unternehmen übernommen hat, was passiert, wenn das KI-System von einem Zollbeamten lernt, der dieses Unternehmen hasst, und anfängt, absichtlich Fehler zu machen (aufgrund der daraus gewonnenen Erkenntnisse). Zollagent)? Oder könnte die KI-Engine vielleicht die Entscheidung des Zollspezialisten makellos manipulieren und Fehler verursachen, für die der Mitarbeiter verantwortlich gemacht wird und nicht die Maschine?
Schadensverhütung
Laut der Kritikalitätspyramide der Deutschen Datenethik-Kommission kann eine KI-basierte Automatisierung in der Zollabwicklung zu Datenmissbrauch, Datenverschmutzung, Transportverzögerungen, Verwaltungsstrafen, steuerlichen Schäden und letztendlich zu mehr oder weniger schweren Schäden beim Käufer des Produkts führen. Neben der Vermeidung einer Verletzung der Entscheidungsautonomie des Benutzers sind die zuvor erwähnten potenziellen Schäden weitere Gründe für die Implementierung des Human-in-the-Command-Ansatzes. Eines der Ziele von Digicust ist die Entwicklung einer KI-Anwendung, die sich um alle Beteiligten entlang der Wertschöpfungskette von Waren kümmert. Beispielsweise sollen chinesische Hersteller die gleichen Chancen haben, ihre Waren nach Österreich / in die EU und andere Länder zu exportieren, obwohl etwa 80% ihrer Dokumente und Sendungen derzeit große Probleme bei der Zollabfertigung verursachen. Andere Parteien, wie z. B. Speditionen, sollen vollen Zugriff auf potenzielle Vorteile haben, die KI durch die frühzeitige Erkennung schlechter Dokumentenqualität liefern könnte, anstatt ihnen Transportverzögerungen zu verursachen oder Verwaltungsstrafen zu provozieren. Die Regierung soll eine verbesserte Betrugserkennung und erhöhte Steuereinnahmen nutzen, indem sie Produktpiraterie, illegale Produkte und falsch klassifizierte Zölle/Waren aufdeckt. Die Datenschutzstrategie sollte ihren Feind kennen, damit entsprechende Maßnahmen geplant werden können (z. B. Adversarial AI). Letztendlich soll die Digicust-KI-Engine die Komplexität der Zollabfertigung für Empfänger/Versender verringern, anstatt die globalen Handelsbemühungen zu erhöhen, indem sie schnelle Antworten auf Fragen liefert und ihre Kommunikation zentralisiert. Daher besteht eine weitere große Herausforderung bei der Entwicklung einer Digicust-KI-Engine darin, so viel technische Robustheit wie möglich zu erreichen, um allen am Prozess beteiligten Parteien Transparenz, Sicherheit und Fairness zu bieten.
Gerechtigkeit
Bei der Zollabfertigung gibt es bekannte Gebiete/Länder, aus denen verdächtige Sendungen und schlechte Dokumentenqualität der importierten Waren zu erwarten sind. Bei Untersuchungen durch den virtuellen Zollroboter Neo kann es sein, dass dieser Informationen liefert wie: „Sehr geehrter Zollbeamter, diese Ware wurde aus China verschickt, bitte kontrollieren Sie, ob die Ware Müll ist.“ oder: "Sehr geehrter Zollbeamter, bitte stoppen Sie diesen Versand, da Waren aus Taiwan im Zusammenhang mit Produktpiraterie stehen." Wenn man die KI-Engine Erkenntnisse und Empfehlungen selbst trainieren lässt, kann dies dazu führen, dass solche Sätze bestimmte Länder/Gebiete der Welt diskriminieren, obwohl nicht alle Unternehmen aus diesen Ländern schlechte Qualität und illegale Produkte verkaufen.
Ein weiteres mögliches Diskriminierungsszenario wäre, alle chinesischen Sendungen automatisch als verdächtig zu markieren, nur weil die aktuellen Daten darauf hindeuten, dass z. B. 80 % der chinesischen Waren mit schlechter Dokumentenqualität und Produktpiraterie zusammenhängen. Diese Verallgemeinerung würde bedeuten, dass es bei 20 % der chinesischen Sendungen zu Transportverzögerungen kommt, obwohl diese Sendungen regelmäßig Rechnungspreise und korrekte Kopfzeilen auf Einfuhrdokumenten aufweisen. Dadurch würden chinesische Unternehmen, die versuchen, Rohstoffe europarechtskonform zu exportieren, einen Imageverlust erleiden.
Erklärbarkeit
Laut einer jüngsten globalen CEO-Umfrage von PwC wurde festgestellt, dass 85 % der CEOs zustimmen, dass KI ihre Unternehmen in den nächsten fünf Jahren erheblich beeinflussen/verändern wird, und 84 % sind der Meinung, dass KI-basierte Entscheidungen erklärbar sein müssen. Bei der Analyse der Gründe für diese überzeugende Zahl wurde festgestellt, dass die mangelnde Interpretierbarkeit von KI-Entscheidungen nicht nur für Endbenutzer oder Kunden frustrierend ist, sondern ein Unternehmen auch betrieblichen, Reputations- und finanziellen Risiken aussetzen kann.
Ein Beispiel dafür ist, dass Unternehmen, die zu viele Verwaltungsstrafen erhalten, ihre Lizenz zur Zollabfertigung verlieren können, insbesondere wenn sie nicht erklären können, warum Waren auf eine bestimmte Weise deklariert wurden. Viele falsche Deklarationen, nicht nachvollziehbare Anfragen und lästige Kommunikation mit dem Kunden führen zu Imageverlust und der Versender/Empfänger kann über einen Wechsel des Spediteurs/Zollagenten nachdenken. Darüber hinaus haften Zollspezialisten (z. B. Spediteure) für ihre Zollanmeldungen und müssen wissen, wie die KI funktioniert, um Vertrauen in die Maschine zu gewinnen. Aufgrund der häufigen Kommunikation mit Behörden, Vorgesetzten und den Erkenntnissen, die sie aus der Maschine ziehen möchten, wünschen sie sich auch Einblicke in Maschinenaufgaben.
Die Personaleinsatzplanung in der Zollabfertigung ist wichtiger denn je, daher das richtige Arbeitsberechnungstool an Bord zu haben, das in der Lage ist, diese Prognosen und Kontrollmaßnahmen unter Berücksichtigung verschiedener Sendungsdaten, Saisonalitäten und möglicher, zeitaufwändiger Kontrollen der Zollbehörden zu erklären ist ein großer Gewinn für einen Spediteur. Aus staatlicher Sicht ist es erforderlich, alle Anmeldungen, Einstufungen von Zollcodes und Prüfungsentscheidungen ordnungsgemäß zu dokumentieren.
Ebenso möchten Kunden wissen, warum ihre Dokumente falsch sind, warum Informationen fehlen und warum Entscheidungen und Code-Klassifizierungen auf eine spezielle Weise durchgeführt wurden. Eine KI-basierte Zollsoftware, die selbstständig Zollanmeldungen macht oder den Zollbeamten Handlungsempfehlungen gibt und deren Handeln nicht nachvollziehbar ist, wird daher über kurz oder lang von der Regierung verbannt und Versicherungen werden verursachte Schäden nicht übernehmen. Schließlich sollen Digicust und seine Mitarbeiter auch in die Lage versetzt werden, „unter die Haube“ ihrer zugrunde liegenden Modelle zu schauen, die verwendeten Daten zu untersuchen, um sie zu trainieren, und schlüssige Erklärungen hinter jeder Entscheidung liefern, damit Schaden für alle Beteiligten so effektiv wie möglich verhindert werden kann.
Erfahren Sie mehr über Zollabfertigung, Außenhandel, unsere Produktupdates und unsere neuesten Errungenschaften.