In dieser Serie untersuchen wir, welche rechtlichen Auswirkungen der EU "AI Act" auf Startups haben könnte. Im ersten Teil der Reihe besprechen wir, welche rechtlichen Aspekte bereits jetzt bei der Verwendung von KI-Systemen zu beachten sind, insbesondere um bei Investoren und Due Diligence "Red Flags" zu vermeiden. Der zweite und dritte Teil blickt in die Zukunft und diskutiert mögliche rechtliche Anforderungen aufgrund des AI Act und der KI-Haftungsrichtlinie. AI Act – Wieder auf dem richtigen Weg? Im April 2021 legte die Europäische Kommission einen Entwurf für eine KI-Verordnung vor, den "AI Act", der auf die Schaffung eines einheitlichen Rahmens für die Entwicklung, Einführung und Nutzung von Künstlicher Intelligenz in der EU abzielt. Dieser Entwurf ist immer noch im Bearbeitungsstadium und hat das finale Stadium noch nicht erreicht. Mit der Vorlage dieses Entwurfs signalisierte die Kommission, dass sie in der KI-Entwicklung führend sein möchte. Nachdem anfänglich viel über das Gesetz diskutiert wurde, wurde es jedoch schnell wieder still. Nun, zeitlich passend mit dem Hype um ChatGPT, meldete sich der Rat mit einer gemeinsamen Position zum Vorschlag der Kommission. Der Rat lobte den generellen Ansatz des Verordnungsentwurfs, äußerte jedoch Kritik an der weiten Definition eines KI-Systems. Sie planen nun, diesen Begriff zu präzisieren, sodass er nur Systeme umfasst, die auf den Konzepten des maschinellen Lernens und auf logik- und wissensbasierten Konzepten basieren, um eine Überregulierung von traditionellen Softwaresystemen zu vermeiden. AI Act - Ein Überblick über den "risk-based approach" Sowohl der Vorschlag der Europäischen Kommission als auch die Stellungnahme des Rates folgen einem "risikobasierten Ansatz". Der AI Act teilt KI-Systeme in verschiedene Risikokategorien ein und legt den Verantwortlichen je nach Risikokategorie verschiedene Pflichten auf. KI-Systeme, die eine Gefahr für Menschen, Sicherheit und Grundrechte darstellen, stehen ganz oben in der Risikopyramide. Ihr Einsatz ist in den meisten Fällen generell verboten. High-Risk-Systeme wie KI-Technologien in der Medizin unterliegen strengen Anforderungen und müssen einem behördlichen Konformitätsbewertungsverfahren standhalten. KI-Systeme in Chatbots und Deepfakes werden vom AI Act als geringes Risiko angesehen und nur eine Kennzeichnung des Systems ist erforderlich. Die Verwendung von KI-Technologieanwendungen mit minimalem Risiko wird durch den AI Act nicht beeinflusst. Nächste Woche sprechen wir im zweiten Teil über die Auswirkungen des AI Act auf Startups. Bleiben Sie dran und abonnieren Sie unseren Newsletter und unsere LinkedIn Seite um weitere spannende Informationen rund um das Thema KI und Digitalen Zoll zu erhalten.
Erfahren Sie mehr über Requirements Engineering, Benchmarking von IDP-Anbietern und Automatisierung von Zollanmeldungen mit Dexter IDP.
Erfahren Sie mehr über Zollabfertigung, Außenhandel, unsere Produktupdates und unsere neuesten Errungenschaften.