Direkt zum Inhalt
AI Act

Künstliche Intelligenz zwischen Innovation und Regulierung

Bild: Kindamorphic via Getty Images

Künstliche Intelligenz verändert ganze Branchen, lässt neue Geschäftsmodelle entstehen und stellt uns gleichzeitig vor zahlreiche ethische und rechtliche Fragen. Darauf hat die Europäische Union mit dem AI Act reagiert – der weltweit ersten umfassenden Regulierung von KI. Damit wird KI zu einer regulierten Industrie, ähnlich wie Banken oder die Telekommunikation. Doch was bedeutet das konkret für Unternehmen und ist es Chance oder Risiko? Wir sprechen mit Prof. Dr. Thomas Klindt, Senior Partner bei Noerr, über die rechtlichen Herausforderungen des AI Acts.

„KI ist nun eine regulierte Industrie“ – Warum der AI Act ein Wendepunkt ist

VDI: Der AI Act markiert eine neue Ära – KI wird erstmals umfassend reguliert. Was sind die zentralen Ziele dieser Regulierung?

Thomas Klindt: Europa ist weltweit die erste Region, die künstliche Intelligenz als regulierte Industrie einstuft. Bisher kennen wir das aus Bereichen wie der Telekommunikation, dem Banken- oder Finanzsektor. Das bedeutet: Unternehmen, die KI entwickeln oder nutzen, müssen sich auf verbindliche Regeln einstellen.

Diese Regulierung kann man aus zwei Blickwinkeln betrachten: Kritiker wie Elon Musk sehen in jeder Regulation eine Innovationsbremse. Andererseits schafft sie aber Rechtssicherheit.

Viele Unternehmen begrüßen den AI Act, denn nun wird klar definiert, was erlaubt ist und was nicht. Sie wissen dann, dass ihr Geschäftsmodell rechtlich abgesichert ist und in welchen Bahnen sie sich bewegen können. Gerade die großen Tech-Konzerne haben sich kaum gegen den AI Act gewehrt, weil ihnen diese Regulierung Planungssicherheit gibt. Die Unternehmen brauchen eine verlässliche Basis, um Investitionen und Produktentwicklungen langfristig auszurichten.

Einheitliche Regulierung statt nationaler Flickenteppich

VDI: Hier geht Europa also einen gemeinsamen Weg?

Thomas Klindt: Der AI Act ist eine Verordnung – das heißt, er gilt unmittelbar in allen EU-Mitgliedstaaten. Anders als bei Richtlinien, die erst in nationales Recht umgesetzt werden müssen, wenden Behörden und Unternehmen direkt das europäische Gesetz an.

Das hat einen klaren Vorteil: Es verhindert, dass jedes Land eigene Regeln erlässt, die sich dann widersprechen. Besonders im Maschinen- oder Medizinproduktebereich hat die EU bereits gezeigt, dass einheitliche Regeln Innovationen erleichtern können. Statt einen regulatorischen Flickenteppich in Europa zu haben, gibt es nun eine gemeinsame Basis für alle Unternehmen, die KI entwickeln oder einsetzen.

Und wenn die USA glauben, das sei innovationsfeindlich, missverstehen sie die Idee. Denn die Idee ist es, einen klaren gesetzlichen Rahmen zu schaffen, innerhalb dessen jeder weiß was er zu tun hat.

KI-Systeme und ihre spezifischen Risiken

VDI: Wie sieht dieser klare Rahmen aus und was folgt daraus für Unternehmen?

Thomas Klindt: Die EU hat sich für einen sogenannten risikobasierten Ansatz entschieden. Hierzu werden die KI geclustert. Unternehmen müssen sich in die entsprechende risikobasierte Gruppe einordnen. Es gibt vier Kategorien von KI-Systemen und nur eine ist in der Tat in der EU verboten. Das war eine bewusste politische Entscheidung, dass wir diese KI-Systeme nicht zulassen wollen und hier auch nicht in den Wettbewerb mit Ländern wie China treten, weil wir das Risiko dieser Gruppe für inakzeptabel halten. Dabei sprechen wir zum Beispiel von Social Scoring oder Emotionserkennung. Da gibt es ein Commitment der EU, solche Systeme nicht zuzulassen. Die anderen Stufen werden nicht verboten, sondern lediglich strenger und anspruchsvoller reguliert.

Wir unterscheiden:

  1. Verbotene KI – z. B. Social Scoring oder Emotionserkennung am Arbeitsplatz.
  2. Hochrisiko-KI – z. B. in der Medizin, beim autonomen Fahren oder in kritischer Infrastruktur. Hier sind strenge Prüfverfahren und ein Risikomanagement erforderlich.
  3. Spezifische Risiken – KI muss hier transparent gemacht werden, z. B. bei Chatbots oder Deepfakes. Nutzer müssen erkennen können, dass sie mit einer KI interagieren.
  4. Minimales Risiko – Für KI-Systeme mit geringem Risiko reicht es, Mitarbeitende zu schulen und einen internen Code of Conduct zu entwickeln.

Ein wichtiger Punkt: Nicht nur KI-Entwickler, sondern auch Anwender haben Pflichten! Unternehmen, die KI in ihren Prozessen einsetzen, müssen sich bewusst sein, welche Risikostufe ihr System hat und welche Auflagen damit verbunden sind.

Die versteckte Gefahr: Verzerrte Trainingsdaten

VDI: Welche Schwierigkeiten sehen Sie?

Thomas Klindt: Der Flaschenhals sind immer die Trainingsdaten, mit denen KI-Modelle lernen. Wenn eine KI mit verzerrten oder unzureichenden Daten trainiert wird, perpetuiert sie bestehende Vorurteile. „Shit in, Shit out“ – schlechte Daten führen zu schlechten Ergebnissen.

Das Problem sehen wir bereits in der Praxis: Viele KI-Modelle zeigen unbewusste Verzerrungen – sind sexistisch, rassistisch oder bei sozialen Mustern. Eine KI kann nur so gut sein wie die Daten, die sie erhält. Hier braucht es dringend mehr Forschung und Wissen über die Bias und Lösungen, wie ich diese ausgleiche, bzw. operativ herausschreibe.

Außerdem gibt es urheberrechtliche Fragen: Wem gehören die Daten, mit denen KI trainiert wird? Künstler, Autoren und Verlage klagen bereits, weil KI-Modelle ohne ihre Zustimmung mit geschützten Inhalten trainiert wurden. Dieses Thema wird noch viele juristische Auseinandersetzungen nach sich ziehen.

Zur Person

Prof. Dr. Thomas Klindt ist Senior Partner der Kanzlei Noerr PartGmbB und seit 1998 als Rechtsanwalt tätig. Er promovierte 1996 im Bereich Rechtswissenschaften und legte 1982 sein Zweites Juristisches Staatsexamen ab.

Mit jahrzehntelanger Erfahrung berät er Mandanten in komplexen juristischen Fragestellungen und ist eine anerkannte Persönlichkeit in seinem Fachgebiet.

„KI made in Europe“ – Innovationsbremse oder Standortvorteil?

VDI: Wie wird sich die Regulierung auf Innovationen in Europa auswirken?

Thomas Klindt: Häufig wird behauptet, dass der AI Act Innovationen ausbremst. Tatsächlich schafft er aber einen klaren Rahmen, innerhalb dessen Unternehmen planen können.

Interessant ist, dass das Militär von der Regulierung ausgenommen wurde. Dabei ist KI im Verteidigungssektor ein riesiges Zukunftsfeld. Gerade bei autonomen Drohnen oder Überwachungssystemen stellt sich die Frage: Wie kann eine KI völkerrechtliche Regeln einhalten? Hier wird es einen erheblichen Klärungsbedarf geben, weil der AI Act diesen Bereich nicht erfasst.

Ein weiterer wichtiger Punkt im Zusammenhang mit KI ist das zunehmende Bewusstsein für Data Governance in Unternehmen. Große Unternehmen erkennen, dass sie eine übergreifende Strategie für den Umgang mit Daten brauchen – sei es für Datenschutz, KI oder Cybersecurity.

Fazit: Rechtssicherheit als Chance begreifen

Thomas Klindt: Der AI Act ist ein Wendepunkt für den Umgang mit künstlicher Intelligenz in Europa. Unternehmen müssen sich auf neue Anforderungen einstellen, aber sie erhalten auch mehr Rechtssicherheit. Wer frühzeitig eine Strategie entwickelt, kann die neue Regulierung als Standortvorteil nutzen.

Autorin: Gudrun Huneke

Fachlicher Ansprechpartner:
Dipl.-Ing. Dieter Westerkamp
Koordinator des VDI-Fokusthemas Digitale Transformation
Telefon: +49 211 6214-373
E-Mail: westerkamp@vdi.de

Artikel teilen