EU will Standards im Umgang mit Künstlicher Intelligenz setzen
 

Die fortschreitende Entwicklung Künstlicher Intelligenz bringt diverse Vorteile mit sich – aber auch Risiken. Letztere will die EU mit der im März 2024 auf den Weg gebrachten KI-Verordnung mindern. Gleichzeitig sollen die enormen wirtschaftlichen Chancen der KI gefördert werden. Diese Chancen umfassen Effizienzsteigerungen durch optimierte Arbeitsabläufe, verbesserte Datenanalysen für fundierte Entscheidungen und die Entwicklung innovativer Produkte und Dienstleistungen. Zudem eröffnet KI neue Geschäftsfelder und trägt zur Wettbewerbsfähigkeit von Unternehmen bei, während sie gleichzeitig das Wachstum und die Schaffung neuer Arbeitsplätze fördert.

Bereits im Dezember 2023 hatten sich EU-Parlament und Mitgliedsstaaten auf einen Entwurf verständigt, nun gab es im Plenum grünes Licht für die Umsetzung. 2026 sollen dann alle Punkte des Gesetzes vollständig umgesetzt sein.

Das Gesetz sieht vor, KI-Systeme künftig in unterschiedliche Risikogruppen zu kategorisieren. Je höher die potenziellen Gefahren für Missbrauch sind oder je kritischer die Infrastruktur, in der die KI zum Einsatz kommt, desto höher sollen die Restriktionen für die jeweilige KI-Anwendung sein.

KI-Systeme der höchsten Risikogruppe sind ausdrücklich verboten, in die zweithöchste Risikoklasse fallen Anwendungen, die ein „erhebliches Schadenspotenzial“ etwa für die Demokratie, die Gesundheit oder die Sicherheit haben. Für sie wurden diverse Restriktionen erlassen sowie Beschwerdemöglichkeiten für Betroffene eingeräumt. KI-Anwendungen wie die bereits etablierten Chatbots werden hingegen nur wenig reguliert.
 

Welche KI-Anwendungen in der EU künftig verboten sind
 

Ein konkretes Verbot für Unternehmen besteht beispielsweise in der Emotionserkennung am Arbeitsplatz mittels KI. Damit könnten Firmen beim Bewerbungsgespräch oder im Assessment Center Gefühle der Bewerber erfassen.

Grundsätzlich dürfen KI-Anwendungen Menschen nicht aufgrund ihrer Hautfarbe, Religion oder sexuellen Orientierung in Kategorien einteilen. Und auch das sogenannte „Social Scoring“ ist verboten, wobei KI zur Echtzeit-Gesichtserkennung im öffentlichen Raum verwendet wird. Beispielsweise überwacht China mit dieser Technik das Verhalten der Bürger.

Auch die biometrische Gesichtserkennung im öffentlichen Raum ist grundsätzlich verboten. Allerdings gibt es Ausnahmen für die Strafverfolgung bei schweren Straftaten, etwa wenn die Polizei einen Anschlag verhindern will oder nach Opfern von Menschenhandel sucht. Zudem dürfen Behörden KI-gesteuerte Gesichtserkennung an öffentlichen Orten nutzen, wenn eine richterliche Anordnung vorliegt.

Für Unternehmen, die sich nicht an die Vorgaben halten, drohen künftig Geldbußen: Abhängig vom Verstoß und der Größe des Betriebes können bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Umsatzes fällig werden.

 

Anforderungen an KI-Chatbots
 

KI-Chatbots wie ChatGPT werden vom KI-Gesetz nicht als kritisch eingestuft, müssen aber Transparenzanforderungen und das EU-Urheberrecht erfüllen: So müssen Anwender offenlegen, dass Inhalte durch eine KI generiert wurden. Dies umfasst nicht nur Text, sondern auch Bilder, Audio- und Videodateien. Die Kennzeichnung soll verhindern, dass Nutzer in die Irre geführt werden, und ihnen ermöglichen, die Quelle der Informationen zu erkennen.

Unternehmen, die KI-Chatbots entwickeln, sind verpflichtet, offen zu legen, welche urheberrechtlich geschützten Daten sie zur Schulung ihrer Modelle verwendet haben. Diese Offenlegung ist notwendig, um sicherzustellen, dass die Nutzung dieser Daten rechtmäßig erfolgt. Verbunden damit sollten die KI-Chatbots so trainiert werden, dass sie faire und ausgewogene Antworten liefern. Es muss sichergestellt werden, dass die Trainingsdaten divers sind und nicht zu voreingenommen oder diskriminierenden Ergebnisse führen.

Auch die Verbreitung von Falschinformationen muss aktiv verhindert werden, indem die KI-Chatbots mit Mechanismen ausgestattet werden, die die Genauigkeit und Vertrauenswürdigkeit der generierten Inhalte sicherstellen. Eine regelmäßige Überprüfung und Aktualisierung der verwendeten Trainingsdaten ist unerlässlich, um sicherzustellen, dass die KI-Modelle mit den neuesten und relevantesten Informationen arbeiten.

 

Please accept marketing-cookies to watch this video.


So soll das Gesetz Innovationen unterstützen
 

Vor allem KMU und Startups soll mit dem Gesetz geholfen werden, KI-Modelle zu entwickeln und zu trainieren. Für diesen Zweck sind die nationalen Behörden künftig verpflichtet, den Unternehmen eine Testumgebung (Reallabore) zur Verfügung zu stellen, die realitätsnahe Bedingungen simuliert. Diese Reallabore bieten den Unternehmen die Möglichkeit, ihre Technologien unter kontrollierten Bedingungen zu erproben, ohne dabei sofortige Risiken oder hohe Kosten einzugehen.

Darüber hinaus sollen diese Testumgebungen den Austausch von Wissen und Best Practices zwischen Unternehmen und Forschungseinrichtungen fördern, um Synergien zu schaffen und die Entwicklung neuer Anwendungen zu beschleunigen. Die nationalen Behörden werden auch Schulungsprogramme anbieten, um den Unternehmen zu helfen, das Potenzial von KI-Technologien besser zu verstehen und zu nutzen. Zudem ist angedacht, finanzielle Unterstützung in Form von Zuschüssen oder Förderprogrammen bereitzustellen, um den Zugang zu notwendigen Ressourcen und Technologien zu erleichtern. Damit wird ein dynamisches Ökosystem geschaffen, in dem Innovationen gedeihen und die Wettbewerbsfähigkeit der europäischen Unternehmen gestärkt werden kann. 

 

Unternehmen sind sich der Gefährdung durch KI bewusst
 

Obwohl die meisten Unternehmen Künstlicher Intelligenz offen gegenüberstehen und solche Anwendungen in ihre Arbeitsprozesse integriert haben, sind sie sich der Risiken durchaus bewusst. Eine Bitkom-Umfrage aus dem Jahr 2023 zeigt, dass 69 Prozent der Teilnehmer potenzielle Sicherheitsrisiken im IT-Bereich, 70 Prozent mögliche Verstöße gegen Datenschutzvorgaben und 67 Prozent Anwendungsfehler bei der KI-Nutzung als Risiken sehen.

Diese Bedenken verdeutlichen, dass Unternehmen ihre Sicherheitsinfrastrukturen stärken und Datenschutzvorgaben wie die DSGVO einhalten müssen, um Vertrauen zu wahren. Auch Anwendungsfehler können zu falschen Entscheidungen und wirtschaftlichen Verlusten führen. Daher ist es wichtig, dass Unternehmen regelmäßige Tests und Schulungen implementieren, um die Zuverlässigkeit ihrer KI-Systeme sicherzustellen und eine Kultur der verantwortungsvollen Nutzung zu fördern. Letztlich müssen Unternehmen eine ausgewogene Strategie entwickeln, die sowohl die Chancen als auch die Risiken von KI berücksichtigt.

 

Vielfältige Anwendungsmöglichkeiten von Künstlicher Intelligenz
 

Die EU-Verordnung zur Regulierung von Künstlicher Intelligenz bringt sowohl Chancen als auch Herausforderungen für Unternehmen mit sich. Durch klare Richtlinien und Kategorien für KI-Anwendungen wird ein Rahmen geschaffen, der sowohl Innovationen fördert als auch Risiken mindert. In diesem Zusammenhang ist es wichtig, dass Unternehmen proaktiv handeln und die neuen Anforderungen ernst nehmen, um langfristig von den Vorteilen der KI profitieren zu können.

Die Anwendung und das Potenzial von KI ist vielseitig, sodass viele Wirtschaftszweige ihre Arbeitsprozesse optimieren können. Sei es in der Energietechnik zur Verbesserung und Wartung von Solarpaneelen und Windturbinen oder auch im Lieferkettenmanagement, wo KI dazu beiträgt, Nachfrageprognosen zu erstellen, Engpässe frühzeitig zu erkennen und die Logistik effizient zu steuern. Durch diese innovativen Ansätze eröffnet KI Unternehmen die Möglichkeit, nicht nur ihre Effizienz zu steigern, sondern auch neue Geschäftsmodelle und Märkte zu erschließen, die zuvor undenkbar waren.
 

Kostenlose Whitepaper
Alles Wichtige aus der B2B Welt erfahren Sie hier bei uns.
 

  • aktuell und kompakt
  • alle wichtigen Daten
  • immer einen Schritt voraus