Europa hat mit der Verabschiedung des AI Acts die Chance, in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz weltweit führend zu werden. Das Ziel ist es, die Potenziale von KI-Systemen zu nutzen und gleichzeitig die Risiken zu begrenzen. Allerdings gibt es noch einige Herausforderungen, die im Rahmen der aktuellen Verhandlungen angegangen werden müssen, um eine effektive Umsetzung des AI Acts sicherzustellen.
Inhaltsverzeichnis: Das erwartet Sie in diesem Artikel
Sicherheitsmängel: Verbraucherprodukte nicht ausreichend im AI Act berücksichtigt
Eine Herausforderung des AI Acts besteht darin, dass hochriskante KI-Systeme nur dann als solche eingestuft werden, wenn die physischen Produkte, in die sie integriert werden, bereits einer verpflichtenden Prüfung unterliegen. Dies stellt eine Regelungslücke dar, da Verbraucherprodukte wie Spielzeug oder Smart-Home-Geräte nicht unter diese Prüfpflicht fallen. Um die Sicherheitsanforderungen für KI-basierte Verbraucherprodukte zu gewährleisten, müssen entsprechende Maßnahmen ergriffen werden, um diese Lücke zu schließen.
Risikobewertung von KI-Produkten braucht klare Leitlinien und Standards
Eine Herausforderung besteht in der Klassifizierung von eigenständiger KI-Software, die auf den Markt gebracht wird. Die Anbieter führen die Risikobewertung selbst durch und entscheiden, ob ihr Produkt als hochrisikobasiert eingestuft wird oder nicht. Dies kann zu Fehleinschätzungen führen. Um die Effektivität der verpflichtenden Anforderungen zu gewährleisten, sollten klare Klassifizierungskriterien festgelegt werden.
Unabhängige Prüfungen für KI-Systeme erhöhen Sicherheit und Vertrauen
Um das Vertrauen in KI-Systeme zu stärken, ist es notwendig, unabhängige Prüfungen bei hochriskanten Systemen durchzuführen. Eine verpflichtende Zertifizierung durch benannte Stellen gewährleistet, dass die Technologie den erforderlichen Sicherheitsstandards entspricht. Dies ist besonders wichtig, da hochriskante KI-Systeme erhebliche Risiken für Nutzer und Umwelt mit sich bringen können. Durch eine solche Zertifizierung wird das Vertrauen der Menschen gestärkt und Europa kann sich als weltweit führend in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz etablieren.
Entwicklung von Prüfstandards für KI-Anwendungen in Reallaboren
Um die Sicherheit und Qualität von KI-Anwendungen in Reallaboren zu gewährleisten, sollten unabhängige Prüforganisationen als Partner einbezogen werden. Der TÜV-Verband leistet einen aktiven Beitrag zur Identifizierung technischer und regulatorischer Anforderungen an Künstliche Intelligenz sowie zur Entwicklung von Prüfstandards für sicherheitskritische KI-Anwendungen. Es ist empfehlenswert, interdisziplinäre „AI Quality & Testing Hubs“ auf Landes- und Bundesebene einzurichten, um eine umfassende Prüfung und Überwachung sicherheitskritischer KI-Systeme zu ermöglichen.
KI-Regulierung: Unabhängige Drittprüfungen für Basismodelle notwendig
Die jüngsten Entwicklungen haben gezeigt, dass Basismodelle und generative KI-Systeme ein enormes Potenzial haben, aber auch Risiken bergen. Daher ist es ermutigend, dass das EU-Parlament beabsichtigt, diese Technologie direkt im AI Act zu regulieren. Es ist jedoch von entscheidender Bedeutung, eine genaue Bewertung der Basismodelle vorzunehmen, um festzustellen, welche als hochkritisch einzustufen sind und den Anforderungen des AI Acts, einschließlich unabhängiger Drittprüfungen durch benannte Stellen, gerecht werden sollten.
KI-Regulierung: Europa auf dem Weg zur weltweiten Spitze
Dank des AI Acts hat Europa die Möglichkeit, weltweit in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz an der Spitze zu stehen. Durch verpflichtende Prüfungen von hochriskanten KI-Systemen durch unabhängige Stellen wird das Vertrauen der Menschen gestärkt und „AI Made in Europe“ kann zu einem echten Qualitätsstandard und einem globalen Wettbewerbsvorteil werden. Es sind jedoch noch einige Herausforderungen zu bewältigen, wie die Einbeziehung von Verbraucherprodukten, die Klassifizierung von KI-Systemen und die Durchführung unabhängiger Prüfungen. Nur durch diese Maßnahmen kann Europa sein volles Potenzial im Bereich der künstlichen Intelligenz ausschöpfen.