Reallabore und Prüforganisationen: Partnerschaft für sichere KI-Entwicklung

0

Europa hat mit der Verabschiedung des AI Acts die Möglichkeit, eine Vorreiterrolle in der vertrauenswürdigen und sicheren Nutzung von künstlicher Intelligenz einzunehmen. Das Ziel besteht darin, die Chancen von KI-Systemen zu nutzen und gleichzeitig die Risiken zu begrenzen. Es sind jedoch noch einige Herausforderungen zu bewältigen, die im Rahmen der aktuellen Verhandlungen angegangen werden müssen, um eine erfolgreiche Umsetzung des AI Acts zu gewährleisten.

Regelungslücke im AI Act: Verbraucherprodukte unterliegen keiner Prüfung

Ein Problem im Rahmen des AI Acts besteht darin, dass hochriskante KI-Systeme nur dann als solche eingestuft werden, wenn die physischen Produkte, in die sie integriert werden, bereits einer verpflichtenden Prüfung unterliegen. Dies führt dazu, dass Verbraucherprodukte wie Spielzeug oder Smart-Home-Geräte nicht in diese Kategorie fallen. Um die Sicherheitsanforderungen für KI-basierte Verbraucherprodukte zu gewährleisten, müssen entsprechende Regelungen erlassen werden, um diese Lücke zu schließen.

Notwendigkeit von klaren Kriterien für Risikoeinstufung von KI-Software

Ein Problem ergibt sich bei der Klassifizierung von eigenständiger KI-Software, die auf den Markt gebracht wird. Die Anbieter sind selbst dafür verantwortlich, die Risikobewertung durchzuführen und zu entscheiden, ob ihr Produkt als hochrisikobasiert einzustufen ist oder nicht. Diese Selbstregulierung kann zu Fehleinschätzungen führen. Um die Wirksamkeit der verpflichtenden Anforderungen zu gewährleisten, sollten klare Klassifizierungskriterien definiert werden.

Hochriskante KI-Systeme benötigen unabhängige Prüfungen für Vertrauenswürdigkeit

Um das Vertrauen in KI-Systeme zu stärken, sollten unabhängige Prüfungen bei hochriskanten Systemen durchgeführt werden. Eine verpflichtende Zertifizierung durch benannte Stellen stellt sicher, dass die Technologie den erforderlichen Sicherheitsstandards entspricht. Dies ist insbesondere wichtig, da hochriskante KI-Systeme erhebliche Gefahren für Nutzer und Umwelt darstellen können. Durch eine solche Zertifizierung wird das Vertrauen der Menschen in die Technologie gestärkt und Europa kann seine Position als führender Anbieter von vertrauenswürdiger und sicherer künstlicher Intelligenz festigen.

Der TÜV-Verband identifiziert technische Anforderungen an KI-Entwicklung und -Nutzung

Bei der Entwicklung und Nutzung von Reallaboren ist es wichtig, unabhängige Prüforganisationen als Partner einzubeziehen, um die Sicherheit und Qualität von KI-Anwendungen zu gewährleisten. Der TÜV-Verband spielt eine aktive Rolle bei der Identifizierung technischer und regulatorischer Anforderungen an Künstliche Intelligenz sowie bei der Entwicklung von Prüfstandards für sicherheitskritische KI-Anwendungen. Interdisziplinäre „AI Quality & Testing Hubs“ sollten auf Landes- und Bundesebene eingerichtet werden, um eine umfassende Prüfung zu ermöglichen.

Regulierung von Basismodellen: EU-Parlament setzt auf Sicherheit

Basismodelle und generative KI-Systeme haben in den letzten Monaten gezeigt, dass sie über ein beträchtliches Potenzial verfügen, aber auch Risiken bergen. Aus diesem Grund ist es erfreulich, dass das EU-Parlament beabsichtigt, diese Technologie direkt im AI Act zu regulieren. Es ist jedoch von entscheidender Bedeutung, eine genaue Bewertung der Basismodelle vorzunehmen, um festzustellen, welche als hochkritisch einzustufen sind und den Anforderungen des AI Acts, einschließlich unabhängiger Drittprüfungen durch benannte Stellen, entsprechen sollten.

Verbesserungsbedarf: Einbeziehung von Verbraucherprodukten und KI-Klassifizierung

Mit dem AI Act hat Europa die Möglichkeit, weltweit führend in der vertrauenswürdigen und sicheren Anwendung von künstlicher Intelligenz zu werden. Durch eine verpflichtende Prüfung von hochriskanten KI-Systemen durch unabhängige Stellen wird das Vertrauen der Menschen gestärkt und „AI Made in Europe“ kann zu einem echten Qualitätsstandard und einem globalen Wettbewerbsvorteil werden. Allerdings gibt es noch einige Herausforderungen, die angegangen werden müssen, wie die Einbeziehung von Verbraucherprodukten, die Klassifizierung von KI-Systemen und die Durchführung unabhängiger Prüfungen. Nur durch diese Maßnahmen kann Europa sein volles Potenzial im Bereich der künstlichen Intelligenz ausschöpfen.

Lassen Sie eine Antwort hier