Der AI Quality & Testing Hub (AIQ), mit dem Unternehmen die Qualität von Künstlicher Intelligenz (KI) messen und verbessern können, ist Mitglied im neu gegründeten „US AI Safety Institute Consortium“. In Abstimmung mit anderen US-Behörden und zusammen mit internationalen Partnern sollen Risiken bei der KI-Entwicklung reduziert und die Qualität von KI-Systemen verbessert werden. Das Konsortium ist am Nationalen Institut für Standards und Technologie angesiedelt (NIST), das dem US-Handelsministerium untersteht. Es vereint mehr als 200 führende KI-Akteure, die den Einsatz sicherer, vertrauenswürdiger KI vorantreiben. Aktuell haben die meisten Mitgliedsunternehmen ihren Sitz in den USA bzw. in Großbritannien. Wie vergleichbare Aktivitäten des NIST ist es als Public-Private Partnership konzipiert, in dem Experten, Partner, Unternehmen und Forschungsinstitutionen ihren Input für die Entwicklung von Risikomanagement-Richtlinien geben sollen. Hessens Digitalministerin Prof. Dr. Kristina Sinemus: „Deutschland darf den Anschluss bei der Regulierung von Künstlicher Intelligenz nicht verpassen. Mit der Teilnahme unseres AIQ sind wir aktiv in ein globales Netzwerk eingebunden, profitieren durch den Austausch mit Expertinnen und Experten, was für die eigene Produktentwicklung und Positionierung am Markt von großem Nutzen sein kann. Zudem kann sich der AIQ selbst als potenzielles KI-Safety Zentrum für Deutschland positionieren.“ Gemeinsame Gesellschafter des AI Quality & Testing Hub sind die Hessische Landesregierung und der VDE.
Dr. Beate Mand, stellvertretende Vorstandsvorsitzende des VDE, betont: „Seit mehr als 100 Jahren treibt der VDE Innovationen und zukunftsfähige Technologien voran. Damit das gelingt, definieren wir höchste Sicherheitsstandards und prüfen die Sicherheit von Produkten und Systemen. Im AIQ bringen wir unsere Expertise und Erfahrungen auf dem Gebiet der Künstlichen Intelligenz mit ein, damit diese Schlüsseltechnologie sicher und gleichzeitig innovationsfreundlich genutzt werden kann. Die Zusammenarbeit des AIQ mit NIST und der AI Safety Initiative ist ein wichtiger Beitrag, um dieses Ziel zu erreichen.“
Dr. Michael Rammensee, Geschäftsführer AI Quality & Testing Hub: „Wir freuen uns, unsere Expertise in das US AI Safety Institute Consortium einbringen zu können. Unsere Expertise zur Entwicklung und Anwendung von Richtlinien für Audits von KI-Systemen ist gefragt und wir tragen zur Entwicklung von Testwerkzeugen und -umgebungen bei. Zudem unterstützen wir bei der Entwicklung von Sicherheitstests von KI-Systemen, dem sogenannten AI Red Teaming.“ Zukünftige Forschungsergebnisse des Konsortiums sollen zwischen NIST und den Vertragspartnern mit dem Ziel der späteren Veröffentlichung geteilt werden.
Hintergrund
Die Gründung des AI Safety Institute wurde Anfang November 2023 am Rande des AI Safety Summit in Großbritannien von der amerikanischen Vizepräsidentin Kamala Harris verkündet. Dieses soll mit dem britischen AI Safety Institute kooperieren, dessen Gründung ebenfalls im Rahmen des Gipfels bekanntgegeben wurde. Kurz darauf wurde die Einrichtung des AI Safety Institute Consortiums bekannt gegeben. Der US-amerikanische Präsident Joe Biden hatte am 30. Oktober 2023 die „Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence“ erlassen, die Regulierungen für KI-basierte Technologien vorsieht. Ziel sei es, den größtmöglichen Nutzen von KI zu ermöglichen und gleichzeitig die Risiken zu minimieren. Neben den USA haben auch bereits Japan, Frankreich und Großbritannien Anstrengungen unternommen, nationale KI-Sicherheitszentren einzurichten.