"Zertifizierte KI": Fachtagung zu Prüfung und Qualitätssicherung von Künstlicher Intelligenz

KI
Forschung & Entwicklung
Unter dem Motto "Bereit für den AI Act mit marktfähigen KI-Prüfungen" haben sich erstmalig rund 100 Expert*innen verschiedener Fachdisziplinen und Unternehmensvertreter*innen rund um das Thema KI-Prüfung und Qualitätssicherung ausgetauscht. Veranstaltet wurde das Fachevent im Rahmen des Flagship-Projekts "Zertifizierte KI" der Kompetenzplattform KI.NRW.

Die Entwicklungsgeschwindigkeit von Technologien der Künstlichen Intelligenz (KI) war nie schneller – die Vertrauenswürdigkeit und Sicherheit der intelligenten Systeme nie wichtiger. Doch wie kann die Qualität und Sicherheit von KI-Systemen kontrolliert werden? "Prüfungen stellen sicher, dass eine KI das tut, was sie tun soll: Sie garantieren, dass KI-Dimensionen wie Datenschutz, Fairness oder Verlässlichkeit berücksichtigt werden", sagte Mona Neubaur, NRW-Ministerin für Wirtschaft, Industrie, Klimaschutz und Energie, in ihrer Grußbotschaft zur Eröffnung des FORUM Zertifizierte KI in Bonn. 

Wir nutzen generative Sprachmodelle wie ChatGPT, vertrauen KI-basierten Vorhersagen in der industriellen Produktion oder intelligenten Assistenzsystemen in unserem Auto. Was wir dabei voraussetzen: dass die Technologie sicher und zuverlässig funktioniert. Abweichungen in den Schlussfolgerungen der KI-Modelle, mögliche Schwächen und Risiken sollten sowohl für Anwender*innen als auch für Entwickler*innen transparent sein. Doch das ist nicht immer sichergestellt: Häufig gibt es Verzerrungen in den Daten, Bias-Effekte oder Unsicherheiten bei den Entscheidungen der KI. Verfahren zur Prüfung und Qualitätssicherung können helfen, KI-Systeme abzusichern und somit Vertrauen und Transparenz zu schaffen.

Aktuell erarbeitet die Europäische Kommission die weltweit erste, umfassende KI-Regulatorik: den AI Act. Die Verordnung sieht einen risikobasierten Ansatz vor, an den verschiedene Informations- und Compliance-Pflichten für KI-Anbieter gekoppelt sind. Unternehmen, die KI-Geschäftsmodelle nutzen oder KI-Produkte anbieten, müssen sich darauf vorbereiten. Evelyn Graß, Referatsleiterin Künstliche Intelligenz, Datenökonomie, Blockchain beim Bundesministerium für Wirtschaft und Klimaschutz, stellte den AI Act und seine Auswirkungen auf die KI-Landschaft in Deutschland vor: "Ich halte den AI Act für entscheidend für die Wettbewerbsfähigkeit der deutschen Wirtschaft. Allerdings müssen wir schnell die Phase der Rechtsunsicherheit verlassen und Klarheit schaffen. Die EU hat einen Vorsprung bei der Regulierung von KI, damit können wir Innovationsanreize schaffen und eine Marke ‚Vertrauenswürdige KI made in Europe‘ aufbauen. Das wird Deutschland einen zusätzlichen Standortvorteil bringen neben der Weltklasse-KI-Forschung und den hervorragenden Industriedaten, die wir hierzulande haben", sagte sie. Dr. Gerhard Schabhüser, Vizepräsident des Bundesamtes für Sicherheit in der Informationstechnik (BSI), gab ergänzend einen Überblick über die Herausforderungen und Gestaltungsoptionen bei der Prüfung sicherer KI-Systeme.

KI-Spezialist*innen der Allianz SE, Deutsche Telekom AG, Siemens AG und BMW Group präsentierten und diskutierten auf dem FORUM Zertifizierte KI, wie sie bereits heute KI-Prüfungen durchführen und welche Chancen sich dadurch ergeben. Zudem berichteten sie, wie sie sich konkret auf regulatorische Vorgaben und die Umsetzung des AI Acts vorbereiten. "Als Industriekonzern sind für uns Produktsicherheit und höchste Qualitätsanforderungen erfolgsentscheidend. Wir begrüßen darum prinzipiell eine KI-Regulierung und stellen uns die Frage: Würden wir derzeit den Anforderungen des AI Act gerecht werden? Die Verhandlungen laufen ja noch, darum ist es wohl zu früh, etwas zu sagen. Gleichzeitig wissen wir aber schon heute, dass es an Technologien, an Dokumentationen und an Standards fehlt – daran arbeiten wir", sagte Prof. Dr. Sonja Zillner, Lead of Core Company Technology Module Trustworthy AI bei Siemens.

Prüfungen bieten einen Nachweis dafür, dass Unternehmen KI-Anwendungen zuverlässig und sicher einsetzen, was insbesondere dort wichtig ist, wo erhöhte Anforderungen gelten. Dazu gehören beispielsweise sensible Bereiche wie das Personalwesen, in dem vor allem die Diskriminierungsfreiheit eine große Rolle spielt, oder sicherheitskritische Anwendungen, wie das hochautomatisierte Fahren, sowie kritische Infrastrukturen.

Projekt Zertifizierte KI
Seit 2021 entwickelt das Fraunhofer IAIS gemeinsam mit dem BSI und dem Deutschen Institut für Normung (DIN) sowie weiteren Forschungspartnern im Projekt Zertifizierte KI Prüfverfahren für die Zertifizierung von Systemen der Künstlichen Intelligenz. Ziel ist es, die technische Zuverlässigkeit und einen verantwortungsvollen Umgang mit der Technologie zu gewährleisten. Hierbei werden industrielle Bedarfe durch die aktive Einbindung von zahlreichen assoziierten Unternehmen und Organisationen berücksichtigt, welche unterschiedliche Branchen wie etwa Telekommunikation, Banken, Versicherungen, Chemie und Handel repräsentieren.

KI-Prüfkatalog und Whitepaper "KI-Anwendungen systematisch prüfen und absichern"
Mit dem bereits 2021 veröffentlichten "KI-Prüfkatalog" und dem aktuell zur Veranstaltung veröffentlichten Whitepaper "KI-Anwendungen systematisch prüfen und absichern. Prüfwerkzeuge und Prüfplattform zur Gestaltung von vertrauenswürdiger Künstlicher Intelligenz" gibt das Fraunhofer IAIS gemeinsam mit seinen Partnern Unternehmen konkrete Orientierungshilfen und operationalisierbare Ansätze zur Standardisierung und Qualitätssicherung von KI an die Hand. Das neue Whitepaper stellt ein Prüf-Framework vor, das aktuelle technische Herausforderungen der KI-Qualitätskontrolle adressiert und als Plattform zur Integration von KI-Prüfwerkzeugen dient. Außerdem werden ausgewählte KI-Prüfwerkzeuge, die für unterschiedliche Anwendungsbereiche genutzt werden können, sowie ihre Funktionalitäten im Detail erklärt.

www.iais.fraunhofer.de