top of page

Due Diligence für verantwortungsvolle KI

Pour Demain skizziert auf Ersuchen der OECD die Grundlagen für Risikomanagement von Künstlicher Intelligenz (KI).



Zentrale Empfehlungen

Pour Demain begrüßt, dass die OECD mit der Ausarbeitung der Leitlinien zur Due Diligence für verantwortungsvolle KI begonnen hat. Unsere wichtigsten Empfehlungen zum Entwurf sind wie folgt:


  • Um die Compliance-Kosten für kleinere KI-Anbieter zu reduzieren und gleichzeitig sicherzustellen, dass die am umfassendsten eingesetzten KI-Systeme angemessen gemanagt werden, sollte der Leitfaden einen speziellen Fokus auf „General-Purpose AI“ (GPAI) legen.


  • Um eine sorgfältige Risikobewertung ähnlich wie in etablierten Industrien, wie der Luftfahrt oder der Automobilindustrie, zu gewährleisten, werden Bewertungen von GPAI-Modellen durch unabhängige Experten dringend empfohlen.


  • Um die Rechenschaftspflicht zu erhöhen, sollten GPAI-Anbieter einen Compliance-Beauftragten benennen und Sicherheitsrichtlinien etablieren.


Stärkung des OECD-Leitfadens zur Due DiIligence für verantwortungsvolle KI

Die Leitlinie zur Due Diligence für verantwortungsvolle KI ist ein wertvoller Schritt, um ein ordnungsgemäßes Risikomanagement in der KI-Branche sicherzustellen. Etabliertes Risikomanagement in anderen Sektoren wie der Nuklearindustrie, der Luftfahrt und der Pharmaindustrie kann als gutes Beispiel dienen. Die OECD, angeführt von der wegweisenden AI Policy Observatory, hat sich mit Initiativen wie den KI-Prinzipien, dem KI-Vorfallmonitor und dem KI-Rechenschaftsbericht als Vorbild erwiesen. Wie die OECD mit ihren aktualisierten KI-Prinzipien gezeigt hat, müssen politische Empfehlungen regelmäßig überprüft werden, um aufgrund der schnellen Entwicklung der KI relevant zu bleiben.



Künstliche Intelligenz für Allgemeine Zwecke (GPAI)

Risikomanagement ist entscheidend für „General-Purpose AI“ (GPAI), wie sie im EU AI Act definiert ist. Diese Form der KI kann eine Vielzahl von Aufgaben ausführen und kann verschiedene Risiken darstellen, insbesondere für Grundrechte, Benutzersicherheit und Wahlprozesse. Daher könnte ein Fokus auf GPAI die Compliance-Kosten für die überwiegende Mehrheit der KI-Anbieter, die nicht über die Ressourcen zur Entwicklung von GPAI-Modellen verfügen, verringern.



Modellevaluationen als integraler Bestandteil des Risikomanagements

Pour Demain empfiehlt strikte Modellbewertungen für General-Purpose AI als wesentlichen Teil der Risikobewertung. Ein wichtiger Teil dieser Bewertungen muss von unabhängigen Experten vor der Bereitstellung des KI-Systems durchgeführt werden, wobei das geistige Eigentum der KI-Anbieter gewahrt bleiben muss. 


Der Zugang für unabhängige Experten ist Best Practice in reifen Industrien wie der Luftfahrt oder der Automobilbranche. Durch die Nachahmung dieser Beispiele kann die KI-Branche die Sicherheit ihrer Produkte auf etablierte Weise demonstrieren, um Vertrauen zu schaffen. Aus der Sicht von Pour Demain sind Maßnahmen zur Risikoprävention unter einem üblichen Risikomanagementrahmen angebracht.


Unsere Zusammenarbeit mit der OECD steht beispielhaft für unseren Schwerpunkt auf internationaler KI-Regulierung. Wir raten allen Interessengruppen, insbesondere Akademiker, auf, dem Netzwerk der Experten der OECD beizutreten, um ihr Fachwissen beizutragen.



Für Rückfragen

Jacob Schaal


コメント


bottom of page