
Fähigkeiten im Bereich Responsible AI
Studie zeigt: 95 Prozent der Unternehmen scheitern an Responsible AI
Trotz wachsender Anforderungen erreichen nur wenige Unternehmen ethische Standards im Einsatz von Künstlicher Intelligenz, agentenbasierte KI verschärft die Lage
Flexera Software: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.
Das Infosys Knowledge Institute (IKI), ein Forschungszweig von Infosys veröffentlichte ihre aktuelle Studie über den verantwortungsvollen Einsatz von KI in Unternehmen. Für den "Responsible Enterprise AI in the Agentic Era" Report wurden mehr als 1.500 Führungskräfte in Deutschland, Frankreich, Großbritannien, den USA und Australien befragt und interviewt. Die Umfrage zeigt deutliche Lücken in der Fähigkeit von Organisationen, künstliche Intelligenz verantwortungsbewusst einzusetzen. 78 Prozent der Unternehmen betrachten Responsible AI als Motor für ihr Wachstum. Doch nur zwei Prozent haben geeignete Kontrollen implementiert, um Reputationsrisiken und finanzielle Verluste zu vermeiden.
Responsible Enterprise AI in the Agentic Era Radar
Der Bericht zeigt, welche Folgen schlecht umgesetzte KI-Systeme haben können. Dazu zählen unter anderem Verstöße gegen den Datenschutz, ethisch problematisches Verhalten, Diskriminierung, Regelverstöße oder fehlerhafte Prognosen. 77 Prozent der befragten Unternehmen gaben an, dadurch finanzielle Verluste erlitten zu haben. 53 Prozent berichten von Reputationsschäden.
Wichtige Erkenntnisse und Empfehlungen aus dem Infosys Responsible Enterprise AI in the Agentic Era-Report in Kürze:
KI-Risiken sind weit verbreitet und können schwerwiegende Folgen haben
o 95 Prozent der Führungskräfte auf C-Level berichten von Vorfällen in Zusammenhang mit KI in den letzten zwei Jahren.
o 39 Prozent kategorisieren diese Schäden als "schwerwiegend" oder "extrem schwerwiegend". In Deutschland sind es sogar 40 Prozent.
o 86 Prozent der befragten Führungskräfte, die bereits Erfahrungen mit agentischer KI gesammelt haben, gehen davon aus, dass diese Technologie neue Risiken und Herausforderungen mit sich bringt, wenn es darum geht, Vorschriften einzuhalten.
Die Fähigkeiten im Bereich Responsible AI (RAI) sind lückenhaft und ineffizient
o Nur zwei Prozent der Unternehmen erfüllten alle Standards, die im internen RAI-Fähigkeitsbenchmark von Infosys – "RAISE BAR" genannt – festgelegt sind. Sie werden als "RAI-Leader" bezeichnet. 15 Prozent der Organisationen erfüllen drei Viertel der Standards (RAI-Follower).
o Die RAI-Leader können mit 39 Prozent geringeren finanziellen Verlusten, 18 Prozent weniger schweren KI-Vorfällen und vier Prozent geringeren RAI-Kosten rechnen.
RAI-Leader gehen gezielter vor, um Risiken zu reduzieren und bessere Ergebnisse zu erzielen. Sie machen KI transparenter, prüfen Anwendungen gründlich, mindern Verzerrungen frühzeitig und reagieren klar geregelt auf Vorfälle.
Führungskräfte sehen RAI als Wachstumsmotor
o 78 Prozent der Führungskräfte sind der Meinung, dass RAI zu ihrem Umsatzwachstum beiträgt und dass zukünftige KI-Vorschriften ihre KI-Implementierungen eher fördern als hemmen würden (83 Prozent).
o Allerdings sind Unternehmen auch der Meinung, dass sie 30 Prozent mehr ihres Budgets in RAI investieren müssten.
Der Einsatz von KI wächst schneller als die organisatorische Bereitschaft dafür. Unternehmen sollten Responsible AI daher nicht länger als reaktive Pflicht betrachten, sondern als strategische Chance begreifen. Um vertrauenswürdige und skalierbare KI-Systeme zu schaffen, die Wachstum ermöglichen und Risiken begrenzen, empfiehlt Infosys folgende Schritte:
>> Von den Besten lernen: Unternehmen mit hoher RAI-Reife haben bereits vielfältige Vorfälle bewältigt und effektive Kontrollmechanismen etabliert. Ihre Erfahrungen bieten wertvolle Orientierung für andere Organisationen.
>> Produktentwicklung und Governance in Einklang bringen: Dezentrale Innovationsprozesse sollten mit einer zentral gesteuerten RAI-Governance kombiniert werden, die klare Leitlinien und übergreifende Kontrolle gewährleistet.
>> Sicherheitsvorkehrungen systematisch in KI-Plattformen verankern: KI-Agenten nur in kontrollierten Umgebungen einsetzen, die auf freigegebene Daten und Systeme zugreifen können.
>> Ein zentrales RAI-Team etablieren: Ein dediziertes Team erkennt Risiken frühzeitig. Es definiert klare Richtlinien und gewährleistet mithilfe von Tools wie AI3S ("Scan, Shield, Steer") eine skalierbare Governance.
Balakrishna D.R., EVP – Global Services Head, AI and Industry Verticals bei Infosys, sagte: "Wer aus Anwendungsfällen für Unternehmens-KI Mehrwert ziehen will, benötigt eine verantwortungsvolle Grundlage. Diese muss auf Vertrauen, Risikominderung, Datenmanagement und Nachhaltigkeit beruhen. Im Zentrum stehen ethische, faire, sichere und transparente Prozesse. Um das Potenzial agentenbasierter KI zu erschließen, müssen sich Führungskräfte auf eine plattform- und produktorientierte Umsetzung konzentrieren, begleitet von einer aktiven Überwachung der genutzten Daten. Dabei gilt: Je stärker KI in Unternehmen Einzug hält und neue regulatorische Vorgaben greifen, desto wichtiger wird die Rolle eines zentralen RAI-Teams."
Jeff Kavanaugh, Leiter des Infosys Knowledge Institute, sagte: "Unternehmen bewegen sich in einem komplexen Umfeld, in dem das Wachstumspotenzial von KI mit erheblichen betrieblichen und ethischen Risiken einhergeht. Unsere Studie zeigt deutlich: Viele erkennen zwar die Bedeutung von Responsible AI, doch bei der praktischen Umsetzung besteht noch eine große Lücke. Wer auf robuste, fest verankerte Schutzmechanismen setzt, kann nicht nur Risiken minimieren und finanzielle Verluste vermeiden, sondern auch neue Umsatzpotenziale erschließen. So sichern sie sich langfristige Vorteile im Zeitalter agentenbasierter KI."
Methodik
Infosys führte eine anonyme Online-Umfrage unter 1.502 Führungskräften aus verschiedenen Branchen in Australien, Neuseeland, Frankreich, Deutschland, Großbritannien und den Vereinigten Staaten sowie qualitative Interviews mit 40 Führungskräften durch. (Infosys: ra)
eingetragen: 25.08.25
Infosys: Kontakt und Steckbrief

Der Informationsanbieter hat seinen Kontakt leider noch nicht freigeschaltet.