Der AI Act setzt Innovation unter Druck  

Der AI Act soll die sichere Entwicklung von KI in Europa ermöglichen. Für manche Start-ups wirkt er eher wie eine Handbremse. Sicherheit und Innovation – (wie) kann das zusammen gehen? 
Untitled (6)
Gerade Start-ups setzen auf KI. Dabei leistet der AI Act ihnen nicht unbedingt Starthilfe, aber er gibt einen verlässlichen Rahmen. (© Adobe Stock)

Es ist so weit, der AI Act kommt. Nach jahrelangem Ringen um technische Details hat sich die EU im Februar auf die KI-Regulierung geeinigt. Und jetzt geht es an die Umsetzung. Im Mittelpunkt steht nichts Geringeres als die zentrale Technologie, auf die nicht nur Europa mächtige Hoffnungen setzt. Statista rechnet für 2024 mit einer Marktgröße von rund 280 Milliarden Euro. Schon heute wirken KI-Anwendungen branchenübergreifend als Innovationstreiber. Daran will auch die EU teilhaben. Mit dem AI Act trifft sie aber keineswegs nur die mächtigen Tech-Riesen. Denn auch viele Start-ups treiben die Entwicklung von KI voran. 

Diese Start-ups indes setzt der AI Act unter Druck. Die meisten von ihnen haben wenig Erfahrung in Compliance-Fragen und ihre Ressourcen sind oft knapp. In einer Studie des AppliedAI Institute for Europe sehen 51 Prozent der Start-ups, die sich mit generativer KI beschäftigen, die mangelnde Finanzierung als Herausforderung. Die Regulierung betrachten 24 Prozent als Hemmnis. Im Ergebnis könnte ein straffer regulatorischer Rahmen die Zaghaftigkeit europäischer Investoren weiter verschärfen. 

„Das macht uns langsamer“ 

Der AI Act zielt nun geradewegs auf diese Lage. Technologische Meilensprünge will er nach Europa holen, die riskanten Kehrseiten hingegen sollen vor den EU-Grenzen haltmachen. Der Act basiert auf einer Risikoklassifizierung, die bestimmte Technologien von vornherein verbietet, etwa das in China praktizierte Social Scoring. Andere Bereiche fallen automatisch unter „hohes Risiko“, zum Beispiel Recruiting per KI. Darauf folgen Anwendungen mit begrenztem und mit geringem Risiko. Das Signal: Eine risikofreie Anwendung gibt es nicht.  

Für die Betreiber gelten Transparenzpflichten. Sie müssen ihre Trainingsdaten offenlegen und kennzeichnen. Manche sind angehalten, Risiko- und Qualitätsmanagementsysteme einzurichten. Obwohl er Innovationen beflügeln soll, ist der AI Act damit zunächst mal ein Kostenfaktor. Kann das funktionieren? Die deutsche Wirtschaft ist sich in dieser Frage uneinig. Während Industrieverbände die Regulierung als zusätzliche Belastung kritisierten, begrüßte der Startup-Verband die Novelle als solche und forderte rasche Planungssicherheit. Der KI-Bundesverband wies auf Unklarheiten in der Risikoklassifizierung hin. Der Bitkom warnte vor bürokratischen Hürden. 

Besonders bedrohlich wirkt die KI-Verordnung auf sehr junge Start-ups. AskUI ist seit 2021 aktiv und bietet automatisiertes UI-Testing an. Je nach Risikoklassifizierung muss das Start-up künftig verschiedene Regeln erfüllen. CEO Jonas Menesklou ist sicher: „Das macht uns langsamer.“ Den gesamten Aufwand kann er noch nicht einschätzen, doch einen Standortwechsel in ein Nicht-EU-Land im Februar schließt er nicht aus.  

Wie Start-ups mit der Regulierung umgehen, hängt stark von ihren Ressourcen ab. Auch auf die Bertelsmann-Tochter Embrace kommen viele Regeln zu. Denn ihre Services im Recruiting gelten automatisch als hochriskant. Es sei davon auszugehen, so CEO Gero Hesse, dass man ein erhebliches Investment benötige, um die Regulatorik einzuhalten. Dennoch sieht er keinen Grund zur Sorge. Denn: In Europa „gelten Regeln, die wir besonders gut erfüllen können, weil wir die entsprechenden Expert*innen haben“. Hesse verlässt sich auf konzerninterne Erfahrungswerte: „Viele innovative Unternehmen kommen aus den USA, aber gerade im Bereich Recruiting lässt sich manches gar nicht auf den deutschen Markt übertragen.“ Themen wie die DSGVO oder Betriebsräte hätten die US-Anbieter oft gar nicht auf dem Schirm.  

Untitled-7
Die ein oder anderen Start-ups müssen in Zukunft aufpassen, wenn sie das Terrain KI betreten. (© Adobe Stock)

Nur Transparenz schafft Vertrauen 

Für einige können die Transparenzpflichten zum Wettbewerbsvorteil werden. Manche Start-ups blicken dem AI Act daher optimistisch entgegen. Dazu gehört Paretos aus Heidelberg, dessen Forecasting-Tool kaum personenbezogene Daten benötigt. „Wir merken, dass uns das hilft, viel schneller effektiv beim Kunden zu sein“, sagt CTO Fabian Rang. Im Rahmen des AI Act ist Paretos trotzdem zu mehr Transparenz verpflichtet. Aber in diesem Punkt ist Rang ebenfalls zuversichtlich, denn mit Hinweisen zu Quellen und der konkreten Zusammensetzung der Forecasts sieht sich das Start-up auf dem besten Weg. „Das ist essenziell für uns, sonst werden unsere Forecasts nicht genutzt“, ist sich der Gründer sicher. Dass Paretos die Hinweise implementiert, kommt ihnen zugute, weil sie die Regeln des AI Acts damit teilweise schon umsetzen.  

In der Neuerung sieht der Gründer großes Potenzial. „Das ist ein Punkt, der uns in Europa große Vorteile bringen kann, wenn wir ihn richtig spielen.“ Erst die Offenlegung der Blackbox kann das Vertrauen von Nutzer*innen wecken. Mit dieser Haltung ist Rang nicht allein. Ganz ähnlich sieht das Roger Gatti, Head of Product des MarTech-Startups Nexoya: Transparenz habe man in der eigenen Strategie verankert. Nexoya ist ein Performance-Marketing-Tool, das unter anderem Forecasts zur Effektivität einer Kampagne erstellt. In einer neuen Version sollen die Forecasts zusätzliche Erklärungen beinhalten. „Wir sehen: Das ist entscheidend für unseren Erfolg, weil wir das Vertrauen unserer Kunden brauchen. Dieses muss man sich erarbeiten“, sagt Gatti. Nur so kommen technische Innovationen in der breiten Masse an. 

AI Act könnte Start-ups abwürgen 

Hanne Butting blickt anders auf die Regulierung. Nach zwei Jahren Entwicklung hat sie mit ihren beiden Co-Gründern Beyond Emotion an den Start gebracht. Das Ergebnis ist eine KI, die Emotionen auf Bildern erkennt. Zum Einsatz kommt sie in Form eines digitalen Bilderrahmens, der bei Senioren im Wohnzimmer steht und eine Kamera beinhaltet. Pflegende Angehörige können dann in der App sehen, wie es ihren Liebsten geht. Bei längerer Abwesenheit ploppt eine Warnung auf.  

Nun will Beyond Emotion solche Bilderrahmen auch in Pflegeheimen installieren. Das Problem: KI am Arbeitsplatz ist in dieser Form künftig schlichtweg nicht erlaubt. Innovation hin oder her, ohne Weiteres dürfte geplante Use Case nicht umgesetzt werden. Ob sie mit dem Wissen die Entwicklung überhaupt gestartet hätten? Nein, meint Butting.  

So dürfte es in Zukunft wohl eine Vielzahl an Ideen geben, die es nicht in die Umsetzung schaffen. Schließlich lässt sich nicht jede technische Innovation in eine compliancegerechte Anwendung gießen. Aufgrund der Regulierung nicht zu investieren, hält Frauke Goll für fatal. Die Geschäftsführerin des AppliedAI Institute fordert: „Hier müssen wir ansetzen, damit der Einsatz der Technologie weiter gefördert wird.“ Man brauche den Mut zum Ausprobieren. Weiter betont sie die Relevanz verlässlicher, hochqualitativer Wissensmaterialien, die Unternehmen helfen, den AI-Act besser zu verstehen. Dazu gehört zum Beispiel eine Datenbank, in der Unternehmen mit ihrer Risikoklassifizierung gelistet sind. 

Sandbox-Systeme sollen Einschränkungen lindern 

Beyond Emotion sucht indes unbekümmert nach weiteren Use Cases. Im Gespräch wirft Butting mehrere Ideen auf, die einen Einsatz in Pflegeheimen doch noch ermöglichen könnten. Zum Beispiel könnte man einen Knopf vor jedem Zimmer installieren, der die Analyse stoppt, sobald eine Pflegekraft den Raum betritt. „Uns ist wichtig, dass der Mensch im Mittelpunkt steht“, so Butting. Im Rahmen mehrerer Pilotprojekte lotet das Start-up bereits Alternativen aus. Künftig könnte der AI Act hier zum Tragen kommen: Als Gegenpol zu den Einschränkungen sieht er zum Beispiel sogenannte Sandbox-Systeme vor. In diesen Reallaboren können Unternehmen ihre Produkte weiterentwickeln, ohne dass die Regulatorik sie allzu sehr einschränkt. Manche erhoffen sich davon innovatives Potenzial. 

„Ich glaube das erst, wenn ich es sehe“, entgegnet Daniel Abbou. Der Geschäftsführer des KI-Bundesverbands nimmt in der Regulierung ein deutliches Ungleichgewicht wahr. „Ich habe das Gefühl, dass man sich zu 80 Prozent auf Regulierung konzentriert und zu 20 Prozent auf Innovationsförderung.“ Das betreffe unter anderem die Vergaberegelungen für staatliche Förderungen. Diese seien höchst bürokratisch und regelrecht start-up-feindlich. „Hier muss man an den Grundregeln der Förderungen arbeiten“, so Abbou. 

Insgesamt sehen Start-ups die Regulierung differenziert. Hundertprozentige Sicherheit bezüglich ihrer Risikoklassifizierung besitzt dabei keines von ihnen. Beispiele wie das Social-Scoring-System zeigen, wie Innovationen für gesellschaftspolitische Zwecke missbraucht werden. Es ist also gut, dass sie Regulierungen unterstehen. Auf der anderen Seite können zu einseitige Regulierungen Innovationen schlichtweg ersticken und neue Wirtschaftszweige verdorren lassen. 

(js, Jahrgang 2001) ist seit Juli 2023 freier Autor der absatzwirtschaft. Er ist fasziniert von neuen Technologien und der Frage, warum Konsumenten das tun, was sie tun. Außerdem ist er ein wahrer Espresso-Enthusiast.