Wie wettbewerbsfähig ist Europa im Bereich künstliche Intelligenz?
der AI Action Summit in Paris mit Vertretenden aus Politik und Gesellschaft aus aller Welt endete am 11. Februar, eines der Hauptthemen war Innovation im Bereich Künstliche Intelligenz
seit Anfang Februar sind neue Einschränkungen für KI durch den AI Act in Kraft und ein EU-gefördertes Projekt zu großen Sprachmodellen hat begonnen
Forschende bewerten AI Act teils als Entwicklungshemmnis, teils als Chance und sehen Investition in Startups und Aufbau einer KI-Dachorganisation als Möglichkeiten für Innovation
Ist die Rede von Künstlicher Intelligenz (KI) für kommerzielle Anwendungen, geht es oft primär um US-amerikanische Tech-Unternehmen. Abseits der etablierten Anbieter wie OpenAI, Google und Anthropic hat allerdings jüngst das chinesische Unternehmen DeepSeek ein konkurrenzfähiges Sprachmodell vorgestellt. Das zeigt, dass auch außerhalb der Vereinigten Staaten Innovationen im Bereich KI möglich sind – und das kostengünstiger als angenommen. Am 10. und 11. Februar findet in Frankreich der AI Action Summit 2025 statt. Laut den Veranstaltenden sind Beauftragte aus fast 100 Ländern und über 1000 privaten und gemeinnützigen Organisationen angekündigt [I]. Eines der fünf Hauptthemen des Gipfels ist „Innovation und Kultur“. Die Beteiligten wollen unter anderem Kriterien identifizieren, die die Entwicklung von KI in Europa vorantreiben können [II].
Professor für Künstliche Intelligenz, Technische Hochschule Deggendorf
Akademische Forschung und kommerzielle Umsetzung
„Deutschland ist sehr gut im Bereich Forschung und Lehre aufgestellt. Allein der Freistaat Bayern hat im Rahmen der Hightech Agenda 1000 neue Professuren mit dem Schwerpunkt Digitalisierung und KI geschaffen. Bei der Anzahl der KI-Unternehmen steht Deutschland auf Platz sieben [1]. Eine Herausforderung ist unter anderem der Mangel an Risikokapital für Startups, die sich dann um eine Finanzierung von außerhalb der EU kümmern müssen und gegebenenfalls abwandern.“
Einschränkungen durch den AI Act und nötige Förderung von KI-Innovationen
„Ich habe die parlamentarischen Beratungen zum AI Act ab Mai 2021 durch mehrfache Ladungen als Sachverständiger in Ausschussanhörungen des Deutschen Bundestags begleitet. Bis zuletzt war jedoch unklar, ob es überhaupt eine Regulierungslücke gab, die der AI Act schließen würde. Der Einsatz von KI erfolgt ohne AI Act gerade nicht im rechtsfreien Raum, da der konkrete Einsatz von KI-Anwendungen immer auch den bestehenden vertikalen beziehungsweise sektoralen Regulierungen (Regulierungen in einem bestimmten Sektor; Anm. d. Red.) unterworfen ist. Der AI Act hat sicher eine gute Intention, die Umsetzung ist jedoch aufgrund vieler unklarer Bestimmungen und der unnötigen Länge des Gesetzestextes herausfordernd. Dies führt zu Wettbewerbsnachteilen. Innovation droht dann teuer zu werden, nicht zu geschehen oder in andere Teile der Welt abzuwandern.“
„Wir brauchen nicht nur ein Regulierungsmoratorium, sondern müssen bestehende Regulierungen zurückfahren und durch praktikable Regeln ersetzen. Zudem muss der Risikokapitalsektor gestärkt werden, zum Beispiel indem auch Versicherungen leichter in Risikokapital investieren dürfen. Zudem müssen wir Transformation als Chance begreifen und nicht immer abwarten und Dinge verhindern.“
Bedeutung von Open-Source
„Die aktuellen Entwicklungen rund um DeepSeek sind vor allem ein Gewinn für Open-Source, denn DeepSeek basiert auf Open-Source. Es ist ein gutes Bekenntnis, dass die EU nun den Einsatz von Open-Source fördern möchte. Im Vergleich zu den Wettbewerbern in den Vereinigten Staaten und in China ist die bereitgestellte Summe jedoch überschaubar. Auch ist fraglich, ob staatliche Strukturen und Fördermittel zu schneller Innovation führen. Viel sinnvoller wäre es, die sich auch auf Startups und Open-Source erstreckenden regulatorischen Anforderungen des AI Acts zu senken und Aufträge an Startups zu vergeben.“
Leiter des Fachgebiets Maschinelles Lernen, Technische Universität Darmstadt
Akademische Forschung und kommerzielle Umsetzung
„Europa und Deutschland sind in der akademischen KI-Forschung international sehr anerkannt und treibend. Doch in der kommerziellen Umsetzung hinken wir hinterher. Es fehlt an eigener KI-Infrastruktur, insbesondere an leistungsfähigen Rechenzentren und der notwendigen Hardware, um globale Spitzenleistungen zu sichern. Die Investition in eine solche Infrastruktur zahlt sich aus, da sie nicht nur die Abhängigkeit von US-amerikanischen und chinesischen Systemen reduziert, sondern auch Innovationen und wirtschaftliche Erfolge ‚Made in Europe‘ fördert.“
„Die dominierende Rolle von US-Unternehmen wie OpenAI und NVIDIA sowie Chinas Vorstöße mit effizienteren KI-Modellen wie DeepSeek zeigen, dass Europa eine strategische Lücke zwischen Forschung und Marktreife schließen muss. DeepSeek-R1 ist vor allem ein wirtschaftlicher Erfolg und zeigt, dass leistungsstarke Modelle auch ohne dreistellige Millionenbudgets entwickelt werden können, sofern Infrastruktur und Daten vorhanden sind. Mit Trainingskosten von nur sechs Millionen US-Dollar beweist es, dass innovative Optimierungstechniken und effiziente Architekturen wie Mixture-of-Experts (MoE) (Eine Anfrage wird nicht von dem gesamten Netzwerk bearbeitet, sondern von spezialisierten Teilnetzwerken – sogenannten Experten; Anm. d. Red.) die hohen Kosten für KI-Entwicklung drastisch reduzieren können – eine Hoffnung, die jedoch noch empirisch validiert werden muss.“
„Europäische Unternehmen wie Aleph Alpha, Mistral und NXAI sind erste Erfolge, die zeigen, dass wir mitspielen können. Aleph Alpha stellt generative KI-Technologien für Unternehmen und Behörden bereit, die speziell auf europäische Werte und Standards zugeschnitten sind. Mistral aus Frankreich hat mit seiner effizienten Open-Source-Strategie gezeigt, wie Europa im Bereich generativer KI innovativ bleiben kann. NXAI punktet mit Energieeffizienz und Schnelligkeit. Dennoch bleibt die Herausforderung, diese Forschungserfolge schneller in kommerzielle Anwendungen zu überführen und global wettbewerbsfähig zu skalieren. Ohne stärkere Investitionen und Kooperationen zwischen Forschung und Industrie, ohne Vertrauen in KI bei der Bevölkerung und der Politik, wird Europa Schwierigkeiten haben, mit den USA und China mitzuhalten.“
Einschränkungen durch den AI Act und nötige Förderung von KI-Innovationen
„Der AI Act setzt wichtige Standards für vertrauenswürdige und ethische KI, die Europas Werte schützen, doch er birgt auch das Risiko, Innovationen zu bremsen. Insbesondere strikte Auflagen könnten Startups und kleine und mittlere Unternehmen (KMU) belasten, während globale Konkurrenten wie die USA und China oft weniger reguliert agieren. Dennoch ist der Ansatz der EU, klare Regeln für eine sichere und gemeinwohlorientierte KI zu schaffen, langfristig notwendig – vorausgesetzt, er wird durch gezielte Förderung von Innovationen ergänzt. Regulierung bremst auch nicht zwangsläufig KI-Innovation – im Gegenteil, sie kann neue Entwicklungen anstoßen. Ein hervorragendes Beispiel ist ‚LlavaGuard‘, ein Vision-Language-Tool, das wir an der TU Darmstadt entwickelt haben, um anstößige Bildinhalte zu filtern und transparent zu bewerten [2]. Es verdeutlicht, wie KI selbst dabei helfen kann, regulatorische Anforderungen wie Sicherheit, Ethik und Transparenz zu erfüllen. Solche Innovationen fördern nicht nur die Sicherheit von KI-Systemen, sondern stärken auch das Vertrauen von Nutzenden und politischen Entscheidungsträgern.“
„Europa benötigt eine Organisation nach dem Vorbild der Europäischen Organisation für Kernforschung (CERN) oder der Europäischen Weltraumagentur (ESA), die Infrastruktur, Talent und Ressourcen bündelt, um global wettbewerbsfähige KI-Technologien zu entwickeln. In den nächsten zehn Jahren sind bestimmt 100 Milliarden Euro aus öffentlichen und privaten Mitteln erforderlich, um nicht nur bestehende KI-Technologien aus anderen Ländern anzupassen oder auf Nischenbereiche zu beschränken, sondern um eine eigene Grundlage für sichere, zuverlässige und vielseitig einsetzbare KI-Technologien zu schaffen. Die Investition wird sich auszahlen, da sie die Abhängigkeit von ausländischen Systemen reduziert, Innovationen fördert und wirtschaftliche KI-Erfolge ‚Made in Europe‘ ermöglicht. Nur mit einer starken Basis können Forschungsergebnisse schneller in marktreife Anwendungen überführt und die Wettbewerbsfähigkeit gesichert werden. Nur mit einer starken Basis können wir eine nachhaltige, ressourceneffiziente KI entwickeln, die Europas Werte widerspiegelt.“
Bedeutung von Open-Source
„Die Förderung eines europäischen Open-Source-KI-Modells ist ein Schritt in die richtige Richtung, da Open-Source Transparenz, Kollaboration und Unabhängigkeit fördert. Mit gut 50 Millionen Euro ist das Budget jedoch bescheiden, verglichen mit den Milliardenbeträgen, die US- und chinesische Akteure investieren. Open-Source kann Europa helfen, technische Abhängigkeiten zu reduzieren, Innovationen demokratischer zu gestalten und ethische KI voranzutreiben – allerdings nur, wenn die Initiative durch größere, langfristige Investitionen aufgestockt wird.“
Geschäftsführer des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), Kaiserslautern und Professor für Informatik, Universität des Saarlandes
Akademische Forschung und kommerzielle Umsetzung
„Die Aufmerksamkeit [für US-amerikanische und chinesische KI-Modelle] ist berechtigt, manche Börsenaufregung allerdings übertrieben. Die amerikanischen und chinesischen Modelle ChatGPT und DeepSeek sind nicht die einzigen, aber die bekanntesten beeindruckenden KI-Erfolge. Das ist gut, denn es sind Weckrufe für Europa. Unsere akademische, aber auch die industrielle KI-Forschung sind wettbewerbsfähig. Das Volumen des Risikokapitals, das in Europa eingesetzt wird, um Forschungsprototypen zu Produkten weiterzuentwickeln, ist es nicht. Wir haben in Europa kein Erkenntnis-, kein Umsetzungs-, sondern ein Investitionsproblem.“
Einschränkungen durch den AI Act und nötige Förderung von KI-Innovationen
„Der AI Act – oder die KI-Verordnung (KI-VO) – ist eine epochale Gesetzesinitiative. Es ist das Ergebnis eines differenzierten, zehnjährigen Diskurses, in den das Deutsche Forschungszentrum für Künstliche Intelligenz (DFKI) aktiv eingebunden war – zum Beispiel im Rahmen der ‚High Level Expert Group on AI‘ der EU-Kommission. Wahrscheinlich stimmen alle KI-Praktiker zu, dass ‚KI-Systeme mit unannehmbarem Risiko‘ in der EU selbstverständlich keine Marktzulassung bekommen dürfen. Gesetzliche Vorgaben müssen sich aber in der Rechtsprechung bewähren. Die daraus resultierenden praktischen Erfahrungen werden dazu führen, dass die KI-VO mitwächst und an Innovationssprünge angepasst wird. Das ist sicherlich herausfordernd, schafft aber Investitionssicherheit und vermeidet gesellschaftliche Belastungen.“
„Disruptive Innovationen eröffnen Chancen, kreieren aber auch Friktionen. Die Motivation für die KI-Verordnung ist die Verhinderung von KI-Anwendungsklassen, die die Sozialpartnerschaft, den gesellschaftlichen Zusammenhalt und die politische Stabilität gefährden. Die KI-Verordnung hemmt keine Innovation, sondern definiert Leitplanken und schafft damit Handlungsspielräume. Nicht alle technisch möglichen Lösungspfade können verfolgt werden, aber mit der KI-Verordnung liegen die legalen Bedingungen vor, die für eine Zulassung zu erfüllen sind.“
„Europa muss die Herausforderung aktiv annehmen und nicht nur wortreich und wiederholt KI-Souveränität postulieren. Dabei sollte die EU drei Entwicklungsströme verfolgen. Einerseits müssen große europäische Sprachmodelle in europäischen Serverfarmen als Infrastrukturleistung für Wissenschaft, Wirtschaft und Gesellschaft zur Verfügung gestellt werden. Das ist weniger eine Forschungs- als eine Finanzierungsaufgabe. Andererseits ist KI eine junge Disziplin. Obwohl die aktuellen Anwendungen beeindruckend sind, sind sie noch weit entfernt von den Systemen, die personalisierte Medizin oder den wohlstandserhaltenden ökologischen Umbau der Industriegesellschaft leisten. Smart City, Smart Country und Smart EU sind große Aufgaben, bei denen KI zu Lösungen beitragen kann. Und drittens sollte die EU Forschungsinitiativen anregen, die neue, alternative oder auch hybride KI-Ansätze verfolgen, die von dem aktuellen Erfolg der Large Language Models überdeckt werden.“
Gründungsdirektorin und Emerita, Lamarr Institut für Maschinelles Lernen und Künstliche Intelligenz, Technische Universität Dortmund
Akademische Forschung und kommerzielle Umsetzung
„Deutschland und Europa insgesamt sind in der Forschung sehr gut aufgestellt. Dabei ist die gesamte Breite des maschinellen Lernens gut vertreten. In Deutschland ist gerade das Open-Source Large Language Model Teuken-7B publiziert worden. Es ist für alle europäischen Sprachen trainiert.“
„Was die kommerzielle Umsetzung angeht, sind deutsche Firmen immer noch zögerlich. Dadurch entgeht uns das schnelle Feedback, durch das unsere Produkte immer besser werden.“
Einschränkungen durch den AI Act und nötige Förderung von KI-Innovationen
„Der AI Act der EU kann ein Alleinstellungsmerkmal sein, das für EU-Produkte spricht. Es kommt darauf an, dass wir sehr schnell und praxisnah Zertifizierungen realisieren.“
„Natürlich ist für die deutsche KI nach wie vor wichtig, dass unsere ausgezeichnet qualifizierten Postdocs unbefristete Verträge bekommen und die KI-Zentren für agile Forschung gefördert werden. Dazu gehört eine vielseitige Rechnerausstattung. Eigene Hardware-Entwicklung gerade für Edge AI (KI-Anwendungen, die nicht über eine Cloud angesteuert werden, sondern direkt in den Produkten verbaut sind; Anm. d. Red.) sollte nicht vergessen werden.“
Bedeutung von Open-Source
„Europa und insbesondere Deutschland sollten sehr genau auf ihre Daten aufpassen. Hier haben wir gerade wegen der Vielsprachigkeit in Europa und auch wegen der starken industriellen Produktion einen entscheidenden Vorteil, den wir nicht aus der Hand geben sollten.“
„Open-Source ist wichtig für den Entwicklungsfortschritt. Dies betrifft Algorithmen und Benchmarks, aber nicht bestimmte Datensammlungen. Wie gesagt: Diesen Schatz sollte Europa für sich behalten. Die 50 Millionen Euro der europäischen Investitionen entsprechen nicht den Milliarden Dollar der US-amerikanischen Investitionen. Hier muss nachgebessert werden.“
„Ich habe bei diesem Thema keine Interessenkonflikte.“
„Ich habe einen Interessenkonflikt bei Aleph Alpha, bei dem ich einer der Seed Investoren bin. Aleph Alpha finanziert auch ein Kollaborationslab an der TU Darmstadt, das ich leite. Außerdem haben wir das Tool LlavaGuard in meiner Arbeitsgruppe entwickelt [2].“
„Professor Krüger hat keine unmittelbaren Interessenkonflikte. Professor Krüger äußert sich zu mehr Investitionen in KI-Forschungsdienstleistungen und das DFKI bietet KI-Forschungsdienstleistungen an.“
„Ich habe keine Interessenkonflikte.“
Literaturstellen, die von den Expert:innen zitiert wurden
[1] International Finance Forum (2024): IFF Global Artificial Intelligence Competitiveness Index Report. Indexbericht.
[2] Helff L et al. (2025): LlavaGuard: VLM-based Safeguards for Vision Dataset Curation and Safety Assessment.
Literaturstellen, die vom SMC zitiert wurden
[I] AI Action Summit (2025): Press Kit Artificial Intelligence Action Summit. Pressemappe.
[II] AI Action Summit (17.01.2025): Innovation and Culture.
[III] Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act) (Text with EEA relevance). Europäische Verordnung. Europäische Union.
[IV] EU Artificial Intelligence Act (2025): Zeitplan für die Umsetzung. Institut Zukunft des Lebens.
[V] Europäische Kommission (03.02.2025): Ein wegweisendes KI-Projekt, das für die Öffnung großer Sprachmodelle für europäische Sprachen ausgezeichnet wurde. Pressemitteilung.
Prof. Dr. Patrick Glauner
Professor für Künstliche Intelligenz, Technische Hochschule Deggendorf
Angaben zu möglichen Interessenkonflikten
„Ich habe bei diesem Thema keine Interessenkonflikte.“
Prof. Dr. Kristian Kersting
Leiter des Fachgebiets Maschinelles Lernen, Technische Universität Darmstadt
Angaben zu möglichen Interessenkonflikten
„Ich habe einen Interessenkonflikt bei Aleph Alpha, bei dem ich einer der Seed Investoren bin. Aleph Alpha finanziert auch ein Kollaborationslab an der TU Darmstadt, das ich leite. Außerdem haben wir das Tool LlavaGuard in meiner Arbeitsgruppe entwickelt [2].“
Prof. Dr. Antonio Krüger
Geschäftsführer des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI), Kaiserslautern und Professor für Informatik, Universität des Saarlandes
Angaben zu möglichen Interessenkonflikten
„Professor Krüger hat keine unmittelbaren Interessenkonflikte. Professor Krüger äußert sich zu mehr Investitionen in KI-Forschungsdienstleistungen und das DFKI bietet KI-Forschungsdienstleistungen an.“
Prof. Dr. Katharina Morik
Gründungsdirektorin und Emerita, Lamarr Institut für Maschinelles Lernen und Künstliche Intelligenz, Technische Universität Dortmund
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“