Donald Trump ist wieder im Amt – und die Auseinandersetzungen um die Regulierung von KI und der Plattformen sowie um »technologische Souveränität« nahmen innerhalb von Stunden Fahrt auf. Mark Zuckerberg möchte mehr »männliche Energie im Unternehmen« und schafft alle Faktenchecks ab – in der EU bleiben sie allerdings. Elon Musk hat X (ehemals Twitter) zu einer rechten Propagandamaschine umgebaut und möchte dies auch gegen den Digital Services Act der EU durchhalten. Auch andere Unternehmen wollen die Regulierung ihrer Plattformen aushebeln. Google beispielsweise will in Youtube keine inhaltssteuernden Maßnahmen mehr ergreifen – versichert aber ebenso wie Zuckerberg, man werde natürlich den EU-Regulierungen entsprechen.
Was das nun konkret bedeutet, und wie weit Trump und seine Tech-Kumpane gehen, ist noch nicht ganz klar. Heftige Auseinandersetzungen stehen an. Zur Einordnung stellen wir den Artikel aus der Wildcat 114 online:
Die EU strebt seit einiger Zeit an, unter dem Schlagwort »technologische Souveränität« bei Soft- und Hardware bzw. der gesamten IT-Infrastruktur vom Chip bis zur KI selbstständig zu werden, die Abhängigkeit von US-Technologiekonzernen und (größtenteils asiatischen) Lieferketten der Halbleiterproduzenten zu verringern. Teil davon sind Regulierungen der Tech-Konzerne, der digitalen Plattformen und auch einzelner Technologien. Mit dem Digital Services Act und dem Digital Markets Act sollen Plattformen wie X (Twitter), Facebook, Google, Amazon, Temu, TikTok an die Kandare gelegt werden – was angesichts einer gewissen Nervosität bei den Tech-Konzernen zunehmend zu gelingen scheint. Schließlich hatte die EU bereits mit der Datenschutzgrundverordnung ein zuerst belächeltes, dann aber weltweit doch für Anpassungen sorgendes Gesetz vorgelegt.
Mit der neuen US-Regierung werden sich die Auseinandersetzungen verschärfen. Die neurechten Silicon-Valley-Venturekapitalisten wollen die letzten Hemmnisse einer liberal-bürgerlichen Demokratie in den USA schleifen. Demgegenüber positionieren sich EU-Kommission und (vor allem) das EU-Parlament als Verteidiger ebendieser Institutionen, sowohl gegen die materiellen Ansprüche der Tech-Konzerne als auch gegen die Vorhaben ihrer ideologischen Propagandisten. Aus Sicht der EU-Verantwortlichen geht es dabei grundsätzlich um die Ausrichtung des Kapitalismus, der besten Verwirklichung von Verwertungsinteressen und der damit einhergehenden Organisation der Gesellschaft – kurz gesagt, stehen sich zwei Kapitalfraktionen mit unterschiedlichen Antworten auf die gegenwärtige Krise gegenüber.
Die Auseinandersetzungen werden sich auf ökonomischer und regulatorischer Ebene nicht auf DSA, DMA und DSGVO beschränken. Dazu kommt vor allem der AI Act. Er wurde im November 2023 vom EU-Rat verabschiedet und ist am 1. August in Kraft getreten. Er soll die Entwicklung und Nutzung von KI in der EU fördern und die Risiken minimieren. Er betont die Bedeutung der Grundrechte und legt fest, dass KI-Systeme nicht gegen diese verstoßen dürfen. Dazu werden KI-Systeme in verschiedene Risikokategorien eingeteilt, von minimal bis inakzeptabel. Für solche mit minimalem Risiko gelten weniger strenge Anforderungen. Solche mit hohem Risiko, etwa in der Gesundheitsversorgung oder der Strafjustiz, müssen hochtransparent sein und eine hohe Genauigkeit aufweisen. KI-Anwendungen, die als inakzeptabel riskant eingestuft werden, sind verboten, insbesondere Systeme, die zur sozialen Manipulation oder zur Massenüberwachung eingesetzt werden können. Der Einsatz von biometrischer Gesichtserkennung in der Öffentlichkeit ist weitgehend verboten, mit einigen Ausnahmen für die Strafverfolgung. Die Analyse von Gefühlen am Arbeitsplatz durch KI ist verboten. Unternehmen, die KI-Systeme entwickeln oder einsetzen, müssen transparent darüber informieren, wie diese funktionieren. Sie sind für die von ihren KI-Systemen verursachten Schäden verantwortlich.
Die Entwicklung und den Einsatz von KI soll der AI Act dadurch fördern, dass er einen klaren Rechtsrahmen schafft. Damit will die EU eine führende Rolle bei der Gestaltung der globalen Regulierung von KI übernehmen.
Kritiker bemängeln hauptsächlich, dass etwa bei der automatischen Gesichtserkennung Datenschutzgrundsätze aufgeweicht werden, weil Strafverfolger diese nun doch einsetzen dürfen.
Grundsätzlich treffen die Regelungen des AI Act vorwiegend die Hersteller und Nutzer generativer KIs wie ChatGPT (OpenAI) oder Gemini (Google). In diesen Fällen können primär die Regeln zu Transparenz, Risikobewertung und Grundrechtsschutz nur unter Mühen eingehalten werden – die die Protagonisten der gKI keineswegs auf sich nehmen wollen. Leute wie OpenAI-Chef Sam Altman, die zuvor noch selbst eine Regulierung gefordert hatten, sind angesichts des AI Act sofort in Jammern und Wehklagen verfallen. Youtube aber hat direkt nach Verabschiedung des AI Act damit angefangen, eine Kennzeichnung KI-generierter Inhalte zu verlangen.
Die Behauptung von Google, Apple und Co., der AI Act sei hinderlich für das volle Potenzial ihrer Plattformen bzw. Apps, bezieht sich auf ihre zunehmende Integration von KI in andere Anwendungen. Die Suchmaschine von Google wird mittlerweile von der Google-KI Gemini unterstützt, die ebenso in Google Docs oder Google Drive bei alltäglichen Aufgaben hilft. Es gibt allerdings auch Argumente dafür, dass Google als eigentliche Suchmaschine dadurch schlechter geworden ist, dass es immer schon Antworten geben will.
Anfangs kritisierten auch europäische KI-Vertreter den AI Act aus vergleichbaren Gründen als zu weitgehend, weil er auch europäischen KI-Firmen unerwünschte Beschränkungen aufzuerlegen schien. Diese Haltung hat sich angesichts der Probleme, mit gKIs tragfähige Geschäftsmodelle zu entwickeln, aber etwas geändert. Streng kuratierten, für bestimmte Einsatzgebiete entwickelten KIs kommt der AI Act sogar entgegen – und auf solche Geschäftsmodelle setzen mittlerweile viele europäische KI-Startups, etwa Sepp Hochreiter mit seinem xLSTM oder Jonas Andrulis mit Aleph-Alpha. Die Regulierungen des AI Act halten ihnen die große Konkurrenz von dem Markt für angepasste Modelle fern. Aleph-Alpha wirbt mit genau den Transparenz-Regeln, die der AI Act vorsieht. Sie ziehen sich aus dem milliardenschweren, ressourcenintensiven Wettbewerb um den am schlauesten wirkenden Chatbot zurück. Gefragt ist die heimische KI auch in handfesten Anwendungen bei Industrie- und Firmenkunden, die ihre wertvollen Firmendaten gerne für sich behalten.
So dient der AI Act den Interessen der Investoren und der Startups in der EU besser, als viele es ursprünglich für möglich hielten. Es könnte eine Industrie entstehen, die mit spezialisierten KIs einen Werkzeugmarkt schafft, der den kapitalistischen Verwertungsinteressen mehr entspricht als die Allmachts-Fantasien der Neuen Rechten im Silicon Valley mit ihren »Geld-Verbrennungsöfen«. Wer in dieser Auseinandersetzung zwischen verschiedenen Kapitalfraktionen letztlich den Sieg davonträgt, ist offen.