Albanien ist keine Bühne für Edi Ramas politische Inszenierung

Ein Regierungschef darf das Land künst­le­risch gestal­ten. Architektur, Stadtbild, Symbolik – all das sind legi­ti­me Ausdrucksformen poli­ti­scher Vision.
Aber: Sobald das Land zur Bühne wird, auf der die Bevölkerung nur als Kulisse dient, ver­schiebt sich die onto­lo­gi­sche Logik von Demokratie zu Inszenierung.
Edi Rama behan­delt das alba­ni­sche Volk nicht als sou­ve­rä­ne Bürger:innen, son­dern als Darsteller:innen – und Albanien nicht als Republik, son­dern als Bühne, auf der er sei­ne eige­nen Machtästhetiken inszeniert.

Nachdem Edi Rama unter dem Vorwand feh­len­der Genehmigungen zahl­rei­che Gebäude aus der Ära Sali Berishas abrei­ßen ließ – nur um auf den­sel­ben Grundstücken neue Projekte zu geneh­mi­gen, deren archi­tek­to­ni­sche Visionen zwar ästhe­tisch ambi­tio­niert, jedoch struk­tu­rell mit bekann­ten Mustern von Geldwäsche und Korruption ver­knüpft waren, wie der MDR (ARD-Verbund) im Jahr 2024 doku­men­tier­te –, erschuf er Diella.

Diella, die vir­tu­el­le Ministerin Albaniens, wird von der Regierung als Schlüsselfigur im ver­meint­li­chen Kampf gegen Korruption inszeniert. 

Aber ist sie das wirklich?

Oder ist sie bloß die algo­rith­mi­sche Fortsetzung einer Macht, die sich der Kontrolle längst ent­zo­gen hat?

Strukturelle Widerlegung

Die Politikwissenschaftlerin Virginia Eubanks ent­kräf­tet die­se Darstellung nicht mit Meinung, son­dern mit doku­men­tier­ter Empirie.
In Automating Inequality zeigt sie anhand zahl­rei­cher Fallstudien, dass auto­ma­ti­sier­te Entscheidungssysteme struk­tu­rel­le Ungleichheiten nicht abbau­en, son­dern sys­te­ma­tisch ver­stär­ken.
Wenn sol­che Systeme nicht aus­drück­lich auf Gerechtigkeit und sozia­len Ausgleich aus­ge­rich­tet sind, beschleu­ni­gen und ver­brei­tern sie bestehen­de Benachteiligungen.1

Auch juris­tisch ist die Konstruktion nicht halt­bar.
Das von der EU geför­der­te JuLIA-Projekt doku­men­tiert, dass algo­rith­mi­sche Systeme in der öffent­li­chen Verwaltung fun­da­men­ta­le Risiken für Grundrechte erzeu­gen – ins­be­son­de­re dann, wenn sie nicht recht­lich und insti­tu­tio­nell kon­trol­liert wer­den.
Die Forscherinnen Aurelia Colombi Ciacchi und Lottie Lane ana­ly­sie­ren, wie algo­rith­mi­sche Entscheidungen ihre demo­kra­ti­sche Legitimität ver­lie­ren, sobald Kontrolle, Haftung und Transparenz fehlen.

Die philosophische Entkernung

Diella führt zur sys­te­ma­ti­schen Entmaterialisierung des Verantwortungsprinzips.
Was frü­her als indi­vi­du­el­le Entscheidung haft­bar gemacht wer­den konn­te, erscheint heu­te als algo­rith­mi­scher Ablauf – ent­kop­pelt von per­sön­li­chem Urteil, ent­zo­gen jeder direk­ten Kontrolle. Entscheidungen wir­ken nicht mehr als Ausdruck poli­ti­scher Verantwortung, son­dern als schein­bar neu­tra­le Systemreaktionen.
Diese Verschiebung hat weit­rei­chen­de Folgen:
Was einst über­prüf­bar war, wird nun algo­rith­misch legi­ti­miert – und damit der poli­ti­schen wie juris­ti­schen Kontrolle ent­zo­gen. Verantwortung ver­schwin­det hin­ter dem Anschein von Objektivität.
Hannah Arendt beschreibt die­se Dynamik in ihrer Bürokratieanalyse als „Banalität des Bösen“: Verantwortung löst sich auf, weil sie hin­ter rou­ti­ni­sier­ten Abläufen ver­schwin­det.2
Auch Byung-Chul Han ent­larvt die soge­nann­te „Transparenzgesellschaft“ als Illusion – eine Welt, in der schein­bar alles sicht­bar ist, aber nichts mehr wirk­lich über­prüft wer­den kann. Kontrolle wird zur Fiktion, Verantwortlichkeit zur rhe­to­ri­schen Geste.3
Diella ist kei­ne Ministerin – sie ist die rhe­to­ri­sche Entlastung poli­ti­scher Verantwortung.
Sie steht nicht für einen neu­en Ansatz in der Korruptionsbekämpfung, son­dern für die algo­rith­mi­sche Verschiebung von Verantwortung in eine Blackbox – mit dem Effekt, dass demo­kra­ti­sche Kontrolle und Transparenz wei­ter geschwächt werden.

Die ökonomische Konzentration

Stehen zwei Unternehmen zur Auswahl, die auf den ers­ten Blick gleich­wer­tig erschei­nen, blickt Diella zurück: Wer hat bereits gelie­fert? Wer wur­de bevor­zugt? Wer gilt als zuver­läs­sig? Doch die­se „Vergangenheit“ ist längst poli­tisch kodiert.
Die Hochhäuser in Tirana – künst­le­risch, far­ben­froh, visio­när – tra­gen unver­kenn­bar die Handschrift Edi Ramas. Sie ent­stan­den unter sei­ner Regierung, viel­fach trotz doku­men­tier­ter Geldwäscheverdachtsmomente. Auch der Dokumentarfilm Drogen, Dollars, Diplomatie – Albaniens Tanz mit der EU, pro­du­ziert von Beetz Brothers Filmproduktion und am 15. April 2025 auf ARTE aus­ge­strahlt, doku­men­tiert die Geldwäscheverdachtsmomente rund um Tiranas Bauprojekte unter Edi Rama.
Wenn Diella die­se Vergangenheit als Erfolgskriterium wer­tet, tri­um­phiert nicht das bes­te Angebot, son­dern das bereits eta­blier­te Netzwerk. Die Auswahl wird zum zir­ku­lä­ren Prozess – weit ent­fernt von demo­kra­ti­scher Konkurrenz, weit ent­fernt von über­prüf­ba­rer Gerechtigkeit.
Shoshana Zuboff zeigt in The Age of Surveillance Capitalism, dass algo­rith­mi­sche Systeme Macht nicht dezen­tra­li­sie­ren, son­dern in weni­gen Händen kon­zen­trie­ren.4 Die Plattformisierung öffent­li­cher Vergabeprozesse schafft kei­ne Transparenz, son­dern struk­tu­rel­le Ausgrenzung.
Diella ist kein Werkzeug der Gerechtigkeit, son­dern ein Verstärker öko­no­mi­scher Vorentscheidungen – ein System, das bestehen­de Ungleichheiten nicht abbaut, son­dern sie fest­schreibt und vertieft.

Die technische Undurchsichtigkeit

Diella trifft ihre Entscheidungen nicht im luft­lee­ren Raum.
Sie folgt einer Systemarchitektur, deren Funktionsweise weder öffent­lich doku­men­tiert, noch demo­kra­tisch kon­trol­liert oder juris­tisch zur Rechenschaft gezo­gen wer­den kann.
Was nach algo­rith­mi­scher Objektivität aus­sieht, ist in Wahrheit das Ergebnis mensch­lich gesetz­ter Parameter.
Cathy O’Neil zeigt in Weapons of Math Destruction, wie Blackbox-Algorithmen Entscheidungen tref­fen, die sich weder nach­voll­zie­hen noch über­prü­fen oder kor­ri­gie­ren las­sen.5
Diella ist kein neu­tra­les System.
Sie ist ein Produkt mensch­li­cher Konstruktion – geprägt von Auswahlkriterien, die Menschen bestim­men, Schnittstellen, die Menschen gestal­ten, und Daten, denen Menschen ihr Gewicht ver­lei­hen. Und Menschen sind fehl­bar. Aber auch anfäl­lig für Korruption.
Diella han­delt also nicht unab­hän­gig, son­dern bleibt struk­tu­rell gebun­den – an die Interessen und Vorgaben jener, die sie pro­gram­mie­ren und steuern.

Die verfassungsrechtliche Entgrenzung

Diella unter­gräbt die Grundprinzipien demo­kra­ti­scher Kontrolle.
Sie ersetzt nicht nur die Ministerin, son­dern auch die Möglichkeit, minis­te­ri­el­le Entscheidungen kri­tisch zu hin­ter­fra­gen.
Es exis­tiert weder eine Instanz zur Revision, noch juris­ti­sche Haftung oder öffent­li­che Überprüfung.
Im Vergleich zu euro­päi­schen Verwaltungsgrundsätzen wird deut­lich:
Diella wider­spricht dem Prinzip der Gewaltenteilung, ent­zieht sich par­la­men­ta­ri­scher Kontrolle und immu­ni­siert poli­ti­sche Entscheidungen durch tech­ni­sche Strukturen.

Die algorithmische Fortsetzung der Korruption

Was als tech­ni­sche Lösung prä­sen­tiert wird, ent­zieht sich nicht nur der Kontrolle – es ver­schlei­ert die Korruption. Diella erscheint als Werkzeug gegen Ungleichheit – doch ihre Logik folgt kei­ner sozia­len Gerechtigkeit, son­dern struk­tu­rel­len Vorentscheidungen. Was als algo­rith­mi­sche Objektivität insze­niert wird, ist in Wahrheit ein System mensch­li­cher Konstruktion: pro­gram­miert von Menschen, gesteu­ert durch Interessen, gespeist mit Daten, die längst poli­tisch kodiert sind.
Am Ende steht immer ein Mensch hin­ter dem Code. Und nur ein Mensch kann Verantwortung tra­gen.
Nach Rancière ist die Bühne nicht Raum für das Gemeinsame, son­dern Ort der Aufhebung des Dissens.
Wenn poli­ti­sche Gestaltung zur Inszenierung wird, ver­liert die Bevölkerung ihre Stimme.
Was als Vision ver­kauft wird, ist die Neutralisierung poli­ti­scher Teilhabe.
Doch das Leben der Menschen in Albanien – die mit Würde und Verzweiflung nach Wegen in der Welt und nach Lösungswegen in einem blo­ckier­ten System suchen – ist kei­ne Bühne für poli­ti­sche Inszenierung.
Und Edi Rama hat kein Mandat, sie zu bespielen.

  1. Virginia Eubanks, Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor, St. Martin’s Press, 2018.
    → Zentrale These zur algo­rith­mi­schen Verstärkung struk­tu­rel­ler Ungleichheiten, ent­fal­tet in Kapitel 1 („Introduction“) und Kapitel 2 („The Digital Poorhouse“).
    → Zitat in deut­scher Übersetzung: „Automatisierte Entscheidungssysteme, die nicht expli­zit dar­auf aus­ge­rich­tet sind, bestehen­de struk­tu­rel­le Ungleichheiten abzu­bau­en, inten­si­vie­ren die­se viel­mehr – und das mit einer bis­lang uner­reich­ten Geschwindigkeit und Reichweite.“ ↩︎
  2. Hannah Arendt, Elemente und Ursprünge tota­ler Herrschaft, Piper Verlag, München, 1955.
    → Die Formulierung „Banalität des Bösen“ wird spä­ter in Eichmann in Jerusalem (1963) ver­tieft, ist aber bereits in ihrer Bürokratieanalyse ange­legt: Verantwortung ver­schwin­det hin­ter rou­ti­ni­sier­ten Abläufen, die als tech­nisch not­wen­dig erschei­nen.
    → Juristisch rele­vant für die Entkopplung von Handlung und Haftung im Verwaltungsapparat. ↩︎
  3. Byung-Chul Han, Transparenzgesellschaft, Matthes & Seitz Berlin, 2012.
    → Han ent­larvt die Illusion tota­ler Sichtbarkeit: In einer Welt, in der alles sicht­bar scheint, wird Kontrolle zur Fiktion – und Verantwortlichkeit zur rhe­to­ri­schen Geste.
    → Philosophisch rele­vant für die Entmaterialisierung poli­ti­scher Verantwortung durch Interface-Logik. ↩︎
  4. Shoshana Zuboff, The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power, PublicAffairs, New York, 2019.
    → Zuboff ana­ly­siert, wie digi­ta­le Plattformen nicht zur Dezentralisierung von Macht füh­ren, son­dern zur Konzentration öko­no­mi­scher und poli­ti­scher Kontrolle in weni­gen Händen.
    → Besonders rele­vant für die algo­rith­mi­sche Struktur öffent­li­cher Vergabeprozesse und die Illusion von Transparenz im digi­ta­len Kapitalismus. ↩︎
  5. Cathy O’Neil, Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown Publishing Group, New York, 2016.
    → O’Neil ana­ly­siert, wie algo­rith­mi­sche Systeme Entscheidungen tref­fen, die sich weder nach­voll­zie­hen noch über­prü­fen oder kor­ri­gie­ren las­sen – ins­be­son­de­re, wenn sie als „neu­tral“ erschei­nen, aber auf intrans­pa­ren­ter Parametrisierung beru­hen.
    → Besonders rele­vant für die juris­ti­sche und demo­kra­ti­sche Kritik an Blackbox-ADM in öffent­li­chen Entscheidungsprozessen ↩︎