„Was als Kampf gegen Desinformation begann, wird zur systemischen Einschränkung kritischer Sichtbarkeit“.
Hatte der US-Vize J. D. Vance doch recht?
Als der damalige US-Vizepräsident in seiner Rede vor europäischen Vertretern mahnte, dass Deutschland Gefahr laufe, seine demokratische Substanz zugunsten ideologischer Kontrollmechanismen zu verlieren, wurde das in Berlin als überzogene Einmischung abgetan. Heute wirken diese Worte erschreckend präzise.
Einleitung
In einer Zeit, in der die Sichtbarkeit im digitalen Raum über Reichweite, Wirkung und gesellschaftliche Teilhabe entscheidet, wird die Steuerung ebendieser Sichtbarkeit zu einem machtpolitischen Instrument. Plattformen entscheiden längst nicht mehr nur über technische Ausspielung – sie gestalten aktiv mit, was sichtbar wird, was verdrängt wird und was algorithmisch ins Leere läuft.
Was zunächst wie ein dynamischer Feed erscheint, ist in Wahrheit ein kuratierter Raum – beeinflusst von kommerziellen Interessen, politischen Rahmenbedingungen und normativen Erwartungshaltungen.
Sichtbarkeit wird nicht mehr allein durch Qualität oder Relevanz bestimmt, sondern durch eine sich zunehmend verfestigende Architektur aus Plattformlogik, regulatorischem Zugriff und politisch akzeptierten Wahrheitsregimen.
Diese Entwicklung stellt nicht nur individuelle Stimmen infrage – sie gefährdet das Fundament freiheitlicher Öffentlichkeit im digitalen Zeitalter.
1. Der Fall LinkedIn – Strategische Inhalte unter algorithmischem Vorbehalt
Im Juni 2025 veröffentlichte der geopolitische Stratege Thomas H. Stütz auf LinkedIn einen sachlich fundierten Testbeitrag, in dem er auf eine auffällig reduzierte Reichweite strategischer Analysen hinwies.
Trotz aktiver Community, hoher Interaktion und thematischer Relevanz erreichte der Beitrag binnen 10 Stunden zumindest offiziell sichtbar lediglich 410 Impressionen – bei über 4.400 vernetzten Kontakten (ca. 2.800 Follower, 1.643 direkte Verbindungen).
Der Beitrag rief zahlreiche Reaktionen hervor – unter anderem von Nutzern, die bestätigten, den Inhalt nur über gezielte Profilsuche gesehen zu haben. Andere berichteten von ähnlichen Mustern: Sichtbarkeitsverlust bei kritischen, geopolitisch oder strategisch orientierten Inhalten.
Die offizielle Rückmeldung von LinkedIn wich in mehreren Iterationen konsequent einer inhaltlichen Klärung aus. Statt einer technischen Analyse wurden standardisierte Hinweise zur Content Pflege, Frequenzoptimierung und Verhaltensdynamik zurückgespielt – ohne auf die dokumentierten Abweichungen im Verhältnis von Interaktion und Impression einzugehen.
Die Folgeanalyse legt nahe:
Die algorithmische Drosselung strategischer Inhalte erfolgt nicht zufällig, sondern ist eingebettet in ein System, das Sichtbarkeit gezielt verwaltet – unterhalb der öffentlichen Wahrnehmungsschwelle.
Fazit:
Sichtbarkeit ist kein Geschenk. Sie ist die neue Währung strategischer Freiheit.
2. Strukturelle Übersicht:
Die neue Allianz aus Plattform, Politik und Regulierung
Digitale Sichtbarkeit wird heute nicht mehr allein durch Inhalte gesteuert, sondern durch ein Netzwerk aus plattforminternen Algorithmen, politisch motivierter Regulierung und institutionell akzeptierter Einflussnahme auf semantische Bewertungsprozesse.
Diese Einflussarchitektur arbeitet nicht explizit, sondern strukturell eingebettet – und genau deshalb so wirkungsvoll.
Wir unterscheiden drei miteinander verschränkte Ebenen
A. Die Plattformlogik – technokratisch, intransparent, steuernd
- Kuratierte Algorithmen entscheiden, welche Inhalte im Feed erscheinen – oder verschwinden.
- Maschinelle-Learning-Systeme klassifizieren Inhalte entlang von Kriterien wie „Vertrauenswürdigkeit“, „Sensitivität“, „sozialer Reibung“ oder „potenzieller Missinterpretation“.
- Kritische Begriffe oder systemische Einordnungen werden zunehmend entwertet, indem sie nicht verboten, sondern nicht mehr ausgespielt werden.
Beispiel: Strategische Begriffe wie „Systemversagen“, „geopolitische Zersetzung“ oder „Sichtbarkeitssteuerung“ werden semantisch markiert und in der Reichweite reduziert – ohne dass dies für Nutzer sichtbar oder anfechtbar wäre.
B. Der regulatorische Zugriff – juristisch gedeckt, demokratisch entkoppelt
- Auf EU-Ebene greifen Maßnahmen wie der Digital Services Act (DSA) – offiziell zur Bekämpfung illegaler Inhalte und Desinformation.
- In der Praxis erlaubt der DSA eine inhaltliche Vorstrukturierung durch Plattformaufsicht, regulatorische Flagging-Systeme und nationale Durchsetzungsbehörden.
- Inhalte mit hoher Reichweite oder „gesellschaftlicher Relevanz“ können informell unter Beobachtungspflicht gestellt werden – ohne Transparenzpflicht gegenüber dem Autor.
Beispiel: Kritische Analysen geopolitischer Machtverschiebungen, insbesondere bei Themen wie EU-Politik, Sicherheit, Migration oder Medienlogik, werden algorithmisch geprüft – und gegebenenfalls in der Sichtbarkeit gedimmt, ohne Löschung oder Kennzeichnung.
C. Die narrative Instanz – legitimiert durch öffentlich geförderte Partnerstrukturen und flankiert durch politische Weisungsketten
- Medienkooperationen, „Faktencheck“-Bündnisse und staatsnahe Disinformationsinitiativen (u. a. EDMO, GADMO, Correctiv) definieren, welche Inhalte als „problematisch“, „verzerrend“ oder „radikalisierend“ gelten.
- Regierungsseitige Stellen in Berlin und Brüssel (Bundesnetzagentur / BMJ / DG CONNECT u. a.) können über formelle Meldeschnittstellen oder informelle Weisungen Einfluss darauf nehmen, welche Inhalte an diese Partnerstrukturen weitergeleitet oder priorisiert werden.
- Diese Einordnungen fließen anschließend per API- oder Dashboard-Schnittstellen direkt in die Filterlogik der Plattformen ein – nicht als offene Zensur, sondern als gewichtende Relevanzparameter.
- Inhalte außerhalb des akzeptierten Deutungsrahmens (etwa systemkritische Analysen, geopolitische Langzeitdiagnosen) werden dadurch algorithmisch abgewertet – nicht wegen faktischer Unrichtigkeit, sondern aufgrund ihrer Positionierung.
- Prüffrage (Audit-Ebene): Inwieweit erteilen regierungsseitige Institutionen konkrete Anweisungen oder legen verbindliche Prioritätslisten vor, nach denen Plattformen und Faktencheck-Bündnisse Inhalte flaggen und Reichweiten „justieren“?
Empfehlung: Einrichtung eines unabhängigen Transparenzaudits mit Einsichtsrecht in die Kommunikations- und Weisungsketten zwischen Bundesbehörden, EU-Dienststellen, Faktencheck-Netzwerken und Plattform-Trust-&-Safety-Teams.
3. Rechtlich-politische Einordnung:
Der Digital Services Act, nationale Durchgriffsarchitekturen und semantische Vorfilterung
Die zunehmende Steuerung digitaler Sichtbarkeit erfolgt nicht willkürlich, sondern beruft sich auf ein unüberschaubares, wachsendes Geflecht regulatorischer Grundlagen, die in der Summe eine semantisch aufgeladene Inhaltskontrolle unter dem kruden Deckmantel der Sicherheit und Ordnung ermöglichen.
Im Mittelpunkt steht der Digital Services Act (DSA) der Europäischen Union – ein Instrument, das ursprünglich dazu dienen sollte, illegale Inhalte effizienter zu bekämpfen und Plattformverantwortung transparenter zu gestalten.
Doch in der praktischen Anwendung, der Realität, entwickelt sich der DSA immer mehr zum Einfallstor für eine neue Form von Regel-Zensur, die nicht verbietet, sondern sukzessive verschiebt, abwertet oder ausblendet.
A. Die Aushöhlung von Artikel 5 GG durch algorithmische Abwertung
In der deutschen Verfassung ist die Meinungsfreiheit klar geschützt. Artikel 5 GG (Grundgesetz) garantiert:
„Jeder hat das Recht, seine Meinung in Wort, Schrift und Bild frei zu äußern und zu verbreiten (…) Eine Zensur findet nicht statt.“
Doch genau hier liegt das Problem: Der DSA umgeht diesen Schutz nicht direkt, sondern wirkt über digitale Realitäten, in denen Sichtbarkeit selbst zur Voraussetzung der Meinungsfreiheit wird.
Wer nicht mehr gesehen wird, kann auch keine Wirkung entfalten.
Und wer keine Wirkung entfaltet, ist faktisch vom öffentlichen Diskurs ausgeschlossen.
Diese indirekte Form der Einschränkung ist juristisch schwer fassbar, aber demokratisch umso brisanter. Denn der Raum, in dem Meinungen geäußert werden können, wird nicht verboten – sondern algorithmisch entwertet.
B. Nationale Durchgriffsstellen – ein fragwürdiges Exekutivmodell
Gemäß DSA dürfen nationale Behörden als sogenannte „Koordinatoren für digitale Dienste“ fungieren – mit dem Recht, Inhalte zu melden, Accounts zu beobachten und „systemische Risiken“ zu identifizieren.
Diese Rolle übernimmt in Deutschland die Bundesnetzagentur, in Zusammenarbeit mit dem BMJ (Bundesministerium der Justiz) sowie mit öffentlich-rechtlich finanzierten Partnern wie dem EDMO-Knotenpunkt (GADMO) und externen Faktencheck-Konsortien.
Konsequenz:
Eine demokratisch nicht legitimierte Parallelstruktur entscheidet über Sichtbarkeit, ohne rechtliche Kontrolle, transparente Protokollierung oder Beschwerdemechanismus für betroffene Autoren – insbesondere im Grenzbereich strategischer, geopolitischer oder systemkritischer Inhalte.
C. Semantische Vorfilterung als neue Zensurtechnik
Die moderne Form der Inhaltskontrolle besteht nicht mehr im „Löschen“, sondern im semantischen Klassifizieren – durch algorithmische Marker, die einem Beitrag Relevanz oder Vertrauenswürdigkeit zu- oder aberkennen.
Diese Marker basieren auf:
- Wortwahl und Themenfeld
- Quellenstruktur und Linkziel
- Positionierung innerhalb aktueller Diskurslinien
- Rückkopplung mit externen Klassifizierungsdiensten (z. B. Desinformation Score, Trust Tools, Risikomuster)
Wer insbesondere Begriffe wie „Narrativsteuerung“, „Systemversagen“, „mediale Entkopplung“ oder „geopolitische Lenkung“ verwendet, gerät automatisch in semantisch problematische Zonen – selbst bei vollständiger Faktentreue und analytischer Tiefe.
D. Die perfide Wirkung: Sichtbarkeit wird zur Lizenz
Wer heute gehört werden will, muss nicht mehr nur wahr sprechen – sondern sich der systemisch akzeptierten Sprache bedienen.
Die Folge ist ein Klima der:
- Selbstzensur
- strategischen Anpassung
- semantischen Konformität
Wer nicht mitspielt, bleibt sichtbar – aber ohne Wirkung.
Das Resultat: eine neue asymmetrische Öffentlichkeit, in der Debatte nur noch innerhalb genehmigter Korridore stattfindet.
4. Fazit & Strategische Ableitung:
Sichtbarkeit ist kein Privileg – sie ist demokratische Grundvoraussetzung
Die vorangegangene Analyse zeigt:
Was als technische Plattformsteuerung beginnt, endet als struktureller Eingriff in demokratische Grundrechte – ohne offenen Diskurs, ohne transparente Kriterien, ohne rechtsstaatliche Kontrolle.
Dabei geht es nicht nur um Einzelpersonen oder Organisationen, sondern um die Zukunft freier Öffentlichkeiten in einer digital vernetzten Welt.
Denn wenn Sichtbarkeit zur verdeckten Lizenz wird – vergeben auf Basis politischer Konformität, strategischer Nützlichkeit oder semantischer Gefälligkeit –, dann gerät das demokratische Fundament ins Wanken.
Unsere strategischen Schlussfolgerungen lauten:
- Rechtliche Klarheit schaffen
Die aktuelle Unsichtbarmachung durch Algorithmen muss rechtlich neu bewertet werden – nicht nur als technische Maßnahme, sondern als faktischer Eingriff in die Meinungsfreiheit (Art. 5 GG), die Berufsfreiheit (Art. 12 GG) sowie unternehmerische Sichtbarkeit.
Vorschlag: Aufbau eines juristischen Prüfrahmens durch unabhängige Experten aus Medien-, Verfassungs- und IT-Recht. Ziel: Definition algorithmischer Drosselung als Grundrechtseingriff.
- Politische Verantwortlichkeit benennen
Die strukturelle Wirkung des DSA und verwandter Durchgriffsinstrumente darf nicht auf Plattformen abgewälzt werden. Es sind demokratisch legitimierte Organe, die diesen Rahmen geschaffen, delegiert oder hingenommen haben.
Vorschlag: Benennung konkreter politischer Mitverantwortlicher (Ministerien, Behörden, Ausschüsse), Offenlegung der Vernetzung mit Faktencheck-Netzwerken und gezielte Öffentlichmachung dieser Strukturen.
- Neue Sichtbarkeitsräume aufbauen
Wenn bestehende Plattformen sich zunehmend zu geschlossenen Ökosystemen wandeln, braucht es alternative Räume – mit hoher technischer Reichweite, aber ohne unsichtbare Drosselmechanismen.
Vorschlag: Aufbau strategischer Sichtbarkeitsarchitektur mit eigener Plattformlogik (Think-Tanks, Publisher, Universitätsnetzwerke, multilaterale Zugänge) – ergänzt durch internationale Verlinkungssysteme.
- Digitale Resilienz ist strategische Pflicht
Institutionen, Medienhäuser und zukunftsorientierte Unternehmen müssen erkennen: Digitale Sichtbarkeit ist keine Nebensache.
Sie ist der Träger öffentlicher Wirkung, wirtschaftlicher Relevanz und demokratischer Teilhabe.
Empfehlung:
Aufbau interner Frühwarnsysteme zur Reichweitenanalyse, gezielte Schulung von Kommunikationsverantwortlichen und technische Begleitung durch KI-gestützte Monitoring Tools.
Fazit:
Was wir derzeit in Deutschland erleben, ist sehr wohl eine gefährlich stille Renaissance struktureller Informationskontrolle, wie wir sie aus autoritären Systemen kennen.
Nicht durch offene Verbote, sondern durch algorithmische Unsichtbarkeit, veranlasst oder begünstigt durch staatlich legitimierte Partner. Das ist demokratisch hochproblematisch – und juristisch angreifbar.
Wer die Sichtbarkeit freier Stimmen kontrolliert, kontrolliert den Horizont des Sagbaren – und damit die Grenzen des politisch Möglichen.
Sichtbarkeit ist keine Gnade. Sie ist eine strategische Grundbedingung freier Gesellschaften.
Thomas H. Stütz
Chief Global Strategist – MOC Strategic Institute