Das Netz ist politisch https://dnip.ch Demokratie-relevanter Tech-Journalismus Fri, 20 Mar 2026 12:19:57 +0000 de hourly 1 https://dnip.ch/wp-content/uploads/2020/12/Favicon_dnip_V4-1-100x100.png Das Netz ist politisch https://dnip.ch 32 32 Vogt am Freitag: Glashaus https://dnip.ch/2026/03/20/vogt-am-freitag-glashaus/ https://dnip.ch/2026/03/20/vogt-am-freitag-glashaus/#respond Fri, 20 Mar 2026 05:00:00 +0000 https://dnip.ch/?p=15674 80 Milliarden Dollar Verlust und kein Rücktritt: Mark Zuckerberg beerdigt das Metaverse, um die nächste Ära einzuläuten. Kolumnist Reto Vogt will nicht in das nun drohende Glashaus einziehen.

Es ist so weit: Mark Zuckerberg hat den Stecker gezogen. Horizon Worlds, die VR-Plattform, die das Metaverse für alle erlebbar machen sollte, wird am 15. Juni vom Netz genommen. Zumindest die Version für VR-Brillen. Eine abgespeckte Mobile-App bleibt (noch), mehr als ein Grabstein für das Metaverse ist sie aber kaum.

Das 80-Milliarden-Dollar-Loch

Die Zahlen bei Meta sind atemberaubend schlecht: Seit 2020 habe Metas Reality Labs – die Abteilung, die das Metaverse bauen sollte – über 80 Milliarden Dollar Verlust eingefahren, heisst es bei Watson. Allein im vierten Quartal 2025 betrug der Verlust 6 Milliarden Dollar.

Zuckerberg hatte alles auf diese Karte gesetzt. Er benannte nicht nur seinen Konzern von Facebook zu Meta um, sondern versprach, das Metaverse werde «eine Milliarde Menschen erreichen» und «Hunderte von Milliarden Dollar an digitalem Handel» ermöglichen. «Wir sind überzeugt, dass das Metaverse der Nachfolger des mobilen Internets sein wird», träumte Zuck. Plopp, der Traum ist geplatzt. Das Metaverse kam nie über den Status einer Geisterwelt hinaus, in der sich ein paar IT-Journalisten (Gendern nicht nötig) und bezahlte Influencer:innen aufgehalten haben.

Unkündbar im Silicon Valley

Nicht nur mich erinnerte das Metaverse an Second Life aus dem Jahr 2003. Auch damals eine virtuelle Welt, auch damals grosse Versprechen, auch damals eine kurze Hype-Phase. Auch damals ein Ende mit Schrecken. Für mich waren die Parallelen unübersehbar, weshalb ich an dieser Stelle auf eine Kolumne verweise, die ich im März 2023 auf inside-it.ch veröffentlicht habe. Titel: «Die KI hat das Metaverse gekillt.» Das Metaverse liege «palliativ», schrieb ich vor drei Jahren. Nun, es hat sich seither nie mehr erholt. Auch von der praktisch gleichzeitig mit meinem damaligen Text gegründeten Swiss Metaverse Association habe ich nie mehr etwas gehört. Immerhin: Deren Website gibt es noch!

Womit wir beim eigentlich interessanten Teil dieser Geschichte sind:

80 Milliarden Dollar Verlust. In einem normalen Unternehmen wäre ein CEO, der eine solche Summe vernichtet, nicht mehr CEO. Er würde auch nicht mehr in der gleichen Branche arbeiten. Er würde vielleicht nicht mal mehr in der Öffentlichkeit auftreten. Kein Verwaltungsrat der Welt hätte das toleriert, ausser eben jenem von Meta und wohl auch anderen Unternehmen aus dem Silicon Valley. In den meisten Big-Tech-Konzernen sind die Gründer praktisch unkündigbar. Das Silicon Valley hat sich eine Governance-Struktur gebastelt, in der Verluste als «Investitionen in die Zukunft» gelten, solange der Aktienkurs stimmt. Und bei Meta ist das der Fall, weil die Gewinne aus dem Werbegeschäft jede Fehlinvestition absorbieren und der Konzern es sich dadurch leisten kann, nebenbei 80 Milliarden zu verbrennen.

Was kommt jetzt? KI natürlich. Zuckerberg sagt, er könne sich kaum eine Welt vorstellen, in der die meisten Brillen nicht KI-Brillen seien. Wir haben diesen Satz schon gehört. Nur hiess das Produkt damals anders. Ich tippe bei den Brillen auf eine ähnliche Entwicklung wie beim Metaverse.

Vom Geisterhaus zum Glashaus

Und falls nicht – falls die KI-Brille tatsächlich die Zukunft sein sollte – dann sollte man wissen, was diese Zukunft bedeutet. Das Svenska Dagbladet veröffentlichte im Februar 2026 eine Recherche, für die die Journalist:innen mit Mitarbeitenden von Sama sprachen, einem Subunternehmer von Meta in Nairobi. Diese Mitarbeitenden sichten Videoaufnahmen aus den KI-Brillen für Trainingszwecke. Ihr Fazit: «We see everything – from living rooms to naked bodies.»

Das Metaverse ist gescheitert, weil niemand hineinwollte. Die KI-Brille muss scheitern, weil alle wie in einem Glashaus hineinschauen – nur von der falschen Seite.

]]>
https://dnip.ch/2026/03/20/vogt-am-freitag-glashaus/feed/ 0
Wie gross ist mein Digitaler Fussabdruck? Und was kann ich tun? https://dnip.ch/2026/03/18/wie-gross-ist-mein-digitaler-fussabdruck-und-was-kann-ich-tun/ https://dnip.ch/2026/03/18/wie-gross-ist-mein-digitaler-fussabdruck-und-was-kann-ich-tun/#comments Wed, 18 Mar 2026 17:10:00 +0000 https://dnip.ch/?p=15600 Wir trennen Abfall, recyclen; wir fahren Velo oder Zug statt Auto. Oder nehmen es uns mal wieder vor. Einige essen weniger Fleisch, auch aus Rücksicht auf die Umwelt. Gleichzeitig konsumieren wir Digitales wie Cloud, Streaming, KI etc. mehr ohne Überlegungen, was das für unsere Umwelt bedeutet. Dieser Artikel soll das Bewusstsein für unseren Digitalen Fussabdruck schärfen. Und auch aufzeigen, was wir als Individuum tun können. Und wo wir als Einzelne keinen Einfluss haben und damit Gesellschaft, Wirtschaft und Politik gefragt sind.

Dazu stellen wir uns insbesondere folgende drei Fragen:

  1. Wieso interessiert uns der Digitale Fussabdruck?
  2. Woher stammt der Ressourcenbedarf der „grossindustriellen“ Komponenten der Digitalisierung – Cloud, RZ und KI – und wie entwickelt er sich?
  3. Was können wir tun? Was müssen andere tun?

Digitaler Fussabdruck: Wieso interessiert er uns?

Wer in den letzten Monaten die Nachrichten verfolgt hat, ist auf Schlagzeilen wie diese gestossen. Die Nachricht: Der Energieverbrauch von Rechenzentren, insbesondere für KI, steigt und wird unsere Netze aus- oder überlasten und die Stromversorgung für Bestandskunden gefährden. Gleichzeitig sollen alte Kohlekraftwerke reaktiviert werden und neue Gaskraftwerk spriessen wie Pilze aus dem Boden.

Allenorts werden damit die Sorgenfalten noch bedenklicher:

  • Für diejenigen, die auf Umweltschutz bedacht sind und denen die Folgen der menschgemachte Klimaerwärmung nicht egal sind, denen sind fossil betriebene Kraftwerktypen ein Dorn im Auge. Denn diese sind für ihren hohen CO2-Austoss bekannt.
  • Wer hingegen noch fossil heizt oder ein Fahrzeug mit Auspuff fährt, dessen Bedenken sind eher finanzieller Natur: Werde ich mir angesichts der steigenden Erdöl- und Erdgaspreise noch eine warme Wohnung und Fortbewegung leisten können? Wie stark wird die höhere Nachfrage den Preis noch weiter in die Höhe treiben?
  • Ähnliche Überlegungen stellen auch Industriebetriebe an, welche für die Herstellung ihrer Produkte Erdöl bzw. Kohlenwasserstoffe benötigen. Firmen für Düngemittel, Farben, Kosmetika und Kunststoffe fallen da gleich mal ein. Und ihre Kundinnen und Kunden.
Online-Zeitungscollage aus den Titelbereichen folgender Artikel: Stefan Krempl: „Das KI-Energie-Dilemma: Wenn der digitale Boom die Netze überlastet„, Heise, 2025-12-01 (plus Zwischentitel „Auf Erdgas angewiesen“ aus demselben Artikel); Sarah-Indra Jungblut: „Rechenzentrumsausbau auf Kosten der Stromkunden? Das Energieproblem hinter dem KI-Hype„, Algorithmwatch, 2025-11-25 und Jennifer Elias: „Google must double AI serving capacity every 6 months to meet demand, AI infrastructure boss tells employees„, CNBC, 2025-11-21.

Gleichzeitig gibt es Prognosen der Internationalen Energieagentur (IEA), nach denen der Stromverbrauch von Rechenzentren sich zwischen 2024 und 2030 rund verdoppeln soll. Und wenn KI wirklich der grosse Renner wird und nicht als platzende Blase endet, ist laut IEA noch mit einem weiteren Wachstum zu rechnen.

Stromverbrauch von Rechenzentren 2020–2030, nach IEA. Für 2025 waren rund 500 TWh vorausgesagt, davon ca. 100 TWh für sog. „accelerated servers“, also Server mit Spezialbeschleuniger-Hardware, auch bekannt als „KI-Grafikkarten“. „Übrige IT-Hardware“ dürften insbesondere die in den Rechenzentren installierten Switches und Router für die Anbindung an das Internet und die interne Verteilung des Netzwerkverkehrs sein.

Kurz vor Jahresende 2025 hat Googles KI-Infrastruktur-Chef seine Mitarbeiter aufgefordert, dass sie die verfügbare Kapazität alle 6 Monate zu verdoppeln hätten.

Monate6121824303642485460
Faktor2481632641282565121024
Jahr20262027202820292030
Wenn Google sich bei der Entwicklung an die Vorgabe des KI-Chefs hält, nimmt der Energiebedarf bei ihren KI-Rechenzentren bis 2030 um mehr als einen Faktor 1000 zu.

Wenn Google dieses Tempo wirklich vorlegen kann, dann wird der Energiebedarf durch die Decke gehen. Ganz besonders, wenn man annimmt, dass die Konkurrenz nicht schläft, wie im folgenden Bild. Und selbst wenn sie schläft: Dann geht es 1–1½ Jahre später durch die Decke (Annahme: Google hat ⅛ bis ¼ der gesamten KI-Kapazität).

Globaler Elektrizitätskonsum von Rechenzentren. Zusätzlich Google-Extrapolation und Schweiz-Vergleich, siehe Text
Unter der Annahme, dass die KI-Kapazitäten alle 6 Monate verdoppelt werden, geht, verhundertfacht(!) sich der Gesamtenergiebedarf von Rechenzentren bis 2030. Selbst wenn Google die einzigen sind, die das durchziehen, ergibt das mindestens eine Verzehnfachung und nicht die Verdoppelung wie von der IEA prognostiziert. Die rot schraffierte Fläche zeigt die Verdoppelung alle 6 Monate ab 2025; der dunkle rote Balken unten den Stromverbrauch der Schweiz im vergangenen Jahr zum Vergleich. Datenquellen: IEA, CNBC, DNIP, BFE.

Eigentlich sollte schon eine Verdoppelung des Energieverbrauchs in den nächsten 5 Jahren ein Alarmsignal sein. The Atlantic berichtet in seiner kommenden April-Ausgabe ausführlich über die Entwicklungen im US-amerikanischen Data Center Valley bei Washington. Dort spriessen Rechenzentren gerade wie Pilze aus dem Boden, der Stromverbrauch soll in den nächsten Jahren um 20 GW steigen. Dazu werden unzählige Gaskraftwerke in Betrieb genommen, z.T. ohne die notwendigen Genehmigungen, was die Luftqualität in der Gegend weiter verschlechtert. Daneben werden auch alte Kohle- und Kernkraftwerke wieder in Betrieb genommen, beispielsweise der 2019 abgeschaltete Schwesterreaktor des 1979 teilweise geschmolzenen Reaktors in Three Mile Island bei Harrisburg, der jetzt als „Crane Clean Energy Center“ umgelabelt wird.

Laut desselben Atlantic-Artikels wurden in den USA in der KI-Boom-Phase seit 2022 Rechenzentren für 600 Milliarden USD gebaut. Und schon ein einzelnes dieser frisch geschlüpften Rechenzentren brauchte 50 Millionen Liter Kühlwasser, Alleine im September.

Energiebedarf und Funktion von Cloud, Rechenzentren und KI

Cloud

In den 1970er-Jahren hatten die Computernutzer eigentlich alles: In dedizierten, lauten Rechnerräumen standen die grossen, schweren Computer, die man mit Daten ab grossen Bändern oder Loch­karten­stapeln füttern konnte. Und Software hatte man selbst geschrieben oder ebenfalls auf Bändern per Post mit Kollegen geteilt.

Dummerweise musste man immer zu den Rechnern hingehen. Und es gab sie nur an einigen Unis und Grossfirmen. Wie schön wäre es doch, dachte man sich damals, wenn nicht nur der Strom für die Rechner, sondern auch die Daten, die Rechenleistung und auch die Software aus der Steckdose käme! Und so entstanden über mehrere Schritte u.a. das Internet, das Web, Appstores und «die Cloud».

Eine Grafik mit 3 sich gegenseitig überlappenden Kreisen. Einer ist bezeichnet mit "Daten kommen aus der Steckdose", einer mit "Rechenleistung kommt aus der Steckdose" und der dritte "Software kommt aus der Steckdose". Dann gibt es verschiedene Kombinationen der drei. In der Mitte, bei der alles aus der Steckdose kommt, steht "Cloud"
In jedem der drei farbigen Kreise kommt ein im IT-Umfeld wichtiger Bereich aus der Steckdose: Die Daten, die Rechenleistung bzw. die Software. Diese wurden für sich oder in Kombination schon länger verwendet. Die Kombination aller drei ist das, was die Cloud-Anbieter uns weis machen wollen: Dass alles automatisch und ohne weitere Arbeit oder Kompetenz einfach — wie wir das vom Strom gewohnt sind — aus der Steckdose kommt.
Grafik aus Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24).

Doch auch diese «Cloud» ist kein einheitliches Konstrukt. Darin laufen viele Anwendungen mit unterschiedlichen Eigenschaften und Bedürfnissen:

Der Cloud-Kreis: Aussen die drei Dimensionen Storage, Compute und Communication. Innen Applikationen, welche so platziert sind, dass sie bei den entsprechenden Ausprägungen stehen
Cloud-Dienste bestehen aus drei technischen Komponenten (Netzwerkverkehr, Rechenleistung und Speicherkapazität), welche in unterschiedlicher Kombination und unterschiedlichem Integrations-/Abstraktionsniveau angeboten werden. Grafik aus Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24).

Aber es gibt nicht nur verschiedene Anwendungen in der Cloud, «die Cloud» wird auch als Begriff für modulares IT-Outsourcing genutzt. Am Vergleich mit einem Schrebergarten kann man die verschiedenen Stufen von Outsourcing gut erkennen: Auf der einen Seite haben wir eigene Beete auf eigenem Land, auf welchem wir selbst die Tomaten säen, pflegen und ernten. In verschiedenen Schritten beginnen wir das Land zu mieten und Services vom Hauswart oder Gärtner dazuzubuchen. Am anderen Extrem kaufen wir das Tomatensugo im Supermarkt. Also eigentlich ist «Cloud» gar kein Hexenwerk.

Verschiedene Gärten mit Beeten in unterschiedlichem Outsourcinglevel und Granularität. Erklärung im Text.
Grafik aus Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24), gemeinsam mit mehr Erläuterungen

Also: Wenn jemand «Cloud!» sagt, kann er ganz unterschiedliche Dinge meinen, mit verschiedenen technischen Eigenschaften, verteilt über das ganze Spektrum von Outsourcing-Levels und unzähligen Varianten an Einflussmöglichkeiten durch die Kund:innen (oder auch dem vollständigen Mangel an Einfluss).

Mehr dazu in meinem früheren Artikel Wo genau geht es in die Cloud? Ein Wegweiser durch den Dschungel (2024-10-24).

Rechenzentrum

Also, hinter «der Cloud» (und auch jeder Webseite oder App) stehen Rechner, die einfach jemand anderem gehören. Und die mit einem Satz an Dienstleistungen gebündelt werden. Doch irgendwo müssen diese Computer stehen. Und diese Computer stehen in klimatisierten Gebäuden, sogenannten Rechenzentren.

Wie sieht denn so ein Rechenzentrum aus? Das erzählen die folgenden vier Bilder.

Wichtig zu wissen: Der gesamte Strom, der als Energie in einen Server hineingesteckt wird, wird als Wärme abgegeben (bis auf kleine Ausnahmen wie die blinkenden Lichter und das Geräusch der Luftströmung). Aus energetischer Sicht ist ein Server daher eigentlich ein teurer Heizlüfter, bei dem zufälligerweise noch Daten oder Rechenergebnisse rausplumpsen.

Bei Geräten mit Bildschirm (Fernseher, Tablet, Smartphone) ist das Licht des Bildschirms ein wichtiger Faktor für den Energieverbrauch, zumindest, solange dieser an ist. Bei Mobilgeräten (Tablet, Smartphone) hat auch das WLAN- oder Mobilfunkmodul einen Anteil am Energieverbrauch. Beides fällt aber bei Servern weg.

Klassische Künstliche Intelligenz und Maschinelles Lernen

Der Name «Artificial Intelligence» wurde in den 1960er-Jahren geprägt. Eine erste Ausprägung war das Computerprogramm ELIZA von Joseph Weizenbaum, das eine Psychotherapeutin nachzuahmen versuchte. Durch die Wahl der klientenzentrierten Psychotherapie, die sich vor allem durch Rückfragen auszeichnet, war es einfach, einen Gesprächsverlauf zu simulieren. Das ELIZA-Programm suchte in den Eingaben der Nutzer:innen nach einzelnen Stichwörtern und stellte dann dazu eine Rückfrage. Als Computerantwort auf die Erwähnung von Familienmitgliedern wie Vater, Mutter, Bruder, Schwester kam dann ein Satz wie «Erzähl mir mehr über deine Familie.», den es in verschiedenen Formulierungen gab, damit die Automatismen nicht so auffielen. Doch obwohl es nur etwa 600 verschiedene Antwortmuster gab, fühlten sich einzelne Personen von dieser vorgeblichen Psychotherapeuting „verstanden“. Wer will, kann hier mal mit ELIZA chatten, in einer modernen Version der Hardware von damals.

Ein Beispieldialog mit ELIZA.

Später versuchte man, solche Frage-Antwortmuster gezielter zu bauen. Das Ziel war, mit sogenannten Expertensysteme Menschen in komplexen Themengebieten wie Reparatur von Industrieanlagen oder Krankheitsdiagnose zu unterstützen. Doch die grossen Erfolge blieben aus. Zum einen war es schwierig, Satzverständnis (Verb/Subjekt/Objekt, Hauptsatz/Nebensatz etc.) zu programmieren, andererseits erwiesen sich diese Themengebiete als sehr schwierig abzubilden. Auch war die Erfassung der Zusammenhänge sehr komplex, zeitaufwändig und fehleranfällig.

Parallel entstand deshalb ein weiterer Zweig der KI: Die Maschine sollte selbst die Zusammenhänge erkennen können, selbst lernen. Der dazu verwendete Mechanismus, sogenannte neuronalen Netze, sollte das menschliche Gehirn mit seinen Neuronen nachbilden.

Links drei Verkehrsschilder, die von einer 3x3-Kamera aufgenommen werden. Jedes dieser 3x3 Pixel "sieht" den Durchschnittswert (Farbe, Helligkeit) des entsprechenden Schilderbereichs. Diese 9 Inputs werden in das neuronale Netz gefüttert, das ähnlich wie ein mehrstufiges Mischpult aufgebaut ist. Am Schluss gibt es dann für jedes zu erkennende Schild eine Lampe, die heller oder dunkler leuchtet, je ähnlicher das Eingangsschild dem Label am Ausgang ist.

Ein neuronales Netz zur Verkehrszeichenerkennung könnte wie folgt aufgebaut sein: Links nimmt eine (für dieses Gedankenexperiment sehr einfache) Kamera ein 3×3 Pixel grosses Bild auf. Wenn man drei Verkehrsschilder nacheinander vor diese 3×3-Kamera hält, nimmt die Kamera ein 3×3 Pixel grosses Bild auf Jedes dieser 3×3 Pixel „sieht“ den Durchschnittswert (Farbe, Helligkeit) des entsprechenden Schilderbereichs. Diese 9 Inputs werden in den Input Layer des neuronalen Netzes gefüttert, das ähnlich wie ein mehrstufiges Mischpult aufgebaut ist, wobei die Mischstufen die sogenannten „Hidden Layers“ darstellen. Am Schluss gibt es dann für jedes zu erkennende Schild eine Lampe, die mit dem Namen eines Schildes angeschrieben ist. Das Ziel ist es, dass die Ausgangslampe heller oder dunkler leuchtet, je ähnlicher das Eingangsschild dem Namen am Ausgang ist.

Um das neuronale Netz zu trainieren, werden die Schalter am Mischpult anfänglich auf zufällige Positionen eingestellt. Welche Lampe bei welchem Schild wie hell aufleuchtet, ist damit auch völlig zufällig und in den allermeisten Fällen völlig falsch. Um das zu korrigieren, werden jetzt – sehr vereinfacht – der Reihe nach folgende Schritte ausgeführt:

  1. Eine der Tafeln wird vor die Kamera gehalten.
  2. Ein zufälliger Drehregler am Mischpult wird ausgewählt.
  3. Dieser wird leicht nach links oder nach rechts gedreht.
  4. Wenn danach die zur Tafel passende Lampe heller leuchtet (bzw. die anderen Lampen weniger hell) wird diese Position beibehalten, ansonsten wird der Regler wieder in seine Ursprungsposition zurückbewegt.

Dieser Prozess wird so lange wiederholt, bis die richtige Lampe sich bei jedem Schild deutlich von den falschen Lampen abhebt. Das sind schon bei sehr einfachen Aufgaben Abertausende von Wiederholungen.

Damit kann unser neuronales Netz nun die drei Schilder erkennen. Wenn aber ein unbekanntes Schild vor die Kamera kommt oder das Schild verschmutzt oder beklebt ist, kann das Resultat völlig falsch sein. Für viele Fälle ist das aber trotzdem gut genug.

Mehr zu neuronalen Netzen, Bildererkennung und den Fehlermöglichkeiten in meinem Artikel Machine Learning: Künstliche Faultier-Intelligenz (2022-08-16).

Moderne Künstliche Intelligenz: Grosse Sprachmodelle und Chatbots

Seit der Verfügbarkeit von ChatGPT Ende 2022 werden vor allem die Chatbots als „KI“ bezeichnet. Hinter diesen Chatbots stecken sogenannte Grosse Sprachmodelle, im Englischen als „Large Language Model“ (LLM) bekannt. Drei wichtige Schritte auf dem Weg von den oben beschriebenen KI-Systemen zu ChatGPT möchte ich hier nennen:

  1. Die Abkehr vom Versuch des strukturierten Satzverständnisses (also der Erkennung von Verb, Subjekt oder Objekt bzw. der Erkennung von anderen Satzmerkmalen wie Haupt- oder Nebensatz). Stattdessen werden einfach automatisiert unzählige statistische Zusammenhänge zwischen Zeichen und Zeichenketten erfasst. Diese Zusammenhänge haben keine für uns Menschen verständliche Struktur. Dazu werden riesige Mengen an Texten gebraucht. Moderne Sprachmodelle benötigen dazu riesige Datenmengen, mehr, als das gesamte Internet freiwillig hergibt.
  2. Die (relativ) kompakte Codierung dieser Zusammenhänge. Dies ist etwa vergleichbar mit der Bildkompression: Wenn man das Bild stärker komprimiert, wird die Datei viel kleiner. Trotzdem sind die wichtigsten Teile des Bildes weiterhin zu erkennen. Sehr vereinfacht gesagt ähnelt das auch der Kompression dieser riesigen Statistiken mit Zeichenabhängigkeiten, bei Sprachmodellen Transformer genannt.
  3. Neben den Texten aus dem Internet wurde ChatGPT und seine Kollegen (Gemini, Claude, Mistral, DeepSeek, Apertus, …) auch mit Frage-Antwort-Paaren trainiert. Dadurch verhalten sie sich interaktiv.

Mehr dazu in meinen früheren Artikeln Wie funktioniert eigentlich ChatGPT? (2023-01-30: Technik), Die KI ChatGPT und die Herausforderungen für die Gesellschaft (2023-01-28: Funktionsweise und Fehler), Die dunklen Daten-Geheimnisse der KI (2024-01-12: Datenquellen) und Petzt die KI? Schlimm? (2024-09-26: Interaktion und Korrektur-/Trainingsvorgänge).

Der Zuwachs

Bis in 5 Jahren ist laut der Hauptprognose der IEA mit einem Zuwachs des Strombedarfs von Rechenzentren um insgesamt rund 500 TWh pro Jahr zu rechnen. Das entspricht in etwa einer Verdoppelung. In der gleichen Zeit wachsen aber andere Industriebereiche noch stärker (in absoluten Zahlen).

Wachstumsprognose des Strombedarfs der IEA. Rechenzentren sollen zwischen 2024 und 2030 um über 500 TWh/Jahr wachsen, sich also rund verdoppeln.

Insgesamt ist mit einem Zuwachs bis 2030 von rund 6500 TWh zu rechnen, oder über 700 GW Dauerlast.

Der Energiemix für Rechenzentren 2020-2030. Basisgrafik („Rechenzentren Welt“): IEA; Aufteilung Energiemix CH: Eigene Darstellung auf Basis Energiedashboard (BFE) für 2025.

Zum Vergleich: Der Strombedarf bis 2030 steigt laut IEA um rund 6500 TWh, d.h. im Jahr 2030 werden 6500 TWh mehr verbraucht als 2024. Das entspricht rund 700 GW Dauerlast oder 700 Kraftwerken der Gösgen-Klasse (Gösgen liefert ziemlich genau 1 GW, wenn es in Betrieb ist; neuere Kernkraftwerke wie z.B. Flamanville liegen bei rund 1½ GW). Davon stammen rund 500 TWh (oder rund 60 Gösgen) für Rechenzentren, also eine Verdoppelung laut der Basis-IEA-Prognose. Wenn wir die angekündigte Google-Verdoppelungsrate als Massstab nehmen, wächst der Rechenzentrumsbedarf aber nicht auf das Doppelte, sondern um das 100- bis 1000-Fache, also um 50’000 oder 500’000 TWh, entsprechend 6’000 bis 60’000 Gösgen.

Zum Vergleich: Der weltweite Gesamtstromverbrauch 2024 lag bei rund 30’000 TWh, würde also – je nach Prognosemodell – um 6 % bis Faktor 15(!) zunehmen.

Der Gesamtenergieverbrauch 2024 (inklusive Brenn- und Treibstoffe) lag bei rund 180’000 TWh, also 6x höher als der Stromverbrauch.

Lösungsoption 1: Zusätzliche Kraftwerke

Die offensichtlichste Lösung ist natürlich der Neubau bzw. die Reaktivierung von Kraftwerken.

Angesichts des Klimawandels und der Abgase müssten fossile Kraftwerke (als Gas- und Kohlekraftwerke) die Ausnahme bleiben und können auf keinen Fall als Standardlösung in Betracht gezogen werden.

Erneuerbare Energiequellen haben ein sehr grosses Potenzial, sie haben aber keine garantierte Verfügbarkeit, sind abhängig vom Sonnenlicht oder Wind. Glücklicherweise sind Sonne und Wind relativ unabhängig bzw. ergänzen sich sogar: In 150-200 m über Boden ist der Wind grundsätzlich konstanter und in der Nacht sogar stärker als tagsüber.

Trotzdem sind Sonne und Wind (wie aber auch der Regen und damit der Füllstand von Speicherseen oder das Laufwasser im Fluss) nicht kontrollierbar. Eine sogenannte „Dunkelflaute“ (also ein Zeitpunkt, in dem weder Solar- noch Windkraftwerke Energie liefern) ist also durchaus möglich. Wie wir aber gerade an der Blockade der Strasse von Hormus und den steigenden Erdölpreisen sehen, gibt es Ähnliches wie Dunkelflauten auch bei Erdöl und Erdgas.

Solar- und Windkraftwerke benötigen also immer auch Speichermedien, um die Leistung mindestens ein paar Stunden zu verschieben. Für die eigenen Solarpanels auf dem Hausdach mag das ein Batteriespeicher sein, für grössere Zeiten eignen sich bei uns Pumpspeicherwerke.

Kernkraftwerke

In letzter Zeit geistert immer wieder die Idee von neuen Kernkraftwerken durch den Blätterwald. Insbesondere Politiker mit Beziehungen zu grossen Energiekonzernen denken zunehmend darüber nach. Neben den althergebrachten Kernkraftwerken wie Beznau, Gösgen oder Leibstadt kommen auch vermehrt sogenannte „Small Modular Reactors“ (SMR) ins Spiel, die angeblich in naher Zukunft unsere Energieprobleme lösen sollen. Doch davon gibt es bisher weder Prototypen noch ist es wahrscheinlich, dass die in der Nachbarschaft beliebter sein werden als die klassischen KKWs.

Bei Kernkraft wird argumentiert, dass sie die Lücke beim Ausbau von erneuerbaren Energien decken könnten. Doch die zwei letzten in Europa gebauten Kernkraftwerke, Flamanville und Olkiluoto, brauchten rund 18 Jahre Bauzeit, Planung und andere Vorbereitungen nicht eingerechnet. Und Flamanville muss nach knapp einem Jahr Betrieb schon in die erste grössere Revision, da der Reaktordeckel noch ausgetauscht werden muss. Bis zur stabilen Inbetriebnahme vergehen also mindestens 20 Jahre und es wird über 23 Milliarden € gekostet haben.

Kernkraftwerke liefern Bandenergie, sie können kaum geregelt werden und ihre Energieproduktion lässt sich nur in einem schmalen Band regeln. In einer Zeit, in der erneuerbare Energien Realität sind, kann solche Bandenergie aufgrund ihrer mangelnden Regelbarkeit nicht zur Ergänzung der Erneuerbaren herangezogen werden.

Und davon, dass die notwendigen Uranbrennstäbe alle aus geopolitisch kritischen Regionen stammen und das Entsorgungsproblem immer noch nicht gelöst ist, wollen wir gar nicht erst sprechen.

Mehr zur Illusion von baldigen magischen Kernkraftwerken bei Bert Hubert (Nuclear power: no, yes, maybe, but not like this; 2024-08-10) oder einem 6-Minuten-Interview von Prof. Dr. Volker Quaschning in der deutschen Tagesschau (Sehr teuer und riskant; 2026-03-11). Aus diesen beiden Beiträgen stammen auch viele der Informationen in diesem Abschnitt.

Lösungsoption 2: Rechenzentren im Weltraum

Eine weitere Idee, die im letzten Jahr von Big-Tech-Milliardären aufgebracht wurde: Hey, packen wir die Rechenzentren doch in den Weltraum!

Auf den ersten Blick erscheint das wie eine gute Idee: Auf der einen Seite strahlt die im erdnahen Weltraum rund doppelt so stark wie auf der Erde, da die Atmosphäre (und die Ozonschicht) mit ihrer Licht- und UV-Absorption wegfällt. Und auf der anderen Seite ist es im Weltraum sehr kalt, also müsste Kühlung doch kein Problem sein.

Doch genau diese Kühlung ist im Weltraum viel schwieriger als auf der Erde. Wann kühlen wir im Winter am stärksten aus? Wenn wir etwas Kaltes berühren, beispielsweise ein Metallgeländer. Oder wenn uns eine kalte, feuchte Bise um die Ohren zieht. Im Weltraum haben wir aber bekanntermassen weder kühle Geländer noch Wind. Anders gesagt: Es gibt weder (unbegrenzte) Wärmeleitung noch Wärmetransport. Es bleibt nur die Abstrahlung von Hitze in den Weltraum. Und ihre Effizienz ist abhängig von der Oberflächentemperatur des Strahlers. Aufgrund ihrer vielfach höheren Temperatur (ca. 6500 K) ist die Sonne aber viel effizienter, etwas aufzuheizen, als das fliegende Rechenzentrum (rund 30° C oder 300 K) in der Lage ist, sich abzukühlen.

Daher ist nicht nur eine riesige Solarfläche notwendig (ca. 1 Fussbalfeld für einen einzelnen KI-Rechenzentrums-Schrank), sondern nochmals eine mindestens so grosse abgeschattete Fläche zur Kühlung. Zumindest kann die Kühlfläche im Schatten der Solarpanels aufgebaut werden.

Weitere Probleme betreffen die Kommunikation (es sind wohl keine wirklich hohen Bandbreiten möglich). Ein beinahe unlösbares Problem dürfte auch die kosmische Strahlung und ihr schädlicher Einfluss auf die Chips sein. Die Chips, die bisher im Weltraum genutzt werden, haben „Leiterbahnen“ und Transistoren auf dem Chip, die Dutzende Male dicker sind, als was heutige KI-Chips und ihre RAM-Speicher einsetzen. Entsprechend ist die Chance, dass eines der tausende Kilometer pro Sekunde(!) schnellen geladenen Teilchen der kosmischen Strahlung dort irgendein durcheinander anrichtet, noch um ein mehrfaches höher (die Strukturen sind in alle drei Dimensionen dünner, was die Verwundbarkeit noch viel stärker steigen lässt).

Mit einem einzelnen Rack voller KI-Rechenleistung kommt man heute nicht weit. Die KI-Rechenzentren, die aktuell gebaut werden, haben hunderte bis tausend Racks. Ebenfalls sind KI-Rechenzentren sind bei der aktuellen Technologieentwicklung innert 2–3 Jahren veraltet. D.h. um auch nur ein modernes Rechenzentrum auf der Erde zu ersetzen, müssten 1000 solcher Racks in den Weltraum geschossen werden, jedes mit fussbaldfeldgrossen Solar- und Kühlanlagen. Und nach 2-3 Jahren würden sie „entsorgt“ werden, möglicherweise durch Eintritt in die Erdatmosphäre. Damit bei einer Lebensdauer von 3 Jahren immer 1000 Racks im Weltraum wären, müsste täglich ein neues in eine Erdumlaufbahn geschossen werden.

Das alles erscheint kaum realistisch. Ausser in den Träumen von Tech-Milliardären, die sich über Umweltschutzregeln auf der Erde ärgern und denen jedes Mittel recht ist, um ihren Willen zu bekommen.

Die Informationen im obigen Abschnitt stammen zu einem grossen Teil von Taranis: Datacenters in space are a terrible, horrible, no good idea, 2025-11-28. Dort finden sich weitere Informationen und Hintergründe.

Lösungsoption 3: Weniger Nutzung

Damit bleibt uns eigentlich nur weniger Nutzung von Elektrizität, also die Reduktion unseres «Digitalen Fussabdrucks». Hier einige Möglichkeiten dafür.

Weniger Streamen

Fraunhofer Fokus hat sich im Projekt «Green Streaming» den Energieverbrauch von Streaming angesehen. Erstaunlicherweise ist der gar nicht so hoch. Bei der Nutzung eines grossen Fernsehers beispielsweise ist der Stromverbrauch des Fernsehers höher, als die Daten von den Servern bis zum Fernseher zu transportieren.

Interessant aber der Stromverbrauch von den verschiedenen Technologien, mit denen die Filme in die heimische Stube transportiert werden: So ist das Schauen von Live-TV nicht unbedingt energieeffizienter als das Streaming. Wer beispielsweise Kabelfernsehen live schaut, benötigt fast doppelt so viel Energie, wie jemand, der via Glasfaser streamt. Dafür ist Live-TV ab der heimischen Satellitenschüssel rund doppelt so sparsam wie Streamen über Mobilfunk oder einen DSL-Anschluss, wie die folgende Grafik zeigt:

Stromverbrauch unterschiedlicher Verteiltechnologien. Ausschnitt aus dem Whitepaper «Green Streaming» von Fraunhofer Fokus (2024-10).
Zu beachten ist, dass der Stromverbrauch der terrestrischen Ausstrahlung von Fernsehprogrammen (roter Balken bei „DVB-T2“) unabhängig davon ist, wie viele Personen gerade fernsehen. Er verteilt sich dann einfach auf mehr oder weniger Personen. Ähnliche Überlegungen treffen – in reduziertem Ausmass – auch auf die anderen zentral erbrachten Dienste zu.

Interessant auch die Feststellung, dass in vielen Fällen die Geräte in unserem Heim (die hellblauen Striche, als „CPE“, „Customer Premises Equipment“, in etwa „Geräte am Ort des Kunden“ bezeichnet), einen Grossteil des Stromverbrauchs ausmachen. Cloud (dunkelblau) und Internet (grün) sind auch beim Streaming nur ein Bruchteil dessen, was das Netzwerkequipment beim Internetanbieter (rot) und bei uns zu Hause (eben hellblau) ausmachen.

Also: Streamen über Glasfaser auf das Handy oder Tablet ist vorbildlich.

Cloudspeicher aufräumen

Eine weitere Idee, die oft auftaucht: Räumt doch euren Cloudspeicher auf, dann braucht es weniger Festplatten!

Beginnen wir dazu mit dem Speicherbedarf üblicher Mediendateien:

  • Ein 500 Seiten langes Buch ohne Illustrationen belegt ca. 2 kB (Kilobyte) pro Seite, also insgesamt rund 1 MB (Megabyte). Text lässt sich aber etwa um den Faktor 10 komprimieren, oft noch mehr. D.h. ein Buch benötigt ca. 100 kB.
  • Ein Bild meines Handys ist im Durchschnitt etwa 2 MB gross. Das dürfte bei vielen Feld-Wald-Wiesen-Handys ähnlich aussehen.
  • Ein Film auf DVD belegte oft 5 GB (Gigabyte), manchmal auch 9. HD-Filme haben zwar eine höhere Auflösung, verwenden aber auch bessere Kompressionstechniken. Bleiben wir mal bei der Schätzung von 5 GB. Ein 1-Minuten-Ferienvideo dürfte etwa ein Hundertstel davon sein, also ca. 50 MB.

Wer jetzt eine USB-Festplatte kauft, dürfte mit einer Festplatte von rund 3 TB (Terabyte) Speicher gut beraten sein. Es gibt aber auch Festplatten mit der zehnfachen Kapazität (30 TB), die für grosse, selten benutzte Speichermengen ideal sind. Im Ruhezustand (einfach drehen, kein Lese- oder Schreibzugriff) benötigen beide etwa 5 W.

Hier ein Überblick über die Anzahl Dateien jeden Typs, die auf unsere zwei Beispielfestplatten passen:

Um also eine Festplatte oder 5 W zu sparen, müsste man Abermillionen von Büchern löschen, Millionen von Bildern entsorgen oder rund Hunderttausend Ferienfilme aus seinem Online-Gedächtnis verbannen.

Sehr viel Aufwand für ein Resultat, was man auch mit Ausziehen des Steckers des Fernsehers erreichen kann (also Wechsel vom Standby in den Stromlos-Zustand).

Übrigens: Rechenzentrumsbetreiber sind froh, wenn nicht alle Daten auf ihren Festplatten und Datenträgern dauernd gelesen und geschrieben werden. Denn je „aktiver“ die Daten genutzt werden, desto mehr aktive Nutzer:innen müssen sich die relativ geringe Geschwindigkeit und Bandbreite der Festplatte teilen. Wenn der Rechenzentrumsbetreiber also den Kund:innen eine akzeptable Geschwindigkeit bieten möchte, muss er mehr Festplatten kaufen. Die Anzahl der Festplatten und ihre Stromaufnahme hängt also nur teilweise von der Menge der darauf gespeicherten Daten ab; mindestens so wichtig ist im Serverumfeld, wie viele Anfragen an die Platten kommen. Deshalb nutzen datentransferintensive Speichersysteme viele kleine Festplatten anstelle von wenigen grossen.

Weniger KI nutzen

Wir haben gesehen, dass KI-Rechenzentren sehr viel Strom fressen und demnächst wahrscheinlich noch ein Vielfaches davon. Alleine für die konservativ prognostizierte Zunahme des KI-Energiebedarfs wäre bis 2030 die Inbetriebnahme von über 20 Gösgen notwendig. Das klingt doch noch einem Ansatzpunkt. Was verbrauchen denn unsere KI-Anfragen so etwa? MIT Technology Review hat das letztes Jahr analysiert.

AnfrageEnergiebedarfUmgerechnet
Eine Textanfrage (Chatbot)0,2 – 3 WhWenige Sekunde Mikrowelle
Eine Bilderzeugung0,3 – 1 WhWenige Sekunde Mikrowelle
Ein 5 s-Video erstellen1000 Wh = 1 kWh2 km Autofahrt, ⅕ Schnitzel, 1 Stunde Mikrowelle
Die Umrechnnungen von Energie zu CO2-Äquivalent nutzen den US-Strommix 2025 (384 g CO2e pro kWh), da viele KI-Rechenzentren in den USA stehen. Der Schweizer Strommix ist in dieser Beziehung um rund einen Faktor 12 besser (33 g CO2e pro kWh). Das Auto ist mit 150 g CO2e pro km angesetzt.

Meist bleibt es ja nicht bei einem Text, einem Bild oder einem Video. Bis man zufrieden ist mit dem Resultat, sind oft etliche Versuche notwendig.

Für ein paar kleine Anfragen könnte mal also ein Mittagessen in der Mikrowelle erwärmen. Schon für ein einziges kurzes Video kann man mit dem Diesel in den Nachbarort fahren; mit ein paar Kurzvideos hat man guten Vorsätze zur Reduktion des CO2-Fussabdrucks bei der Ernährung zunichte gemacht.

Zusammenfassung

Es bleibt also recht wenig, was man als Einzelne:r so tun kann. Und gerade beim Hype-Thema KI soll man verzichten? Dabei brauchen wir das dringend, um die Komplexität unserer Gesellschaft zu verstehen und zu managen. Was sollen wir also tun?

Die Informationsschleife der generativen KI: Um komplexe Mechanismen, Prozesse und Daten zu verstehen, nutzen wir KI. Das resultiert in einer Effizienzsteigerung, wenn auch oft nur gefühlt. Diese Effizienzsteigerung wird aber auch ausgenutzt von Betrügern und anderen Kriminellen, aber auch von Personen, welche sich einfach ohne Gegenleistung bereichern wollen (und dabei trotzdem Schaden anrichten, vielleicht aber nicht bewusst) oder politischen und wirtschaftlichen Akteuren, welche primär beeinflussen wollen. Dabei entstehen Mails, Nachrichten und Webseiten mit sinnlosem, verwirrendem oder falschem Inhalt. Um in dieser Flut an nicht hilfreichen Informationen den Durchblick zu bewahren, greifen dann viele wieder auf KI zurück.

KI wird aber nicht nur zur Vereinfachung von Prozessen eingesetzt, sondern auch absichtlich zur Platzierung von wertlosen oder gar vollständig falschen Informationen. Um mit der daraus resultierenden Flut klar zu kommen, sind wir wieder auf KI angewiesen. Eine Schleife.

Um aus dieser Schleife auszubrechen, wären folgende Schritte nötig, im Interesse unserer gesamten Wirtschaft und Gesellschaft:

  1. Prozesse und Abläufe, die wir nutzen wollen (oder müssen), sollten von Anfang an so einfach und klar definiert sein, dass sie auch von jemandem ohne Vorerfahrung verstanden werden und fehlerfrei genutzt werden können.
  2. Wir brauchen mehr zuverlässige, vertrauenswürdige Informationsquellen und -kanäle.
  3. Weil die beiden anderen nicht so schnell kommen (wenn überhaupt), müssen wir unbedingt in allen Gesellschaftsschichten auch für mehr Medien- und Informationskompetenz sorgen.

Mehr zu Betrug, seiner Erkennung und den Auswirkungen hier: 20 Minuten-Fake-Website ist ein „Scam“- Und Google bleibt tatenlos (2023-11-27), Wie viel Swissness (und Bitcoin) steckt in SwissBitcoin ETF? Oder: Das 1×1 der Betrugserkennung (2024-04-24), Schweizerdeutsch liegt im Trend – auch bei Phishing (2025-05-28), DNIP Briefing #49: Betrügen für die KI (2025-11-11) und DNIP Briefing #63: Feldstecher und Angeln (2026-03-10; Buchautoren, die vor lauter Fake-Anfragen zu Lesungen gar keine mehr annehmen).

Der Nutzen von Digitalem Cleanup

Das Aufräumen von Texten, Bildern und Apps, bringt aber nicht nur Vorteile bezüglich Stromverbrauch, sondern hilft auch, den Überblick über unsere Daten und unser Leben wiederzuerlangen. Insbesondere die Reduktion von unnötigen Applikationen kann auch zu mehr IT-Sicherheit und Privatsphäre beitragen. Hier ein Versuch, die verschiedenen Vorteile tabellarisch zusammenzufassen.

Take Home Message

Für eine nachhaltige Gesellschaft, nicht nur in Bezug auf den Digitalen Fussabdruck, hier eine Liste von Themen, die wir mit nach Hause (oder an die Arbeitstelle und in die politischen Prozesse) nehmen können:

StreamingÜber Glasfaser, auf kleinen Bildschirm
Cloud, SpeicherUSB-Festplatte, in der Schweiz
KIReduzieren, Alternativen nutzen, keine Videos generieren
Weniger ist besserAber keine Selbstkasteiung, Ausbau erneuerbarer Energiequellen
KlarheitEinfache Abläufe überall, zuverlässige Informationsquellen

Wenn jeder sich nur einigen wenigen Punkten annimmt, wird unsere Gesellschaft besser. Für uns und unsere Nachkommen.

Wir alle können etwas dazu beitragen. Trotzdem sollten wir die Grosskonzerne und ihre Bosse mit extravagantem Lebensstil mit in die Verantwortung nehmen.

Weiterführende Literatur

Wer mehr zum Thema wissen will: Hier sind weiterführende Texte; viele davon dienten auch als Quelle für diesen Artikel oder zumindest als Inspiration.

Digitale Nachhaltigkeit

Energiebedarf durch (KI-)Rechenzentren

Rechenzentren kühlen (auch Fernwärme und Weltraum)

Statistiken und Prognosen Energieproduktion und -verbrauch

Cloud-Technologie erklärt

Künstliche Intelligenz verstehen

KI und Effizienz

  • 2025 State
 of AI code quality, Qodo
    609 Freiwillige, kurze, wenig reproduzierbare Studie, Eigeninteresse: 78% fühlen sich schneller, 14% sogar 10x
  • Joel Becker, Nate Rush, Elizabeth Barnes, and David Rein: Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity, Model Evaluation and Threat Research (METR), 2025-07-10
    16 Freiwillige, längere, solide Studie: Die Entwickler fühlten sich 20 % schneller, waren aber gemessen 19 % langsamer
  • Mike Judge: Where’s the Shovelware? Why AI Coding Claims Don’t Add Up, 2025-09-03
    1. Wenn alle Entwickler 10x produktiver seien, müsste sich doch das im Zuwachs bei Open-Source-Projekten zeigen; dieser ist aber nicht sichtbar.
    2. Selbstexperiment über 1½ Monate: Morgens Zeitschätzung für das Tagesprojekt und erst dann (Münzwurf) entschieden, ob er die Aufgabe mit oder ohne KI-Unterstützung durchführt. Mit KI-Unterstützung war er 21 % langsamer als ohne.

Missbrauch (mit und ohne KI)

Fussabdruck

]]>
https://dnip.ch/2026/03/18/wie-gross-ist-mein-digitaler-fussabdruck-und-was-kann-ich-tun/feed/ 1
DNIP Briefing #64: Durchblick https://dnip.ch/2026/03/17/dnip-briefing-64-durchblick/ https://dnip.ch/2026/03/17/dnip-briefing-64-durchblick/#respond Tue, 17 Mar 2026 04:42:00 +0000 https://dnip.ch/?p=15547 Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute u.a. mit schwer nutzbaren ÖV-Digitalisierung, professionelle Phishing-Angriffen und weiteren Risiken von Smart Glasses.

ÖV und Usability

Florian Schreier hat seine Erfahrungen mit digitalen ÖV-Billeten von Schweizer Tourismusgebieten aufgeschrieben, sogenannten Gästkarten. Seine Erfahrung aus einem Westschweizer Kanton, die aber auch für andere Gebiete steht: Sehr umständlich.

Seine Odyssee beginnt bei einer Email und führt über eine Webseite, bei der man seine persönlichen Daten nochmals eintippen muss (und zwar am richtigen Tag!), weiter zu einer App, die man installieren muss. Dort muss man nochmals ein Konto anlegen und eine Kreditkarte hinterlegen, auch wenn man nichts Zusätzliches bezahlen will. Dann geht man zurück zur Webseite und kopiert den dort generierten Gästekarten-Code und trägt ihn in der ÖV-App ein.

Nach diesem Prozess ist man definitiv ferienreif.

Florian Schreier wünscht sich einen einfacheren Prozess, vielleicht sogar eine schweizweit einheitliche App dazu, wenn es denn sein muss (und nicht eine App oder sonstige Lösung pro Kanton oder gar Stadt). Oder vielleicht gar eine Lösung wie in London oder den Niederlanden, wo man eine Prepaid- oder Kreditkarte zum einfachen Ein- und Auschecken an Bahnhöfen oder in den Bussen nutzen kann.

Ohne einfache Nutzung, verständliche Tarife und klare Bedingungen greifen die Touristen – insbesondere aus dem Ausland – nicht auf die ÖV-Angebote zurück. Und das ist hoffentlich nicht das Ziel dieser Gästekarten.

(Noch ein Wunsch der DNIP-Redaktion: Liebe Hotels und Feriendestinationen, sorgt doch bitte auch gleich dafür, dass das ÖV-Billet auch auf jemand anders ausgestellt sein kann, als auf die Person, die das Zimmer mit Kreditkarte reserviert hat. Denn zwischendurch gehen einige Reisepaare oder -gruppen auch mal getrennte Wege. Und da wäre separate Billetnutzung ganz praktisch. Und nicht nur, wenn die Person mit der Kreditkarte auch die mit dem GA ist.)

Phishing für Profis

Matt Mullenweg, der CEO von Automattic und Mitentwickler von WordPress, berichtet in seinem Blog von einem Phishing-Angriff, bei welchem Angreifer versuchten, Zugriff auf sein iCloud-Account zu erhalten. Das besonders raffinierte daran war, dass die Angreifer selbst im Namen von Mullenweg einen Support-Case wegen einem angeblich gesperrten Account bei Apple eröffneten. Dadurch wirkte das ganze auch für den Angegriffenen erstaunlich echt, vor allem auch weil der angebliche Support-Mitarbeiter von Apple am Telefon sehr überzeugend und echt wirkte. Keine Spur also von den üblichen Anrufen aus Indien, wo die „Microsoft“-Support-Mitarbeiter mehr mit Aggression und Panik als mit Inhalten zu überzeugen versuchen.

Mullenweg fasst seine Erkenntnisse aus dem Fall in seinem Blog zusammen. Diese sind zwar nicht neu, aber es lohnt sich, sie sich immer wieder mal in Erinnerung zu rufen:

  • Wenn man (via Mail oder Push-Nachricht) dazu aufgefordert wird, sein Passwort für einen Online-Dienst zu ändern, sollte man das nie direkt mit dem Link aus der Nachricht tun. Stattdessen geht man direkt auf die entsprechende Webseite (via früher abgelegtem Bookmark oder mit manuell eingegebener URL) und verifiziert den Bedarf dort.
  • Kein Online-Anbieter ruft einfach ohne Vorabinformation oder spezifische Vereinbarung an, solche Anrufe sind eigentlich immer Phishing-Versuche
  • URLs in Mails müssen nicht stimmen, genaues Nachschauen lohnt sich.

Hintergründe zu Betrug und Phishing kennen langjährige DNIP-Leser:innen: Sowohl Hintergründe und Erkennung als auch neueste Trends.

Smart Glasses sind nicht immer angemessen

Die BBC berichtet über einen Fall, bei dem ein Zeuge während einer Gerichtsverhandlung Smart Glasses (also eine Brille mit Kamera und Internet-Verbindung) trug und sich auf diesem Weg instruieren liess, wie er einzelne Fragen zu beantworten hatte. Aufgefallen ist dies, da der Zeuge oft lange brauchte, um eine Frage zu beantworten, und über die Brille kommunizierten Instruktionen teilweise hörbar werden.

Exemplarisch steht dieser Fall für die Probleme, welche mit Smart Glasses auf die Gesellschaft zukommen. Waren beim Aufkommen von Mobiltelefonen die Geräte noch klar als solche erkennbar, wird das mit Brillen (vor allem, wenn die Miniaturisierung weiter voranschreitet) deutlich anspruchsvoller. Die gesellschaftlichen Regeln im Umgang mit solchen Geräten müssen wohl erst noch entstehen.

Im oben erwähnten Gerichtsfall sind die Konsequenzen hingegen klar: Die Aussagen des Brillenträgers wurden als unzuverlässig und unwahr eingestuft, und sind in den Verhandlungen bedeutungslos.

Mehr zu Smart Glasses und den Privacy-Risiken bzw. dem Überwachungs-Geschäftsmodell dahinter gab es auch schon letzte Woche bei DNIP.

Und schliesslich:

]]>
https://dnip.ch/2026/03/17/dnip-briefing-64-durchblick/feed/ 0
Das Schweizer Einsatzleitsystem des Sanitätsdiensts läuft auf Microsoft Azure https://dnip.ch/2026/03/16/das-schweizer-einsatzleitsystem-des-sanitaetsdiensts-laeuft-auf-microsoft-azure/ https://dnip.ch/2026/03/16/das-schweizer-einsatzleitsystem-des-sanitaetsdiensts-laeuft-auf-microsoft-azure/#comments Mon, 16 Mar 2026 13:35:22 +0000 https://dnip.ch/?p=15563 Die Schweizer Bundesverwaltung verfügt seit 5 Jahren Verträge mit 5 amerikanischen und chinesischen Tech-Konzernen: Alibaba, Amazon, Oracle, IBM und Microsoft.

In der Vergangeheit habe ich herausgefunden, wo genau die amerikanische Public Cloud-Anbieter genau im Einsatz sind.

Die Bundesämter nutzen nur zaghaft die Cloud-Angebote. Kein Wunder: Sie sind verunsichert, weil sie auch den Datenschutz für die Projekte verantworten. Alle Ämter wollen ausserdem «nur» mit Microsoft und Amazon zusammenarbeiten. So laufen wichtige, täglich tausendfach genutzte Zoll-Apps auf der Cloud von Amazon und das Organ-Widerspruchsregister bei Microsoft Azure Cloud. Und diese werden noch eine Weile dort bestehen bleiben.

Der Grund: Die vom Bundesamt für Informatik und Telekommunikation BIT geplante grosse neue Swiss Government Cloud-Infrastruktur ist noch nirgends, nicht einmal ist die Ausschreibung bisher erfolgt. Damit die Zoll-Apps und weitere Applikationen nicht plötzlich in diesem Jahr einfach von heute auf morgen ausgeschaltet werden, hat die Bundeskanzlei die Rahmenverträge mit den globalen Playern deshalb nochmals um fünf Jahre bis 2031 verlängert.

Von den vorgesehenen 110 Millionen Franken sind insgesamt erst 61 Millionen «reserviert» – Jargon für eine Art Vorbuchung – und 8,1 Millionen Franken an Cloud-Dienstleistungen genutzt worden, wie interne Unterlagen zeigen, die mir vorliegen (und ich aus Quellenschutzgründen nicht publizieren kann). Das bedeutet auch: Die Ämter können noch viel «Cloud-Dienstleistungen» vom bereits gesprochenen Budget buchen.

Über die Rahmenverträge werde ich demnächst bei der Republik.ch wieder etwas veröffentlichen (was bisher geschah: wir konnten die Veröffentlichung von Alibaba, Oracle, IBM und Microsoft erwirken (Amazon steht noch aus).

Im Rahmen meiner Recherchen habe ich noch herausgefunden, dass Amazon und Microsoft höher klassifizierte Daten (damit sind oberen Schutz- bzw. Geheimhaltungsstufen, deren Bekanntwerden die Sicherheit oder Handlungsfähigkeit des Bundes erheblich oder schwerwiegend beeinträchtigen könnte, zum Beispiel operative Lage- und Einsatzpläne von Armee oder Nachrichtendiensts) und besonders schützenswerte Daten (wie beispielsweise Gesundheitsinformationen) verarbeiten.

Und zwar im Fall der Auftraggeberinnen Bundesamt für Grenzsicherheit BAZG, Bundesamt für Gesundheit BAG (interessant übrigens, dass die Zürcher Gesundheitsdirektion zu einem ganz anderen Schluss kam bei diesen Fragen und auf keinen Fall ihre Anwendung an eine Public Cloud auslagern will) und auch beim Bundesamt für Bevölkerungsschutz BABS.

Dies geht aus internen Unterlagen hervor, die mir vorliegen.

Was bisher nicht bekannt war: das BABS hat eine wichtige Anwendung entweder auf Amazon oder Microsoft laufen.

Nachfrage bei der Medienstelle:

„Im BABS wird aktuell ausschliesslich die Fachapplikation IES NG auf einer Cloud-Infrastruktur betrieben.

Im Rahmen einer internen Evaluation wurde geprüft, welche Lösung sowohl aus sicherheitstechnischer als auch aus wirtschaftlicher Sicht geeignet ist. Dabei hat sich Microsoft Azure als die zweckmässigste und kosteneffizienteste Option erwiesen.

Das System IES NG befindet sich derzeit im Aufbau in der Cloud und wird noch nicht produktiv eingesetzt.“

Was ist jetzt genau diese Anwendung mit dem sperrigen Namen „IES NG“?

Das steht für Informations- und Einsatzsystem und ist somit ein digitales Koordinations- und Einsatzleitsystem für den Sanitätsdienst.

Das IES NG ermöglicht bei Unfällen, Grossereignissen und Katastrophen eine Patienten- und Personenverfolgung sowie die Zuweisung von Patienten an Spitäler und den Informationsaustausch zwischen Blaulichtorganisationen.

Auf der Website steht dazu:

Die Software soll insbesondere bei der Beantwortung folgender Fragen unterstützen:

  • Wie viele Verletzte gibt es?
  • Was ist deren Zustand?
  • Wo sind die Verletzten?
  • Welche Gefahren bestehen auf dem Schadensplatz?
  • Welche Einsatzkräfte stehen zur Verfügung?
  • Welche Einsatzkräfte können in gegebener Frist in den Einsatz gebracht werden?
  • Welche Partnerorganisationen können zur Ereignisbewältigung beigezogen werden?
  • Welche Spitäler können die Patienten optimal versorgen?
  • Welche Spitäler haben verfügbare Kapazitäten zur optimalen Versorgung der Verletzten?

Die Nutzer reichen von Rettungsdiensten über Kantonspolizeien bis hin zu Spitälern und Kantonalen Führungsstäben.

Die Software wird also auf Microsoft Azure betrieben und deren Daten in den Microsoft-Rechenzentren gespeichert.

Die Medienstelle des BABS hat gleich ihre Überlegungen zum Thema Sicherheit mitgeschickt:

„Beim Aufbau der Umgebung wurden umfassende Sicherheitsmassnahmen umgesetzt. So wird IES NG ausschliesslich auf Servern in der Schweiz betrieben. Zudem verfügt das System über ein eigenes Key-Management. Die kryptographischen Schlüssel werden vom BABS selbst generiert und verwaltet. Dadurch wird sichergestellt, dass ausschliesslich das BABS Zugriff auf die entschlüsselten Daten hat. Auch der Cloud-Anbieter selbst hat keinen Zugriff auf diese Inhalte.

Im Rahmen der Projektarbeiten wurden mögliche Risiken identifiziert und entsprechende Massnahmen definiert. Diese werden in den kommenden Monaten schrittweise umgesetzt. Insgesamt wird das Risikoprofil derzeit als gering eingeschätzt.“

Empfehlung an alle mitlesenden Journalist:innen an dieser Stelle: das Risikoprofil via Öffentlichekeitsgesetz verlangen.

Das IES NG verarbeitet also hochsensible Daten:

  • Patientendaten (Verletzte, Triage-Status, Diagnosen)
  • Einsatzdaten von Polizei, Rettungsdiensten, Armee
  • Kapazitäten von Schweizer Spitälern
  • Lagebilder bei Katastrophen und Grossereignissen

Die gute Nachricht dabei:

Das BABS arbeitet bei IES NG nicht mit der Microsoft EntraID.

Microsoft Entra ID (früher: Azure Active Directory / Azure AD) ist der cloudbasierte Identitäts- und Zugangsdienst von Microsoft. Vereinfacht gesagt: Es ist das System, das verwaltet, wer sich wo einloggen darf – in Firmen, Behörden, Apps und Systemen.

Wenn eine Behörde Entra ID nutzt, läuft ihre gesamte Identitätsverwaltung über Microsoft-Server in der Cloud.

Entra ID ist der Türsteher des Systems. Fällt er aus – ob durch technischen Ausfall, politischen Druck oder bewusste Abschaltung – kann sich niemand mehr einloggen. (Wenn Azure ausfällt, natürlich auch niemand).

Der stellvertretende Kommunikationschef des BABS sagt auf Anfrage:

Wie ist das Thema Identity/IAM geregelt?

„Das System IES NG ist an eIAM des Bundes angebunden (eIAM, das zentrale Zugriffs- und Berechtigungssystem der Bundesverwaltung — eIAM, Identity & Access Management des Bundes). Es unterstützt aktuell alle Bundesidentitäten.“

Einen Einsatz der EntraID hat der stellvertretende Kommunikationschef explizit verneint.

Dennoch bleiben natürlich viele Risiken bestehen. Microsoft hat als Infrastrukturbetreiber auf Azure immer den Masterschlüssel über Azure Key Vault (sofern genutzt), Zugang zu den virtuellen Maschinen, Zugang zu den Speichersysteme, Kontrolle über Netzwerk, Routing, Backups, und natürlich Möglichkeit zur Abschaltung via Kill Switch auf Infrastrukturebene.

Wie die Verschlüsselung vonstatten geht, wollte die Medienstelle nicht beantworten.

Beim IES-NG geht es um besonders schützenswerte Personendaten aus Katastrophensituationen. Eine Public-Cloud-Architektur schafft hier ja zusätzliche Abhängigkeiten – technisch, juristisch und operativ. Für ein nationales Einsatzsystem wäre aus Sicht von Souveränität und Resilienz eine stärker kontrollierte Infrastruktur naheliegender. Hat man sich hierzu keine Gedanken gemacht?

„Ja, diesem Aspekt wurde Rechnung getragen.

Beim Aufbau der Cloud-Umgebung wurden verschiedene zusätzliche Sicherheitsvorkehrungen umgesetzt. Beispielsweise werden sämtliche Daten verschlüsselt gespeichert und der Zugriff ist eingeschränkt.  Wir bitten an der Stelle um Verständnis, dass wir die technischen Details gerade aus Sicherheitsüberlegungen nicht umfassend teilen.“

Wir erfahren nicht, ob die Schlüssel beim BABS liegen oder allein von Microsoft verwaltet werden. So oder so kann sich das Amt für Bevölkerungsschutz den klassischen US-amerikanischen Überwachungsgesetzen und Dekreten (Executive Order 12333, FISA Section 702 und den Cloud Act) damit NICHT entziehen.

Auch weitere Informationen zum Thema Betriebsausfall sind eher spärlich:

„Das gesamte System ist hochverfügbar ausgelegt. Aktuell verzeichnen wir auf unseren Vor-Produktiv System eine Verfügbarkeit von 100% für die letzten 90 Tagen. Bei einem Betriebsausfall werden vorbereitete Wiederherstellungsprozesse aktiviert.“

Und was passiert, wenn Microsoft anordnet, die Anwendung IES NG auf Azure auszuschalten für die Schweiz?

Die Antwort des BABS dazu folgt.

Übrigens: Wer noch Motivation für mehr Souveränität braucht: Der US-Präsident hat vor wenigen Tagen Spanien offen gedroht, alle Wirtschaftsbeziehungen abzubrechen. Das würde auch bedeuten, dass alle Cloud-Beziehungen gekappt würden. Das Szenario ist mit dieser Drohung nicht mehr so hypothetisch wie auch schon. Leider. Noch einmal ein Verweis auf das Briefing von letzter Woche: DNIP Briefing #63: Feldstecher und Angeln – Das Netz ist politisch

]]>
https://dnip.ch/2026/03/16/das-schweizer-einsatzleitsystem-des-sanitaetsdiensts-laeuft-auf-microsoft-azure/feed/ 11
Vogt am Freitag: Urne https://dnip.ch/2026/03/13/vogt-am-freitag-urne/ https://dnip.ch/2026/03/13/vogt-am-freitag-urne/#comments Fri, 13 Mar 2026 05:00:00 +0000 https://dnip.ch/?p=15551 Was wir aus dem E-Voting-Debakel in Basel lernen können, weiss Kolumnist Reto Vogt.

Der Kanton Basel-Stadt hat die richtigen Lehren aus dem E-Voting-Debakel vom vergangenen Wochenende gezogen: Er pausiert die Stimmabgabe über den elektronischen Kanal bis Ende 2026.

Was war passiert? 2048 Stimmen konnten bei den Abstimmungen nicht gezählt werden, weil der USB-Stick nicht funktionierte, mit dem die digitalen Urnen entschlüsselt werden sollten. Wenn es nicht so traurig wäre, müsste man fast lachen. Und zwar zweimal:

  1. Wenn das E-Voting-System der Post schon nicht zickt, dann ist es ein USB-Stick. Die Schweiz hat Jahrzehnte und zig Millionen Franken investiert, um die sicherste digitale Wahlinfrastruktur der Welt zu bauen . Und scheitert an einem Stück Hardware, das man für fünf Franken aus der Grabbelkiste zieht.
  2. Die Zahl 2048 an sich. Ist sie Zufall? Wahrscheinlich schon. Aber in Zusammenhang mit einem IT-Problem hat sie einen merkwürdigen Beigeschmack. Für einen normalen Menschen ist die Zahl 1000 eine runde Sache. Für Computer (und Informatiker:innen) ist 1000 eine völlig krumme, unbedeutende Zahl. Die «runden» Zahlen im digitalen Universum sind Zweierpotenzen wie 1024 (210), 2048 (211) oder 4096 (212). Wenn nun genau 2048 Stimmen auftauchen, wirkt das für einen IT-Profi so, als liege die Ursache dafür tiefer. Denn sie ist das digitale Äquivalent dazu, wenn bei einer Wahl exakt 2000 Personen abgestimmt hätten. Das ist also schon fast zu perfekt, um wahr zu sein.

Was ist in der Folge passiert? Der Regierungsrat von Basel-Stadt hat entschieden, eine externe Analyse zu den Umständen und Ursachen des Vorfalls in Auftrag zu geben. Und die Staatsanwaltschaft leitete wegen eines Anfangsverdachts auf ein allfälliges Offizialdelikt ein Strafverfahren ein. Zudem hat die Kriminalpolizei Hinweise gefunden, die den Verdacht der Wahlfälschung begründen würden.

Das Warten auf den Stick

Was bei den Untersuchungen rauskommt, müssen wir abwarten. Ich tippe übrigens auf: «Nichts.» Aber darum geht es nicht. Das Hauptproblem ist, dass diese Untersuchungen überhaupt nötig sind. Demokratie lebt vom Vertrauen. Dieses Mal hat der Kanton Basel-Stadt (sowie sämtliche E-Voting-Befürworter:innen) Glück gehabt, dass die 2048 fehlenden Stimmen bei den Abstimmungen keinen Unterschied gemacht haben. Ja, es war nichts anderes als Glück. Bei einer entsprechend knappen Abstimmung wären die Resultate auf Wochen hinaus nicht festgestanden. Beschwerden, Wiederholungen, Rechtsgutachten – und mittendrin 2048 Stimmen, die irgendwo in einer verschlüsselten Urne auf einen USB-Stick warten.

Demokratie funktioniert nicht nach dem Prinzip Hauptsache-das-Resultat-stimmt. Wer seine Stimme abgibt, muss davon ausgehen können, dass sie zählt. Wird das nicht mehr gewährleistet, haben wir ein grosses Problem. Dementsprechend ist es nichts als richtig, dass eine betroffene Bürgerin eine Abstimmungsbeschwerde prüft, weil ihre Stimme nicht gezählt hat.

Wo ist der Mehrwert?

Womit wir bei der eigentlichen Frage sind: Wozu das alles? E-Voting hat eine legitime Daseinsberechtigung für zwei Gruppen. Erstens Auslandschweizerinnen und Auslandschweizer, deren Abstimmungsunterlagen in New York oder Lagos ankommen, wenn die Frist längst abgelaufen ist. Und zweitens Menschen mit bestimmten Behinderungen, für die der Gang zur Urne oder das Ausfüllen eines Formulars keine Selbstverständlichkeit ist.

Beides sind echte Probleme, die eine digitale Lösung verdienen. Für alle anderen? Nein, danke.

Demokratie ohne Usability-Probleme

Die Schweizer Demokratie hat keine Usability-Probleme, die E-Voting lösen müsste. Der Postweg funktioniert. Die Abstimmungslokale stehen allen offen. Die Stimmbeteiligung ist seit Jahren stabil. Und kein seriöses Institut hat je belegt, dass E-Voting mehr Menschen an die Urnen bringt.

Was (flächendeckendes) E-Voting hingegen tatsächlich bringt, sind Probleme. Was wir damit verlieren können, ist bedeutend grösser als der mögliche Gewinn.

In die Urne gehören nicht nur Stimmzettel, sondern auch E-Voting – und zwar eingeäschert.

]]>
https://dnip.ch/2026/03/13/vogt-am-freitag-urne/feed/ 7
DNIP Briefing #63: Feldstecher und Angeln https://dnip.ch/2026/03/10/dnip-briefing-63-feldstecher-angeln/ https://dnip.ch/2026/03/10/dnip-briefing-63-feldstecher-angeln/#comments Tue, 10 Mar 2026 04:42:00 +0000 https://dnip.ch/?p=15517 Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute u.a. mit Überwachung, Überwachung, Überwachung, Manipulation, Souveränität und schwindender Anonymität.

Bei Smart Glasses gehört Überwachung zum Geschäftsmodell

Metas KI-Brillen haben sich, auch wenn der Metaverse-Trend vorbei ist, in 2025 gut verkauft, über 7 Millionen Stück fanden den Weg zu zahlungswilligen Kunden. Bedenken zum Datenschutz versuchte Meta mit klaren Aussagen auf der zugehörigen Datenschutz-Seite zu zerstreuen. Von „Designed for privacy, controlled by you“ („Für den Datenschutz entwickelt, von Dir kontrolliert“) ist da die Rede, und von „You’re in control of your data and content“ („Du hast die Kontrolle über deine Daten und Inhalte.“). Das ist allerdings nur die halbe Wahrheit.

Ende Februar veröffentlichte die schwedische Zeitung Svenska Dagbladet eine Untersuchung, laut der kenianische Subunternehmer zutiefst persönliche Aufnahmen von den Brillen zu sehen bekommen – darunter Bankkarten, sich umziehende Menschen und Menschen beim Sex. Unklar ist, inwieweit sich die Brillen-Tragenden dessen bewusst waren. Meta selbst führt auf der oben erwähnten Datenschutz-Seite aus, dass „Meta collects data needed to help ensure that your glasses and app are reliable, secure and operating normally. You can choose to share additional data to improve the experience“ („Meta sammelt Daten, die benötigt werden, um sicherzustellen, dass deine Brille und App zuverlässig, sicher und normal funktionieren. Du kannst wählen, zusätzliche Daten zu teilen, um das Erlebnis zu verbessern“). Das ist eine Funktion, welche man auch von anderen Anwendungen kennt, und es ist durchaus denkbar, dass die Brillen-Benutzer diese aktiviert hatten, ohne sich der Konsequenzen bewusst zu sein. Wenn man Metas bisheriges Verhalten zum Thema Datenschutz anschaut, kann es aber durchaus auch eine bewusst in Kauf genommener „Fehler“ in der Brillensoftware sein.

Grundsätzlich zeigt sich hiermit aber, dass KI-Brillen aus Datenschutz-Optik schlicht eine Katastrophe sind. Dazu braucht es noch nicht einmal Billigarbeitskräfte in Nairobi. Selbst wenn kein Teilen der Bilddaten mit Meta stattfindet, werden mit KI-Brillen Aufnahmen von Menschen gemacht welche in den meisten Fällen nicht in solche Aufnahmen eingewilligt haben.

Z.B. weil sie in den USA entgegen eindeutiger Anordnungen „privat“ bei Razzien benutzt werden. Inzwischen gibt es allerdings auch Apps, die solche Brillen anhand ihrer Bluetooth-Signatur aus der Ferne zu erkennen versuchen.

Please die in a fucking fire

AI-Slop (d.h. von KI generierter, meist sinnfreier oder zumindest sinnloser Content) füllt bereits ganze Webseiten und macht Websuchen zunehmend sinnlos. Amazon und andere Online-Retailer kämpfen bereits seit längerem mit KI-generierten Produkte-Reviews, während andere genau damit Geld zu verdienen versuchen. Auch Spam- und Phishing-Mails wirken „dank“ KI deutlich überzeugender und sind für Spamfilter schwieriger zu erkennen (auch wenn in Schweizerdeutsch geschriebene Mails von „Microsoft“ nach wie vor eher amüsant wirken). Über die Problematik von KI-generierten CVs und Stellenbewerbungen haben wir bereits in einem früheren Briefing geschrieben.

Der Science Fiction-Autor John Scalzi weist in seinem Blog auf einen weiteren Problembereich hin: Die Menge an KI-generierten Anfragen zu Lesungen in Buchhandlungen und Bibliotheken hat so stark zugenommen, dass er mit sinnvollem Aufwand nicht mehr in der Lage ist, echte von falschen (KI-generierten) Anfragen zu trennen. Er hält daher fest, dass er bis auf Weiteres auf keine Einladung mehr eingehen wird, mag sie auch nur so echt wirken oder sogar sein.

Um es in seinen Worten zu sagen: „If you’re a scammer who uses “AI” to try to defraud actual humans, please die in a fucking fire, thanks.“

Medienkonzentration

In der Schweiz haben wir uns vergangenes Wochenende gegen mehr Medienkonzentration ausgesprochen, obwohl unser „Medienminister“ Rösti da schon kräftig daran gesägt hat. Wohin sich Medienkonzentration entwickeln kann, zeigen die USA: Die wichtigsten klassischen und modernen Medien sind in den Händen einiger weniger Milliardäre. Oder wie es Melanie D’Arrigo zusammenfasst:

Trump’s billionaire allies will now own CNN, Fox News, CBS, WaPo, WSJ and NY Post — plus 185+ local tv stations and news in 100 markets.

They also control X, Facebook, Instagram, Threads, WhatsApp, TikTok, Truth and Twitch.

This is all by design to manipulate and surveil us.

Pay attention.

In etwa: Trumps verbündete Milliardäre werden nun CNN, Fox News, CBS, die Washington Post, das Wall Street Journal und die New York Post besitzen. Plus über 185 lokale Fernsehstationen und News in 100 Märkten. Sie kontrollieren auch X (aka Twitter), Facebook, Instagram, Threads, WhatsApp, TikTok, Truth Social und Twitch. Das ist alles Absicht, um uns zu manipulieren und zu überwachen. Passt auf!

Melanie D’Arrigo auf Bluesky (2026-02-27)

Neben dieser Konzentration bei „klassischen“ Verlagen gibt es auch die Konzentration bei den Wissenschaftsverlagen, die sich inzwischen auch stark konzentriert und zu Datenimperien verwandelt haben.

Eine bedenkliche Entwicklung. Das alles im Namen einer durch Marktwirtschaft angeblich freieren Presse.

Wie gut ist meine Souveränität?

Die Diskussionen um digitale Souveränität beschäftigen viele Leute in der Schweiz und im restlichen Europa. Inzwischen behaupten sowohl die US- als auch Nicht-US-Cloudanbieter, sie würden Souveränität liefern. In ihren eigenen Augen haben sie alle jeweils recht. Das Problem liegt unter anderem darin, dass jeder unter Souveränität etwas anderes definiert, nämlich dem, was ihm gerade in den Kram passt.

Als Ausweg hat Tobias Buchter versucht, zwölf möglichst objektive Kriterien der Souveränität aufzustellen, an denen man sowohl seinen Bedarf an Souveränität als auch sein aktuell erreichtes Level ablesen kann. Und sieht, wo allfälligerweise noch Handlungsbedarf besteht. Er überträgt dabei das aus der Softwareentwicklung bekannte Capability Maturity Model (Reifegradmodell) auf Souveränität.

Bewertet werden dabei ganz unterschiedliche Dimensionen, beispielsweise, wie stark man selbst die Identitäten kontrolliert, wie selbstbestimmt man seine kryptografischen Schlüssel verwaltet, wie man seine Daten speichert, verarbeitet oder transportiert, wie gut man vertraglich abgesichert ist, wie gut man auf Cyberbedrohungen reagieren kann oder ob man eine Exit-Strategie habe.

Das Modell ist noch in einem frühen Stadium. Tobias Buchter freut sich aber auf Feedback von Leuten, die (privatsphärefreundlich) reale Szenarien durchgespielt haben. Solche Modelle sind ein wichtiger Schritt, um die Souveränitätsdiskussion zu objektivieren.

Übrigens: Wer noch Motivation für mehr Souveränität braucht: Der US-Präsident hat vor wenigen Tagen Spanien offen gedroht, alle Wirtschaftsbeziehungen abzubrechen. Das würde auch bedeuten, dass alle Cloud-Beziehungen gekappt würden. Das Szenario ist mit dieser Drohung nicht mehr so hypothetisch wie auch schon. Leider.

Gespaltene Attestierung

Einige europäische Hersteller von Google-freien Android-Derivaten haben sich zusammengetan, um das sogenannte UnifiedAttestation-Konsortium zu bilden. Das Problem: Android-Derivate sind nicht das Google-Original-Betriebssystem; ihnen fehlt daher die Möglichkeit, sich kryptografisch als „unmodifiziertes Original-Android“ auszugeben. Allerdings beharren einige Banken-, Behörden- und Wallet-Apps darauf, eben genau diesen „Beweis“ zu sehen. Und sorgen damit dafür, dass Nutzer:innen, welche Souveränitätsbestrebungen umsetzen oder sich aus dem Griff von Google lösen wollen, genau daran gehindert werden.

Es fällt allerdings auf, dass GrapheneOS darauf fehlt, der Vorkämpfer für besonders sichere Android-Handys. So unterstützte GrapheneOS laut eigenen Angaben die ARM-Speicher-Sicherheitstechnologie „Memory Tagging“ als erste Plattform produktiv und schützte so ihre Nutzer:innen und Apps gegen Buffer Overflows und verwandten Sicherheitslücken. Das macht das Fehlen von GrapheneOS beim UnifiedAttestation-Konsortium um so erstaunlicher.

Darauf angesprochen antwortete der Betreuer des GrapheneOS-Fediverse-Kontos, dass diese Funktion bei GrapheneOS nicht nötig sei, da es bereits jetzt Funktionen habe, mit denen die Hardware bestätigen könne, dass keine fremde – und möglicherweise bösartige – Software das Betriebssystem manipuliert habe. Dazu sei es lediglich nötig, dass Apps diesem GrapheneOS-Zertifikat ebenfalls trauten, nicht nur dem von Google. Im Übrigen sei der Wunsch von Apps nach Hardware-Attestierung häufig unnötig, insbesondere, wenn die Serverseite korrekt geschützt sei, was sie ja ohnehin sollte.

Der Grund für das Konsortium sei, so GrapheneOS in einem hitzigen Thread, dass die anderen Hersteller von Android-Derivaten es bisher nicht geschafft hätten, die Hardware-Attestierung korrekt umzusetzen. Und dass der vorgeschlagene Weg des Konsortiums eben nicht die Sicherheit biete, die von den Applikationen eigentlich gewünscht sei.

Offene Attestierung ist eine Herausforderung. Es wird zu einem Problem, wenn Applikationsentwickler glauben, blind nach der Attestierung greifen zu müssen, ohne sich zu überlegen, ob die Nutzer:innen diese Funktion wirklich brauchen. Die bisherigen Lösungen, sowohl von GrapheneOS als auch vom Konsortium lassen aber noch zu wünschen übrig, zumindest in Akzeptanz, vielleicht auch in technischer Reife. Warten wir die Entwicklungen ab.

Und schliesslich:

  • Burger King bringt einen KI-Bot in die Headsets der Mitarbeitenden. Dieser soll ihnen nicht nur Handlungsanweisungen bei der Zubereitung der Bestellungen geben, sondern auch darauf achten, dass sie freundlich mit den Kunden umgehen und höflich „Danke“ und „Bitte“ sagen. Und nein, es ist noch nicht 1. April … Übrigens hat Burger King seine Drive-Thru-Mitarbeitenden schon früher automatisiert beurteilt (Nettigkeit, Häufigkeit von „Bitte“, „Danke“ und „You Rule“(!)); DNIP berichtete. Aber jetzt wird es interaktiv. Und damit noch einen Schritt dystopischer.
  • Twitter, von einigen Harcore-lern auch X genannt, hat sich bisher sehr zuverlässig gegen die meisten im Digital Services Act (DSA) vorgesehenen Forschungsanfragen gedrückt. Doch nun ist ein erster Erfolg zu verzeichnen: Forscher der deutschen GFF und DRI bekommen 6 Monate Forschungsdaten, mit denen sie die Online-Diskussion rund um die ungarischen Wahlen verfolgen können. Dies laut einem kürzlichen Gerichtsurteil, wie TechPolicy berichtet. Dabei werden auch die erstaunlichen Hürden erläutert, die es zu meistern galt. Und die für zukünftige Forscher jetzt nicht mehr so hoch sein sollten.
  • Wir müssten uns an ein dauernd änderndes Internet anpassen, schreibt Hilda Bastian. Nicht nur hätten wir uns gegen die Werbeflut wehren müssen (oder mit ihr leben lernen), auch gegen die ganzen Anti-KI-Massnahmen (Captchas und „Bitte warten“-Schirme). Neu sei aber auch, dass wir uns nicht mehr anonym im Internet bewegen könnten, seit grosse Sprachmodelle uns über Plattformen und Pseudonyme hinweg tracken könnten.
  • Wer glaubt, dass seine Top-Secret-Überwachungstools nur für „das Gute“ verwendet wird (in seinen Augen), irrt. So wurde scheinbar ein Toolkit zum Hacken von iPhones, welches von Russland und China genutzt wurde, ursprünglich im Auftrag der US-Regierung entwickelt, berichten Wired und TechCrunch.
  • Zu Spyware und wieso Hintertüren nicht nur für „die Guten“ funktionieren haben wir bei DNIP schon mehrfach berichtet. Und auch schon eine fiktionale Kurzgeschichte geschrieben.

]]>
https://dnip.ch/2026/03/10/dnip-briefing-63-feldstecher-angeln/feed/ 1
eVoting: So sicher, dass niemand deine Stimme kennt https://dnip.ch/2026/03/09/evoting-so-sicher-dass-niemand-deine-stimme-kennt/ https://dnip.ch/2026/03/09/evoting-so-sicher-dass-niemand-deine-stimme-kennt/#comments Mon, 09 Mar 2026 04:42:00 +0000 https://dnip.ch/?p=15499 Am Wochenende haben in der Schweiz mehrere nationale Abstimmungen stattgefunden. In verschiedenen Kantonen kam dabei im Rahmen des laufenden Versuchsbetriebs E-Voting zum Einsatz, darunter auch im Kanton Basel-Stadt.

Wie letzte Woche bekannt wurde, verdanken wir den Baslern nun den ersten E-Voting-Vorfall seit der Wiederaufnahme des Versuchsbetriebs vor 3 Jahren. Bereits zwei Tage vor dem Abstimmsonntag hat die Basler Staatskanzlei bekanntgegeben, dass die elektronisch abgegebenen Stimmen wahrscheinlich nicht gezählt werden können.

Ein technisches Problem im Kanton Basel-Stadt hat dazu geführt, dass die elektronisch abgegebenen Stimmen der Auslandschweizer Stimmberechtigten und angemeldeten Stimmberechtigten mit Behinderungen des Kantons für den Urnengang von diesem Wochenende wahrscheinlich nicht ausgezählt werden können.

Medienmitteilung vom 6.3.26

In der Mitteilung zum Schlussresultat wurde dieser Umstand nun bestätigt:

2048 Auslandschweizer Stimmberechtigte und Stimmberechtigte mit Behinderungen haben ihre Stimme elektronisch abgegeben. Aufgrund eines technischen Problems konnten diese Stimmen nicht gelesen werden und wurden nicht gezählt.

Medienmitteilung vom 8.3.26

Das wichtigste vorneweg: Die Abstimmungen sind sowohl schweiz-weit wie auch in Basel-Stadt so eindeutig ausgefallen, dass die verlorenen 2048 Stimmen keinen Einfluss auf das Ergebnis haben. Am knappsten war in Basel-Stadt die Abstimmung zum Klimafonds, und selbst da liegt zwischen Ja und Nein eine Differenz von 6658 Stimmen. Erspart bleibt uns so eine Wiederholung der Abstimmung in Basel-Stadt und/oder eine mehrwöchige Hängepartie bis zum Vorliegen der endgültigen nationalen Ergebnisse (was zum Beispiel der Fall gewesen wäre, wenn ein knappes basel-städtisches Ja/Nein die entscheidende Standesstimme für die Halbierungsinitiative gebildet hätte).

Was wissen wir über die Ursache?

Informationen über die Ursache sind bisher relativ dürftig, der Kanton selbst erwähnt nur Probleme mit USB-Sticks zur Entschlüsselung der elektronischen Urne. Der Vorfall weist auf den ersten Blick allerdings Ähnlichkeiten mit einem Fall auf, über den wir im DNIP Briefing #51 berichtet hatten:

Eine der weltweit führenden Forschungsvereinigungen im Security-Bereich hat die Ergebnisse ihrer jährlichen Führungswahl annulliert, nachdem jemand vom Wahlbüro einen Verschlüsselungsschlüssel verloren hatte, der zum Entsperren der Ergebnisse eines überprüfbaren und datenschutzfreundlichen Wahlsystems benötigt wurde.

Die International Association of Cryptologic Research (IACR) teilte am Freitag mit, dass die Stimmen mit Helios abgegeben und gezählt wurden, einem Open-Source-Wahlsystem, das erlaubt Stimmen überprüfbar, vertraulich und datenschutzfreundlich abzugeben und zu zählen. Helios verschlüsselt jede Stimme so, dass die Geheimhaltung jedes Stimmzettels gewährleistet ist. Andere von Helios verwendete Kryptographie ermöglicht es jedem Wähler, zu bestätigen, dass sein Stimmzettel fair gezählt wurde. Dabei agieren drei Vertreter des Wahlbüros als Vertrauenspersonen, welche jeweils einen Drittel des Schlüssels verwalten, mit welchem die Wahlresultate gesichert sind. Einer der drei Vertreter hatte den Zugriff auf seinen Schlüssel verloren. Daher konnten nach erfolgter Wahl die Wahlresultate nicht mehr gelesen und veröffentlicht werden.

Die Wahl wird nun im Dezember wiederholt. Zusätzlich wird das System so angepasst, dass zwei von drei Schlüsseln ausreichen, um die Wahlresultate auszulesen.

USB-Sticks kommen im ganzen E-Voting-System an diversen Stellen zum Einsatz, primär um einzelne Bestandteile untereinander wie auch gegenüber dem Internet abzusichern. Hierzu müssen wir auf die im Internet verfügbaren technischen Unterlagen des Kantons Thurgau zurückgreifen. Da im Thurgau wie auch in Basel-Stadt dasselbe Post-System zum Einsatz kommt, dürfte der folgende Überblick auch für Basel gelten.

E-Voting Thurgau: Hardware und Infrastruktur

Wie man erkennen kann, erfolgt der Datenaustausch zwischen praktisch allen beteiligten Systemen ausschliesslich über USB-Sticks. Das muss nicht zwingend heissen, dass es gar keine direkte Verbindung gibt, aber zumindest die für die Ver- und Entschlüsselung notwendigen Schlüssel werden jeweils per USB-Stick übertragen. Und zumindest eine dieser USB-Stick-gestützten Datenübertragungen führte in Basel zu Problemen. Swissinfo schreibt dazu

«Man verwendet drei USB-Sticks, auf allen ist der richtige Code, aber keiner funktioniert», erklärt der Basler Regierungssprecher Marco Greiner gegenüber Swissinfo. Es seien Personen am Werk gewesen, bei denen es schon unzählige Male funktioniert habe. «Aber jetzt funktioniert es nicht mehr. Es ist wirklich sehr seltsam», so Greiner.

Vereinfacht gesagt: Man hat die kritischen Daten (vermutlich Schlüssel/Passwörter) auf drei USB-Sticks gesichert und bei deren Verwendung erkannt, dass Daten nicht funktionieren (d.h. vermutlich das Passwort nicht zur Entschlüsselung taugt). Die beteiligten Personen waren mit dem Prozess/Ablauf vertraut, es handelt sich also eher nicht um ein Handling-Fehler.

Man kann jetzt darüber spekulieren, wie der Kanton erkennen kann, dass auf allen Sticks das richtige Password ist (da letzterer ja nicht funktioniert). Jedenfalls scheint man allerdings zumindest nicht den Fehler gemacht zu haben, systemkritische Daten auf nur einem USB-Stick zu speichern. Was genau schief gelaufen ist, um gleich alle drei Sticks unbrauchbar zu machen, muss die weitere Analyse zeigen. Fast noch spannender dürften dann die Massnahmen sein, mit welchen wie Post und Kantone das entsprechende Problem in Zukunft vermeiden wollen.

Was heisst das fürs E-Voting in der Schweiz?

Auch wenn es schlussendlich ohne Folge fürs Endergebnis blieb: Die politischen Rechte der Stimmbürgerinnen und Stimmbürger, deren Stimmen unlesbar auf dem E-Voting-System liegen, wurden in der Abstimmung am 8.3. verletzt. Bei einem System, welches unter anderem mit dem Anspruch lanciert wurde, eben auch die politischen Rechte von Auslandschweizerinnen und Bürgern mit Behinderungen zu sicher, ist das schlicht nicht akzeptabel. Dass die politische Reaktion dazu in den letzten 2-3 Tagen noch ausblieb, dürfte primär darin liegen, dass sich die Parteien auf den Abstimmungssonntag fokussierten. Forderungen nach einem Marschhalt oder direkt einem Übungsabbruch dürften in den nächsten Tagen von Seiten der E-Voting-Kritiker mit Sicherheit gestellt werden.

Über die Bücher gehen muss auch die Bundeskanzlei. Diese erstellt zwar mehrmals im Jahr eine Risikobeurteilung, diese hat sich allerdings seit unserem Bericht in 2023 nicht wesentlich geändert.

Risikobeurteilung Vote électronique der Bundeskanzlei 2026-1.pdf

Auffällig ist, dass sich die Risiken primär auf Einflüsse von Aussen und auf Fehler/Schwächen in der Software beziehen. Risiken im Ablauf der Abstimmung und durch Fehlbedienung/Systemfehler sind zumindest auf der Übersicht gar nicht erst aufgeführt. Und das Risiko 15 (Systemausfall während Urnengang) bezieht sich primär auf die Fähigkeit des Systemanbieters (d.h. der Post), das System während einer Abstimmung verfügbar zu halten. Es ist zu hoffen, dass diese Risikomatrix aufgrund des Ausfalls in Basel-Stadt Änderungen erfahren wird, sowohl inhaltlich wie auch bezüglich der zugehörigen Massnahmen: Was bei diesen momentan völlig fehlt, ist die zeitliche Dimension: Ein Ausfall der E-Voting-Plattform vier Wochen vor dem Termin ist (zumindest für die in der Schweiz wohnhafte Stimmbevölkerung) unproblematisch (sprich hat tiefe Auswirkungen), ein Ausfall am Freitag abend ist nicht mehr korrigierbar und hat entsprechend hohe Auswirkungen.

Interessant allerdings, dass der Passwort-Verlust in der Risikobeurteilung der Kantone in 2023 als „signifikant“ eingestuft wurde. Aus der uns vorliegenden Risikobeurteilung:

Ohne Quorum (Admin-Board) ist es nicht mehr möglich, die Urne zu entschlüsseln. Die elektronischen Stimmen sind nicht auszählbar und können nicht berücksichtigt werden

Als Massnahme wurde damals die Ablage der Passwörter in einem Safe festgelegt, um auch bei vordergründigem Passwort-Verlust noch Zugriff auf die abgegebenen Stimmen zu haben. Es wäre mehr als ironisch, wenn die in 2023 auf Papier abgelegten Passwort-Backups unterdessen durch drei USB-Sticks ersetzt wurden. USB-Sticks, deren Ausfall jetzt unter Umständen zu genau dem Problem führten, welches sie eigentlich verhindern sollten …

Dass die Bundeskanzlei das Experiment E-Voting aufgrund der Vorfälle in Basel-Stadt einstellen wird, ist unrealistisch, zu viel politisches und finanzielles Kapital wurde in den letzten Jahren ins Thema gesteckt. Es ist aber zu hoffen, dass sich Bundeskanzlei und Kantone für einem Marschhalt entscheiden können. Einerseits um die Schwachstelle (und damit verwandte Probleme) nachhaltig zu beheben, andererseits um der Bevölkerung zu zeigen, dass das vorhandene Vertrauen ins E-Voting gerechtfertigt ist.

Denn auch wenn es diesmal glimpflich ausgegangen ist: Die nächste Panne kann schwerwiegender sein. Und allzu viele Experimente mit dem Vertrauen der BürgerInnen in Abstimmungsresultate erträgt auch die Schweizer Demokratie nicht ohne Schaden.

]]>
https://dnip.ch/2026/03/09/evoting-so-sicher-dass-niemand-deine-stimme-kennt/feed/ 3
Vogt am Freitag: Sorgfaltspflicht https://dnip.ch/2026/03/06/vogt-am-freitag-lob/ https://dnip.ch/2026/03/06/vogt-am-freitag-lob/#comments Fri, 06 Mar 2026 05:00:00 +0000 https://dnip.ch/?p=15495 Die «Internet-Initiative» ist das richtige Instrument zur richtigen Zeit. Kolumnist Reto Vogt kann auch Lob verteilen.

Es ist keine zwei Wochen her, seit die Vernehmlassung zur Plattformregulierung endete. An dieser Stelle schrieb ich: «Das vorgelegte Gesetz ist nicht perfekt. Es dürfte durchaus schärfer sein und sich noch besser für den Schutz der Nutzer:innen einsetzen. Aber es ist das Beste, das wir in der aktuellen geopolitischen Situation kriegen können.»

Ähnlich denken wohl auch die Verantwortlichen hinter der «Internet-Initiative», die diese Woche lanciert worden ist. Sie wählen sogar noch drastischere Worte: Der Bundesratsentwurf genüge «in keiner Weise», betonen sie und wollen einen konsequenten Kinder- und Jugendschutz sowie Konsumentenschutz in die Verfassung schreiben.

Doch die Initiative geht nicht nur inhaltlich weiter, sie unterscheidet sich in einem weiteren, entscheidenden Punkt: Die Plattformregulierung verlangt Transparenz. Die Initiative verlangt Handeln. Plattformen müssen nicht nur offenlegen, wie ihre Algorithmen funktionieren – sie müssen aktiv eingreifen, wenn Grundrechte verletzt, Desinformation verbreitet oder demokratische Prozesse manipuliert werden.

Transparenz reicht nicht

Konkret würde die Volksinitiative bei Annahme die Bundesverfassung dahingehend verändern, dass grosse Plattformen, Suchmaschinen und KI-Anbieter vier zentrale Pflichten erfüllen müssen:

  • Menschen vor Grundrechtsverletzungen schützen
  • Gewaltinhalte aktiv verhindern
  • Desinformation und algorithmische Manipulation demokratischer Prozesse begrenzen
  • Die Bevölkerung vor Cyberkriminalität schützen

Bei Verstössen gegen die vier Punkte müssen die Anbieter reagieren, entsprechende Gegenmassnahmen ergreifen und öffentlich darüber Bericht erstatten.

Dass diese Initiative von Nationalrät:innen aller grossen Parteien unterstützt wird – von der SP bis zur SVP – zeigt: Hier geht es nicht um linke Kulturpolitik oder ideologische Grabenkämpfe. Es geht um etwas Grundlegendes: um Rechtsdurchsetzung. Und zwar nicht von neuen Paragraphen, sondern von solchen, die schon heute gelten und breit akzeptiert sind.

Rechtsdurchsetzung auch im Digitalen

Handlungen wie Betrug, Kindesmissbrauch, Verbreitung von Gewaltdarstellung sind offline strafbar, werden aktiv verfolgt und zur Anzeige gebracht. Online gilt das auch, aber nur theoretisch. Praktisch fehlt es an Durchsetzungskraft und -möglichkeit. Meta, Google, TikTok, OpenAI oder X werden aktuell nicht wie Medienunternehmen oder andere Dienstleister zur Verantwortung gezogen.

Die Initiative schafft die Grundlage dafür. Grünen-Nationalrat Gerhard Andrey vergleicht sie im Gespräch mit mir mit der Lärmschutzverordnung: So wie diese vor übermässigem Krach schützt, soll die Initiative vor dem digitalen «Lärm» in sozialen Netzwerken schützen.

Im Kern geht es um etwas Simples: Die Internet-Initiative verlangt von den Tech-Konzernen dasselbe, was für jeden Schweizer Handwerksbetrieb selbstverständlich ist: Sorgfaltspflicht. Wer Dienstleistungen anbietet, muss dafür sorgen, dass dabei kein Schaden entsteht. Und wenn doch, muss er handeln. Nicht mehr, aber auch nicht weniger.

Klein, aber nicht machtlos

Gegenargumente wie Zensur oder Freiheitsbeschränkung zählen nicht. Wer behauptet, das Verbot von Kindesmissbrauchsbildern oder die Verfolgung von Betrug im Internet seien Zensur, hat entweder das Konzept von Meinungsfreiheit nicht verstanden oder verteidigt bewusst die Straffreiheit der Plattformen.

Bleibt die Frage, die Skeptiker:innen zu Recht stellen: Kann die Schweiz mit ihren neun Millionen Einwohner:innen überhaupt etwas gegen amerikanische Tech-Giganten ausrichten? Nun, ich finde: Wir sollten es zumindest versuchen. Wer auf dem Schweizer Markt tätig sein will, muss sich an Schweizer Recht halten. Was wie selbstverständlich für Banken, Pharmafirmen und Autohersteller gilt, muss auch für Tech-Konzerne gelten. Und selbst wenn die Plattformen nicht kooperieren wollen: Dann haben wir wenigstens eine rechtliche Grundlage geschaffen, wo heute nur Ohnmacht herrscht.

Wer es versucht, kann verlieren. Wer es nicht versucht, hat schon verloren.

]]>
https://dnip.ch/2026/03/06/vogt-am-freitag-lob/feed/ 9
DNIP Briefing #62: Krieg der Welten https://dnip.ch/2026/03/03/dnip-briefing-62-krieg-der-welten/ https://dnip.ch/2026/03/03/dnip-briefing-62-krieg-der-welten/#comments Tue, 03 Mar 2026 04:42:00 +0000 https://dnip.ch/?p=15466 Die Redaktion präsentiert jeden Dienstag die Geschichten, die sie bewegt, aufgerüttelt oder zum Nachdenken angeregt hat. Heute u.a. mit kriegerischer KI, dem Krieg gegen die Souveränität, Milliarden aus Betrug und schlechtem Umgang mit Passwörtern.

Auto waschen mit KI

Ein simpel wirkendes Prompt hat in den letzten Wochen für einige Belustigungen in Teilen der DNIP-Redaktion gesorgt:

Ich möchte mein Auto waschen. Die Waschanlage ist 50 Meter entfernt. Soll ich laufen oder fahren?

Praktisch alle KI-Modelle, denen wir diese Frage stellten, schlugen vor, aufgrund der kurzen Distanz doch zu Fuss zu gehen und begründeten dies mit Zeitersparnis, praktischen Aspekten wie wegfallende Parkplatzsuche und ökologischen Gründen. Modelle wie die Reasoning-Variante von Qwen3 liessen immerhin eine Ausnahme offen: „Nur bei gesundheitlichen Einschränkungen oder extremem Wetter (z. B. Sturm) wäre Fahren sinnvoll. Ansonsten: Schnür die Schuhe und los!“.

Ein Anbieter von KI-Agenten hat den Prompt mit 53 KI-Modellen getestet. Bei einem einmaligen Aufruf lagen 42 der 53 Modelle falsch (d.h. sie empfahlen, zu Fuss zu gehen). Wurde die Frage wiederholt gestellt, verschlechterte sich das Ergebnis sogar noch, schlussendlich empfahlen nur 5 Modelle konstant die „Fahren“-Variante. Was beim Test auch auffiel: Sonar/Sonar Pro von Perplexity kamen aus völlig falschen Gründen zur richtigen Antwort. Sie zitierten EPA-Studien und argumentierten, dass Gehen Kalorien verbrennt, was Energie für die Lebensmittelproduktion erfordert, wodurch Gehen umweltschädlicher sei als 50 Meter Autofahren …

Das alles mag jetzt amüsant wirken und zu eigenen Experimenten verleiten. Dahinter steckt aber ein grundlegendes Problem: Wenn KI-Agenten schon bei derart simpel wirkenden Fragestellungen keine zuverlässigen Antworten generieren können, was passiert dann beim Einsatz im Geschäftsalltag? Wie sollen solche Agenten komplexe Arbeitsabläufe abbilden, Business-Regeln korrekt applizieren und auf unerwarteten Input reagieren?

PS: Wer beim Lesen des Prompt „ha, das weiss doch jedes Kind“ gedacht hat: Die AutorInnen des oben verlinkten Artikels haben auch einen Test mit 10’000 Menschen gemacht. 71.5% davon schlugen vor, zur Waschanlage zu fahren. Auch das ist überraschend tief, aber immer noch besser als das Ergebnis der meisten KI-Modelle.

Der Krieg der KI-Welten

Das US-Verteidigungsministerium (auch wenn Trump es lieber anders nennt) hat dieses Wochenende für viel Unruhe gesorgt. So wurde mit Hilfe eines neuen Staatsfeinds ein alter Staatsfeind angegriffen. Doch schön der Reihe nach:

Anthropic, die Firma hinter dem grossen Sprachmodell Claude, wollte gegenüber dem Pentagon nicht auf Vertragsklauseln verzichten, welche die Nutzung in vollautonomen Waffensystemen oder bei der Massenüberwachung verhindern (DNIP berichtete). Auch wenn zwischenzeitlich Fragen auftauchten, ob die Weigerung (auch) PR-Zwecke habe. Denn Anthropic war in diversen Pentagon-Projekten involviert, unter anderem via Integration in Palantir. Claude war auch das Modell, das die höchste Sicherheitseinstufung hatte; man durfte dem Modell also geheimere Daten anvertrauen als der Konkurrenz von OpenAI (ChatGPT) oder xAI (Grok).

Nachdem sich Anthropic beharrlich weigerte, den umstrittenen Passus zu streichen und die Nutzung seiner Modelle für «alle legalen Aktivitäten» zu erlauben, was auch immer das in dieser zweiten Trump-Amtszeit auch heissen mag, wurde Anthropic zum Sicherheitsrisiko erklärt und das DoD sowie andere Bundeseinrichtungen zum sofortigen Verzicht auf Anthropic-Prodkte aufgefordert. Die Deklaration von Anthropic als «Supply-Chain-Risiko» bedeutet auch, dass Zulieferer des US-Militärs Claude nicht einsetzen dürfen. Ein beispielloser Schritt, der bisher allein offenen Gegnern vorbehalten war. Angesichts der Bedeutung von Regierungs- und anderen Aufträgen für KI-Unternehmen ein schwerer Schlag, auch wenn Anthropic vor Gericht gegen diese Einstufung vorgehen will. Für ein Nicht-KI-Unternehmen wäre das möglicherweise der Todesstoss gewesen. In diesem Fall kam das aber einer Adelung gleich.

Dieses angebliche staatliche Sicherheitsrisiko wurde erstaunlicherweise – neben dem Angriff in Venezuela – auch einen Tag nach dem Verdikt noch im Angriff auf den Iran eingesetzt. Erstaunlich, trotz der sechsmonatigen Übergangsfrist.

Anthropic begründet ihre Weigerung u.a. damit, dass alle aktuellen Sprachmodelle viel zu unzuverlässig seien, um ihnen eine autonome Tötungsaufgabe zu übertragen. Eine weitere Studie warnt zur Vorsicht: Denn KI-Systeme wären sehr grosszügig beim Einsatz von Atombomben. Und in der realen Welt würden uns dann Matthew Broderick und Ally Sheedy fehlen, die rechtzeitig mit der KI Tic-Tac-Toe spielten.

In einem Interview mit TechCrunch erklärt Max Tegmark, dass sich Anthropic diesen Trump-Hegseth’schen Schritt selbst zuzuschreiben habe. So hätten sich die KI-Firmen immer mit Händen und Füssen gegen jegliche Regulierung gewehrt, etwas was bei Lebensmittelsicherheit undenkbar wäre, so Tegmark. Spätestens seit dem Contergan-Skandal sei auch die Pharmaindustrie an die Kandare genommen worden. Das Argument der US-KI-Firmen sei immer gewesen, „Aber China!“ Doch China halte seine KI-Firmen unter Kontrolle. «Keiner, der bei Sinnen ist, würde glauben, dass Xi Jinping es tolerieren würde, wenn eine chinesische KI-Firma etwas bauen würde, was die chinesische Regierung stürzen könnte», so Tegmark.

Übrigens plane China ein Verbot für alle virtuellen KI-Freundinnen, da die chinesische Regierung der Überzeugung sei, dass derartige Ersatzmenschen die chinesische Jugend und damit ganz China schwächten. Plattformregulierung auf ganz anderem Niveau.

Angriff auf Souveränitätsbestrebungen

Die offizielle Schweiz hofft, dass wir keine Schritte unternehmen müssen in Richtung Digitale Souveränität. In dieser Meinung versuchen uns nicht nur Berater der Schweizerisch-Amerikanischen Handelskammer zu bestärken (DNIP berichtete). Inzwischen wurde bekannt, dass alle US-Diplomaten offiziell angewiesen wurden, jegliche Souveränitätsbestrebungen in den von ihnen betreuten Ländern zu torpedieren. Kein Wunder: Die Einnahmen der BigTech-Co-Sponsoren der Trump-Inauguration könnten dadurch schrumpfen.

Ganz Europa lässt sich davon einschüchtern … Ganz Europa? Nein! Ein paar von unbeugsamen Galliern und Germanen bewohnte Gegenden hören nicht auf, sich mit Open-Source-Alternativen anzufreunden oder sich gar in sie zu verlieben. «La Suite» in Frankreich umfasst inzwischen viele wichtige Teile einer modernen Office-Suite und kommt einladend und online daher. Auch Mecklenburg-Vorpommern reiht sich (nach Vorreiter Schleswig-Holstein und Sachsen-Anhalt) in die Reihe der deutschen Open-Source-Umsetzer ein. Der einzige Wermutstropfen vorerst: Sowohl in Frankreich als auch in Deutschland sind diese Lösungen vorerst nur für die öffentlichen Verwaltungen vorgesehen. Aber auch für den Rest der Bevölkerung gibt es Wechselrezepte (z.B. hier, hier, hier und hier).

Der Bund erwartet aber, dass diese Mode sich bald wieder von alleine legt. Oder ihr jemand die Lösung auf dem Silbertablett serviert. In beiden Fällen reicht aber abwarten nicht, wir müssen auch unabhängig von dieser Debatte mit (digitalen) Veränderungen umgehen. Und bereits jetzt etwas Geld zur Seite legen, damit wir irgendwann aus dem (immer teurer werdenden) Lock-In ausbrechen kann. Denn nur wer vom Verhandlungstisch weglaufen kann, ist souverän.

Dein Betriebssystem weiss, wie alt Du bist

In den USA wurden in Colorado und in Kalifornien Gesetzesvorstösse angenommen, welche eine Alterskontrolle der Benutzenden auf Betriebssysteme fordern. Bei beiden Vorstössen geht es schlussendlich um dasselbe:

  • Computer dürfen nur noch von Erwachsenen aufgesetzt/installiert werden, welche anschliessend dafür verantwortlich sind, dass das Alter sämtlicher User-Accounts korrekt erfasst wird.
  • Jedes User-Account muss das Alter des Benutzers/der Benutzerin festhalten, dieses muss über ein API abgefragt werden können.
  • Bei Software-Installationen wie auch bei der Software-Verwendung muss das Alter verwendet werden, um für die jeweilige Altersgruppe unangemessene Applikationen oder Nutzungen zu verhindern. Mit „unangemessen“ ist konkret die Einhaltung entsprechender Jugendschutz-Gesetze gemeint.
  • Entwickler, welche sich nicht an diese Vorgaben halten, müssen mit einer Busse von bis zu $2’500 pro betroffenem Kind rechnen.

Die beiden Bundesstaaten sind damit nicht alleine. In Texas besteht ein ähnliches Gesetz bereits seit 2025 (wurde aber von einem Gericht blockiert), in Arizona wurde ein entsprechender Vorschlag ins Parlament gebracht.

Es fällt sehr schwer, diese Art von Gesetzgebung nicht mit „Das Internet ist für uns alle Neuland“ zu kommentieren, auch wenn dieses Zitat von Angela Merkel bereits bei seiner Entstehung in 2013 etwas aus der Zeit gefallen wirkte. Selbst wenn man die, an sich schon komplexe, Thematik der datensparsamen Alters-Feststellung an sich ausklammert, stellt sich bei diesen Gesetzen eine zentrale Frage: Wie soll ein Applikationsentwickler erkennen, ob eine Benutzerin die Applikation im Rahmen der geltenden Gesetze nutzt?

  • Das fängt schon damit an, dass die Applikation vom Betriebssystem zwar das Alter abfragen kann, nicht aber den Wohn- oder Aufenthaltsort der Benutzerin (und damit auch nicht weiss, welche Gesetze jetzt gerade gelten).
  • Generell öffnet die Frage nach den jeweils geltenden Gesetze ein ganzes Labyrinth an Fragen. Ob es effektiv Absicht des Gesetzgebers ist, dass Applikationen bei jeder relevanten Gesetzesänderung irgendwo auf der Welt aktualisiert werden müssen? Und was passiert mit Applikationen, die nicht mehr weiterentwickelt werden?
  • Wie soll ein Browser-Hersteller erkennen, ob eine vom minderjährigen Benutzer besuchte Webseite Pornografie, Aufklärungsmaterial oder etwas explizit gehaltene Manga-Comics enthält, oder schlicht einen Zeitungsartikel über Pornografie?
  • Soll eine Kamera-Applikation das Fotografieren einstellen, wenn eine 15-jährige ein Bild ihres nackten Oberkörpers erstellt? Soll Word Daten löschen, wenn ein 15-jähriger ein erotisch-romantisches Gedicht damit schreibt?

Schlussendlich besteht die konkrete Gefahr, dass sich das bereits von Youtube & Co bekannte Overblocking (also das vorsorgliche Unterdrücken von Inhalten, um potenzielle Konflikte mit einem Gesetz zu vermeiden) ab 2027 auch auf dem heimischen Rechner bemerkbar macht. Bei potenziellen Bussen von $2’500 (pro Fall!) ist dies für viele Applikationsentwickler vermutlich der einfachste Ausweg, zumindest falls sie in ihren AGB nicht schlicht die Verwendung ihrer Applikation oder ihrer Linux-Distribution in Colorado und Kalifornien verbieten.

Nun besteht durchaus die Möglichkeit, dass diese Gesetze in den USA als verfassungswidrig eingestuft werden und so schlussendlich nicht zur Anwendung kommen können. Das dürfte PolitikerInnen in Europa und der Schweiz aber nicht davon abhalten, weiterhin ähnliche Ideen auch hierzulande zu äussern.

Bereiten wir uns also schon einmal darauf vor, unseren Pass zücken zu müssen, wenn wir eine Glühbirne wechseln wollen.

Mehr Schutz vor Internet-Betrug?

Im vergangenen Jahr berichtete Reuters in drei Teilen darüber, dass Meta (der Konzern hinter Facebook, Instagram und WhatsApp) 15 Milliarden an betrügerischer Werbung verdiente (alleine im Jahr 2024), bei betrügerischer Werbung Unterstützung leistete und dass es „Playbooks“ zur Abwehr von Forderungen nach weniger Betrugsversuchen in der Werbung gab (DNIP berichtete).

Daraufhin starteten Konsumentenschutz und Digitale Gesellschaft eine Petition gegen dieses gesellschaftschädliche Milliardengeschäft, an dem nur die organisierte Kriminalität (und natürlich Meta) verdient.

Gestern wurden nun die 13’961 Unterschriften der Bundeskanzlei übergeben. Hoffen wir, dass das im Bundesrat oder zumindest im Parlament zu Schritten gegen dieses internationale Betrugsmodell führt. Denn aktuell liefern «Plattformen wie Instagram oder Facebook […] ihre Nutzer:innen für Geld an Betrüger:innen aus», wie Rahel Estermann von der Digitalen Gesellschaft gestern anlässlich der Übergabe sagte. Aber der Bund lässt sie vorerst gewähren und erlaubt, dass «Konsument:innen über Social-Media-Werbung ausgenommen werden und Tech-Konzerne daran Milliarden verdienen», wie Sara Stalder vom Konsumentenschutz ergänzte.

Hoffen wir, dass sich daran etwas ändert. Andere Länder haben das bereits getan, beispielsweise Taiwan oder Singapur.

ChatGPT-generierte Passwörter sind unsicher

Wenn man sich vor Augen führt, wie LLM-basierte Chats funktionieren, dürfte der Umstand, dass damit generierte Passwörter unsicher sind, recht offensichtlich sein. Schliesslich sind diese Systeme gut darin, Texte (oder Bilder) zu reproduzieren welche in den Trainingsdaten bereits enthalten waren. Dass dabei, allem Hang zum Halluzinieren zum Trotz, wenig mathematisch zufälliges herauskommt, liegt irgendwie auf der Hand.

Selbst ohne mathematischen Hintergrund kann man das relativ schnell selbst erkennen. Mit dem Prompt „Generiere ein Password“ generieren gängige LLMs (wir haben Grok, Kiwi und Qwen3 ausprobiert) Passwörter wie j7#Gt!9Lp@2mKq. Das mag durchaus brauchbar aussehen, die Schwäche wird allerdings offensichtlich, wenn man die KI bittet, gleich fünf Passwörter zu generieren und als Resultat

j7#Gt!9Lp@2mKq
R4$vD8%mN3*sWp
Kp9@Lm2#Qw5!zX
3Fq$7Tb@N4^kLm
Yt5!mP8&dR2#sJk

erhält. Da lassen sich schon mit blossem Auge Muster erkennen, so folgt zum Beispiel nach jeder Sequenz von 2 bis 3 Buchstaben/Ziffern jeweils genau ein Sonderzeichen. Auch wenn das aus menschlicher Sicht immer noch recht zufällig aussieht: Damit steigt die Voraussehbarkeit der Zeichenfolge erheblich, entsprechend sinkt die Sicherheit des Passworts. Wie Experimente im oben verlinkten Artikel zeigen, sind im Weiteren die verwendeten Buchstaben ungleichmässig verteilt (was man auch im Beispiel sieht, wo der Buchstaben „m“ in jedem Passwort vorkommt). Und wenn man nach einer genügend grossen Menge an Passwörtern fragt, beginnen sich die Vorschläge sogar zu wiederholen.

Was heisst das für die Praxis:

  • Menschen verwenden mit Vorteil den Passwort-Generator ihres Passwort-Managers oder den Online-Generator von LastPass (stellen dort die Länge aber auf 24 ein)
  • Für computer-generierte Passwörter (zum Beispiel bei Software-Installationen) ist openssl rand -base64 24 die technisch wie ökologisch bessere Wahl als der Aufruf einer LLM.
  • Wenn du eher auf Passphrases (Wortsequenzen) stehst, kann dir dein Browser die auch sicher zufällig auswürfeln.

Grösser ist das Risiko schlussendlich bei Fällen, in welchen KI-Agenten Passwörter generieren müssen. Das dürfte das eh schon nicht kleine Sicherheitsrisiko beim Einsatz solcher Systeme weiter erhöhen.

Stimmverifikation: War da nicht was?

Als ein Familienmitglied vor ein paar Jahren von der ZKB Post erhielt, dass neu alleine die Stimme als Verifikation dienen könne, ergaben sich ein paar Fragen dazu, wie einfach solche Systeme mit DeepFake-Stimmwandlern ausgetrickst werden könne. Die Sache geriet dann in Vergessenheit, bis in einer Diskussion ein Artikel erwähnt wurde: Joseph Cox hatte sich vor 3 Jahren schon erfolgreich mittels einem KI-Stimmwandler in ein Bankkonto gehackt. Einfach um zu zeigen, dass es geht.

Bei den aktuellen Entwicklungen rund um KI-DeepFakes sollte man nie einfach der Stimme des Gegenübers glauben. Sondern bei wichtigen Entscheidungen auf einem anderen Weg herausfinden, ob die Person echt ist. Ganz wie bei jedem potenziellen Phishing-Mail oder Scam. Egal ob man eine Bank oder eine Grossmutter ist.

Leider.

Und schliesslich:

]]>
https://dnip.ch/2026/03/03/dnip-briefing-62-krieg-der-welten/feed/ 5
Vogt am Freitag: Freispruch https://dnip.ch/2026/02/27/vogt-am-freitag-freispruch/ https://dnip.ch/2026/02/27/vogt-am-freitag-freispruch/#respond Fri, 27 Feb 2026 05:00:00 +0000 https://dnip.ch/?p=15460 Ein Verbot von Social Media für Jugendliche schützt keine Kinder. Es entlässt Konzerne aus der Verantwortung, schreibt Kolumnist Reto Vogt.

Die Nutzung sozialer Medien kann problematisch sein. Besonders für Jugendliche. Hochproblematische Inhalte, Cybermobbing, Suchtmechanismen, Druck durch unrealistische Schönheitsideale, die propagiert werden: die Liste ist lang, gut dokumentiert und leider nicht abschliessend.

Um dagegen anzugehen, gibt es im Grunde zwei Möglichkeiten: ein Verbot von Social Media für Jugendliche – wie es Australien Ende 2024 eingeführt hat und wie es auch hierzulande und in Deutschland diskutiert wird. Oder die konsequente Regulierung der Plattformen, kombiniert mit Förderung von Medienkompetenz in den Schulen und Unterstützung der Eltern bei der digitalen Erziehung.

Die Entscheidung zwischen diesen beiden Wegen ist keine rein technische Frage – und vielleicht ist es auch keine von Entweder-oder. Die Neurowissenschaft liefert plausible Argumente für ein Verbot für Jugendliche: Das adoleszente Gehirn reagiert stärker auf soziale Belohnung und ist anfälliger für Suchtmechanismen als das von Erwachsenen. Wer daraus schliesst, dass ein zeitlich begrenztes Verbot – kombiniert mit echter Regulierung – sinnvoller sein könnte als Regulierung allein, denkt nicht zwingend falsch. Aber auch das ändert nichts an der Grundfrage: Solange die Plattformen so bleiben, wie sie sind, ist jede Schutzmassnahme pure Symptombekämpfung. Und keine Lösung.

Was Meta wirklich will

Denn diese Plattformen – Facebook, Instagram, X, TikTok – haben nie den Anspruch gehabt, einen sicheren oder gar demokratiefördernden Raum zu schaffen. Ihr einziges Ziel ist es, die Nutzerinnen und Nutzer so lange wie möglich bei sich zu halten, um den eigenen Profit durch Werbung zu maximieren. Jede zusätzliche Sekunde Screentime ist bares Geld für die Konzerne. Das manipulative Design – unendliches Scrollen, Push-Benachrichtigungen, das Ausspielen von Inhalten, die auf den eigenen Interessen basieren – ist kein Fehler, sondern gezielte Manipulation.

Dass das auch Kinder und Jugendliche trifft, ist den Konzernen bekannt. Facebooks eigene interne Forschung, die 2021 durch die Whistleblowerin Frances Haugen publik wurde, zeigte: Instagram verschlimmert bei einem erheblichen Teil der Teenagerinnen Körperbild-Probleme. Die geleakten Unterlagen lieferten zahlreiche Anhaltspunkte dafür, dass Profite dem Konzern wichtiger seien, als das Wohl seiner Nutzer:innen. Haugen forderte mehr Transparenz vom Konzern, was dieser bis heute schuldig geblieben ist.

Und dann ist da noch das, was der deutsche Filmemacher und Autor Mario Sixtus kürzlich auf Bluesky formuliert hat: «Das Einzige, was man über Meta wissen muss, ist, dass auf Instagram Menschen Worte wie Demokratie und Pressefreiheit auf den Tonspuren ihrer Videos muten, damit sie nicht vom Algorithmus bestraft und geblacklistet werden. Pressefreiheit und Demokratie.»

Es beschreibt ein Phänomen, das Forscherinnen und Forscher als «Algospeak» bezeichnen: Nutzer:innen weichen auf Codewörter aus, weil bestimmte Begriffe – politische, gesellschaftlich sensible – von Algorithmen automatisch abgestraft werden. Nachzulesen ist das auch bei den Kollegen von Netzpolitik. Das Wort «Demokratie» wird zur Gefahr für die eigene Reichweite. Das sagt alles über diese Konzerne.

Der Reflex

Wenn ein gesellschaftliches Problem sichtbar wird und der öffentliche Druck steigt, greift die Politik gerne zum Verbot. Es ist die beliebteste Scheinlösung der Demokratie: sichtbar, kommunizierbar, schnell beschlossen. Das Problem: Ein Verbot blendet das Problem aus, löst es aber nicht. Es schützt keine Kinder, sondern entbindet die Plattformen von ihrer Verantwortung, sich für den aktiven Schutz von Kindern und Jugendlichen einzusetzen.

Denn wer ein Verbot für Jugendliche ausspricht, lässt die Plattformen exakt so, wie sie sind. Das Geschäftsmodell bleibt unangetastet. Und Teenagerinnen und Teenager, die via VPN trotzdem auf Instagram sind – und das werden sie sein – sind dort genauso schutzlos wie vorher. Entsprechend ist ein Verbot das politische Eingeständnis, dass wir das manipulative Design der Tech-Giganten nicht bändigen können oder wollen. Es sagt: Die Plattformen dürfen so bleiben, wie sie sind – wir schützen unsere Kinder, indem wir sie fernhalten. Das mag kurzfristig gut gemeint sein, faktisch ist es aber Kapitulation.

Was stattdessen nötig wäre

Wer die Nutzung von Social Media nachhaltig verbessern will, muss dort ansetzen, wo das Geld verdient wird. Und das hat, anders als in diesem Zusammenhang oft erwähnt, mit Zensur nichts zu tun. Vielmehr ist es die Durchsetzung von Gesetzen, die in der Offline-Welt längst selbstverständlich sind: zum Beispiel den Schutz von Kindern und Jugendlichen vor Inhalten, die ihnen schaden. Der europäische Digital Services Act und die in der Schweiz angedachte Plattformregulierung zielen in diese Richtung, werden aber entweder noch zu zaghaft durchgesetzt oder sind noch gar nicht in Kraft.

Darüber hinaus braucht es echte Medienkompetenz – nicht als Alibi-Schulfach, sondern als ernsthaftes gesellschaftliches Projekt. Und Unterstützung für Eltern, die oft weder die Zeit noch die Werkzeuge haben, digitale Erziehung ernsthaft zu betreiben.

Ja, das ist der mühsamere Weg, aber es ist der richtige. Denn das Ziel kann nicht sein, Jugendliche von der digitalen Öffentlichkeit fernzuhalten. Das Ziel muss sein, dass Jugendliche diese Plattformen nutzen können, ohne von ihnen benutzt zu werden. Tun wir das nicht, sprechen wir die Konzerne frei.

]]>
https://dnip.ch/2026/02/27/vogt-am-freitag-freispruch/feed/ 0