The post stdout, stderr und /dev/null – Die wichtigsten Linux-Datenströme verständlich erklärt appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>2>&1 oder /dev/null. Diese Konzepte gehören zu den grundlegenden Bausteinen von Unix-Systemen und sind entscheidend dafür, wie Programme miteinander kommunizieren.

Dieser Artikel erklärt verständlich, wie diese Mechanismen funktionieren und warum sie so wichtig sind.
Jedes Programm unter Linux besitzt automatisch drei sogenannte Standard-Streams:
| Stream | Nummer | Bedeutung |
|---|---|---|
| stdin | 0 | Standardeingabe |
| stdout | 1 | Standardausgabe |
| stderr | 2 | Fehlerausgabe |
Diese drei Kanäle bilden die Grundlage für die Kommunikation zwischen Programmen.
stdin (Standard Input)
Hierüber erhält ein Programm Daten. Meist kommt diese Eingabe von der Tastatur oder von einem anderen Programm.
stdout (Standard Output)
Hierüber gibt ein Programm seine normale Ausgabe aus. Standardmäßig wird diese im Terminal angezeigt.
stderr (Standard Error)
Fehlermeldungen werden über einen eigenen Kanal ausgegeben, getrennt von der normalen Ausgabe.
Der große Vorteil dieses Konzepts ist, dass sich diese Datenströme flexibel umleiten oder miteinander verbinden lassen.
Ein klassischer Befehl:
echo "Hallo Welt"
Das Programm echo schreibt den Text auf stdout, und das Terminal zeigt ihn an:
Hallo Welt
Die Ausgabe wird also vom Programm erzeugt und über den Standard-Ausgabekanal an das Terminal geschickt.
Mit dem >-Operator lässt sich die Standardausgabe in eine Datei umleiten.
ls > dateiliste.txt
Die Dateiliste wird jetzt nicht mehr im Terminal angezeigt, sondern in die Datei dateiliste.txt geschrieben.
Da Fehlermeldungen über stderr laufen, können sie separat umgeleitet werden:
ls /existiert /nichtda 2> fehler.txt
Hier passiert folgendes:
Oft möchte man sowohl normale Ausgabe als auch Fehler gemeinsam in einer Datei speichern. Dafür gibt es die bekannte Umleitung:
command > output.log 2>&1
Bedeutung:
> output.log leitet stdout in die Datei um2>&1 sorgt dafür, dass stderr an denselben Ort geschickt wirdDas Ergebnis: Beide Ausgaben landen im gleichen Logfile.
Ein wichtiger Punkt dabei ist die Reihenfolge.
Die korrekte Variante lautet:
command >file 2>&1
Wenn man die Reihenfolge vertauscht, funktioniert die Umleitung nicht wie erwartet.
Mit >> wird eine Datei nicht überschrieben, sondern erweitert:
command >> logfile 2>&1
Neue Ausgaben werden dann am Ende der Datei angehängt.
Diese Form sieht man häufig bei Logfiles.
Unter Linux existiert eine spezielle Gerätedatei namens:
/dev/null
Alles, was dorthin geschrieben wird, verschwindet einfach.
Man nennt sie deshalb oft scherzhaft ein schwarzes Loch für Daten.
command > /dev/null
Die normale Ausgabe verschwindet, Fehlermeldungen bleiben sichtbar.
command > /dev/null 2>&1
Jetzt werden sowohl stdout als auch stderr verworfen.
Diese Technik wird häufig in Scripts oder Cronjobs eingesetzt, wenn man bewusst keine Ausgabe erzeugen möchte.
Ein besonders mächtiges Unix-Konzept sind Pipelines.
Dabei wird die Ausgabe eines Programms direkt zur Eingabe eines anderen Programms weitergeleitet.
ps aux | grep python
Ablauf:
ps aux erzeugt eine Prozessliste über stdout| leitet diese Ausgabe weitergrep bekommt die Daten über stdin und filtert sieSo lassen sich komplexe Aufgaben aus vielen kleinen Werkzeugen zusammensetzen.
Viele moderne Dienste nutzen das stdout/stderr-Prinzip direkt für Logging.
Services schreiben ihre Logs einfach auf stdout oder stderr.
systemd speichert diese automatisch im Journal.
Logs anzeigen:
journalctl -u servicename
Live-Logs:
journalctl -u servicename -f
Auch Container folgen diesem Prinzip. Anwendungen schreiben Logs einfach auf stdout.
Abrufen der Logs:
docker logs containername
Live verfolgen:
docker logs -f containername
Deshalb besitzen viele Container gar keine eigenen Logfiles mehr.
Das stdout/stderr-Konzept gehört zu den elegantesten Ideen im Unix-Design. Es erlaubt:
Wer regelmäßig mit Linux arbeitet, wird diese Mechanismen ständig verwenden – oft sogar ohne es bewusst zu merken.
Gerade in Shell-Scripts und bei der Serveradministration sind sie unverzichtbar.
Wenn man das Prinzip einmal verstanden hat, öffnet sich eine der größten Stärken von Unix-Systemen: kleine Werkzeuge lassen sich beliebig kombinieren.
The post stdout, stderr und /dev/null – Die wichtigsten Linux-Datenströme verständlich erklärt appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Palantir, die Sehsteine der USA in Europa appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Doch es gibt ein drittes Puzzleteil, das dieses Bild vervollständigt und die Bedrohung auf eine neue Ebene hebt: die Firma Palantir Technologies und ihr Zusammenspiel mit dem US-Biometriesystem HART. Während CLOUD Act und FISA Section 702 den rechtlichen Rahmen für Datenabschöpfung liefern, stellt Palantir die Technologie bereit, um diese Daten zu verknüpfen, zu analysieren und in verwertbare Informationen umzuwandeln. Und das Beunruhigendste daran: Diese Technologie hält gerade Einzug bei der deutschen Polizei.

Die Geschichte von Palantir Technologies beginnt dort, wo man es erwarten würde: an der Schnittstelle zwischen Silicon Valley und dem US-Geheimdienstapparat. Im Jahr 2003 gründete der libertäre Tech-Milliardär Peter Thiel – bereits bekannt als Mitgründer von PayPal – zusammen mit mehreren Mitgründern das Unternehmen in Palo Alto. Die entscheidende Anschubfinanzierung kam von In-Q-Tel, dem Risikokapitalarm der CIA. Dieser Umstand allein sollte jedem in Europa die Alarmglocken schrillen lassen.
Der Name „Palantir" ist dabei kein Zufall. In J.R.R. Tolkiens „Herr der Ringe" sind die Palantíri magische Sehsteine, die den Blick an weit entfernte Orte ermöglichen. Mächtig, verführerisch – aber auch gefährlich, denn wer hineinblickt, riskiert, selbst beobachtet zu werden. Die Symbolik hätte kaum treffender sein können.
Das Unternehmen vertritt die Philosophie der „Augmented Intelligence" – der erweiterten Intelligenz. Die Grundidee: Künstliche Intelligenz allein reicht nicht aus, um komplexe Bedrohungen zu erkennen. Stattdessen braucht man menschliche Analysten, die mit Hilfe von Software riesige Datenmengen aus unterschiedlichsten Quellen zusammenführen und auswerten können. Was zunächst für die Terrorismusbekämpfung entwickelt wurde, ist längst zu einem universellen Überwachungsinstrument geworden.
Palantir betreibt zwei Hauptprodukte, die ihr kennen solltet:
Gotham ist das Flaggschiff für Geheimdienste, Militär und Strafverfolgung. Es wurde entwickelt, um Verbindungen zwischen Personen, Orten, Objekten und Ereignissen zu erkennen und zu visualisieren. Gotham kann strukturierte Daten wie Kontaktlisten, Funkzellenabfragen und Reisehistorien mit unstrukturierten Daten wie Fotos, Videoaufnahmen und Textdokumenten verknüpfen. Zu den Kunden gehören die CIA, die NSA, das FBI, das US-Verteidigungsministerium, ICE (Immigration and Customs Enforcement) und – wie ihr gleich erfahren werdet – auch deutsche Polizeibehörden.
Foundry richtet sich an Unternehmen und zivile Behörden und hilft dabei, massive Datensätze zu vereinheitlichen und zu visualisieren. Während der COVID-19-Pandemie bot Palantir Regierungen weltweit Foundry kostenlos an – ein Angebot, das Großbritannien und Griechenland annahmen. Hessen hatte ebenfalls Interesse bekundet, entschied sich letztlich aber dagegen. Die Strategie dahinter ist offensichtlich: Kostenloser Einstieg, langfristige Abhängigkeit.
Palantirs Verwicklung in den US-Überwachungsapparat ist nicht bloß historisch. Sie ist aktuell und tiefgreifend. Seit 2013 liefert Palantir der Einwanderungsbehörde ICE Systeme wie FALCON und das Investigative Case Management (ICM). Diese Werkzeuge wurden nachweislich bei Arbeitsplatzrazzien, groß angelegten Durchsetzungsoperationen und Ermittlungen gegen Asylsuchende eingesetzt. Im Jahr 2025 ging Palantir noch einen Schritt weiter: Für 30 Millionen Dollar entwickelt das Unternehmen „ImmigrationOS" – eine KI-gestützte Plattform, die Einwanderer identifizieren, verfolgen und für Abschiebungen markieren soll. Der Prototyp sollte bis September 2025 stehen.
Palantirs Systeme ziehen dabei Daten aus einer Vielzahl von Regierungsdatenbanken: Passregister, Sozialversicherungsdaten, IRS-Steuerdaten, Kennzeichenerfassungssysteme und – das ist der entscheidende Punkt – biometrische Datenbanken. Hier kommt HART ins Spiel.
Und hier wird auch die Verbindung zu unseren vorangegangenen Artikeln deutlich: Palantir unterliegt als US-Unternehmen sowohl dem CLOUD Act als auch FISA Section 702. Wie wir in unserem FISA-Artikel beschrieben haben, wurde Section 702 im April 2024 durch den RISAA (Reforming Intelligence and Securing America Act) erheblich ausgeweitet. Die neue Definition von „Electronic Communications Service Providers" ist so breit gefasst, dass praktisch jedes Unternehmen mit Zugang zu Kommunikationsinfrastruktur zur Kooperation mit US-Geheimdiensten gezwungen werden kann. Die brisante Frage, welchen konkreten Verpflichtungen Palantir nach dem verschärften FISA unterliegt und was das für Daten in deutschen Polizeisystemen bedeutet, wurde bei einer Anhörung im Bundestag-Innenausschuss im April 2024 von keinem einzigen Abgeordneten gestellt.
Während Palantir die Analysetechnologie liefert, wird auf der anderen Seite des Atlantiks eine Datenbank aufgebaut, die das Rückgrat der US-Überwachungsinfrastruktur bilden soll: HART – Homeland Advanced Recognition Technology. Dieses System wird vom US-Department of Homeland Security (DHS) entwickelt und soll die veraltete IDENT-Datenbank ablösen, die bereits heute Informationen über mehr als 300 Millionen Personen enthält und täglich rund 350.000 biometrische Transaktionen verarbeitet.
HART ist nicht einfach nur ein Upgrade. Es ist ein Quantensprung in der Überwachungskapazität. Das System wird mindestens sieben verschiedene biometrische Identifikatoren unterstützen: Fingerabdrücke, Gesichtserkennung, Iris-Scans, DNA-Profile, Stimmerkennung, Narben und Tätowierungen – sowie eine offene Kategorie für „andere Modalitäten". In jüngsten Dokumenten hat das DHS diese Definition sogar noch erweitert: Tipprhythmus, Herzsignatur und Gefäßmuster stehen ebenfalls zur Diskussion.
HART ist ein Projekt der Superlative. Das geplante Budget beträgt 6,158 Milliarden Dollar. Das System soll Daten für mindestens 75 Jahre speichern. Es wird voraussichtlich 6,7 Millionen Iris-Scans und 1,1 Milliarden Gesichtsbilder initial aufnehmen. Und es wird nicht nur biometrische Daten enthalten, sondern auch biografische Informationen wie Namen, Geburtsdaten, Herkunftsländer, Regierungs-IDs – sowie höchst subjektive Daten wie „Beziehungsmuster" und „Begegnungsdaten" aus Polizeikontakten.
HART wird auf der Amazon Web Services (AWS) GovCloud gehostet – derselben Infrastruktur, auf der auch andere DHS-Systeme laufen. Mehr als 41 Menschenrechtsorganisationen, darunter Access Now, die Electronic Privacy Information Center (EPIC) und Mijente, haben AWS in einem öffentlichen Brief aufgefordert, das Hosting einzustellen. Ihre Warnung: AWS ermöglicht damit die Schaffung einer invasiven Biometriedatenbank, die Überwachung und Abschiebungen auf ein neues Niveau heben wird.
HART erfasst nicht nur verdächtige Personen oder Einwanderer. In der Datenbank landen auch US-Bürger und Personen, die niemals eine Straftat begangen haben. Jede Person, die jemals einen Kontakt mit dem DHS hatte – sei es bei einer Grenzkontrolle, einem Visumantrag, einer Einbürgerung oder auch nur als Zeuge – kann in HART erfasst werden. Jeder solcher „Encounter" wird protokolliert und kann in einem Feedbackloop zu weiteren Überprüfungen führen.
Der Zugriff auf HART ist dabei keineswegs auf das DHS beschränkt. Das System wird mit föderalen Behörden wie dem FBI geteilt, mit Bundesstaats- und Kommunalpolizei und – hier wird es für euch als Europäer besonders relevant – mit ausländischen Regierungen. Europol hat operative Abkommen mit den USA im Bereich „ausländische Kämpfer", und Daten fließen über das FBI als Vermittler auch an europäische Behörden. Im Bereich der Terrorismusbekämpfung verschwimmen die Grenzen zwischen nationalen und internationalen Datenbeständen zunehmend.
Palantir ist zwar nicht direkt an der Entwicklung von HART beteiligt, aber das Unternehmen liefert die Analyseplattformen, die auf genau diese Daten zugreifen. Palantirs ICM (Investigative Case Management) und FALCON können Informationen aus IDENT/HART mit Daten aus Dutzenden anderen Quellen verknüpfen – Steuerdaten, Kennzeichenerfassung, Soziale Medien, Fluggastdaten. Die neue ImmigrationOS-Plattform wird diese Integration noch vertiefen.
Die Kombination ist bestechend einfach: HART sammelt und speichert die biometrischen und biografischen Daten von Hunderten Millionen Menschen. Palantir analysiert diese Daten, erkennt Muster, erstellt Profile und markiert Zielpersonen. FISA Section 702 und der CLOUD Act liefern die rechtliche Grundlage für den Zugriff – auch auf Daten, die bei europäischen Tochtergesellschaften von US-Firmen liegen. Was in unseren vorangegangenen Artikeln als theoretische Bedrohung beschrieben wurde, manifestiert sich hier in konkreter Technologie.
Und das DHS gibt offen zu, dass es die Genauigkeit und Qualität der Daten in HART nicht gewährleisten kann, da viele Daten von Drittparteien stammen – darunter auch kommerzielle Anbieter wie LexisNexis und Clearview AI. Trotzdem sollen diese fehlerhaften Daten 75 Jahre lang aufbewahrt werden. Die Redress-Mechanismen – also die Möglichkeiten für Betroffene, ihre Daten einzusehen, zu korrigieren oder löschen zu lassen – sind praktisch nicht existent.
Palantirs Einzug in Europa begann nicht in Deutschland, sondern bei Europol in Den Haag. Nach den Terroranschlägen in Paris im November 2015 richtete Europol die Taskforce „Fraternité" ein. Über den niederländischen Arm der Unternehmensberatung Capgemini – und nicht direkt über Palantir – wurde Gotham beschafft und ab 2016 getestet. Seit Mitte 2017 setzte Europol die Software für die operative Analyse aller terrorismusbezogenen Daten ein.
Die verschlungene Beschaffung über Capgemini als Zwischenhändler wirft bis heute Fragen auf. Der Rahmenvertrag wurde bereits 2012 geschlossen – vier Jahre vor dem ersten dokumentierten Einsatz. Die EU-Kommission erläuterte nie, wofür die Software in dieser Zwischenzeit genutzt wurde. Die Ausgabenobergrenze lag bei 7,5 Millionen Euro; tatsächlich ausgegeben wurden rund vier Millionen.
Besonders brisant: Europol teilte die Analyseergebnisse nicht nur mit EU-Mitgliedstaaten, sondern auch mit Drittstaaten – darunter den USA. Im Bereich „ausländische Kämpfer" flossen Daten über das FBI direkt an US-Behörden. Dies geschah parallel zu einer Zeit, in der der EuGH das Privacy-Shield-Abkommen kippte und feststellte, dass die USA kein angemessenes Datenschutzniveau bieten.
Laut dem Vize-Direktor von Europol wurde das Palantir-System schließlich 2021 durch eine Eigenentwicklung ersetzt – offiziell wegen mangelnder Kompatibilität mit anderen Europol-Systemen. Europol gab auf Journalistenanfragen allerdings nur zwei von 69 relevanten Dokumenten frei. Aus einem davon geht hervor, dass Europol sogar rechtliche Schritte gegen Palantir wegen Leistungsmängeln erwogen, diese jedoch aus Kostengründen verworfen hatte.
Hessen war das erste Bundesland, das Palantirs Gotham unter dem Namen „Hessendata" einführte. 2017 beschaffte das Innenministerium die Software – der Preis wurde aus „Gründen des Sicherheitsinteresses" nicht veröffentlicht. Offiziell ging es um Terrorismusbekämpfung und organisierte Kriminalität. In der Praxis sieht es anders aus: In Hessen greifen Polizeibehörden jährlich rund 15.000 Mal auf das System zu. Nur in etwa einem von zwanzig Fällen steht dies im Zusammenhang mit schweren Gefahren. Die Software wurde unter anderem bei der Aufklärung von Geldautomatensprengungen und – deutlich weniger dramatisch – bei Fahrraddiebstählen eingesetzt.
Hessens Innenminister Roman Poseck (CDU) verteidigt den Einsatz: Ein Verzicht würde eine „spürbare Sicherheitslücke" hinterlassen. Datenschützer sehen das anders: Hessendata verknüpft polizeiliche Datenbanken mit Social-Media-Daten. Dass dabei keine Daten in die USA übertragen werden, ist zwar vertraglich zugesichert – aber nur schwer nachprüfbar.
Auch Nordrhein-Westfalen nutzt eine angepasste Version von Palantir unter der Bezeichnung DAR (Datenbankübergreifende Analyse und Recherche). Mit Hilfe der Software konnten Ermittler das bisher größte Missbrauchsnetzwerk in Deutschland aufdecken, das 2021 in Bergisch Gladbach zerschlagen wurde. Dieser Erfolg wird regelmäßig als Argument für die Software angeführt.
Im Spätsommer 2024 startete Bayern den Einsatz der Palantir-Software VeRA (Verfahrensübergreifende Recherche- und Analyseplattform). Bayern hat dabei eine Schlüsselrolle: Das Bayerische Landeskriminalamt schloss nach einem EU-weiten Vergabeverfahren einen Rahmenvertrag mit Palantir, der es allen Polizeibehörden des Bundes und der Länder ermöglicht, sich ohne eigenes Vergabeverfahren anzuschließen. Der Preis: 5,4 Millionen Euro Anschaffungskosten plus 500.000 Euro jährliche Betriebskosten.
VeRA führt verschiedene Datenbanken zusammen, die Informationen über mehr als 30 Millionen Menschen enthalten, und durchsucht sie präventiv. Der bayerische Datenschutzbeauftragte bewertete das Vorgehen als unverhältnismäßig, da auch Daten unbescholtener Personen einbezogen werden. Im LKA Bayern arbeiten mittlerweile rund 200 geschulte Analysten mit der Software.
Im November 2025 stimmte der Landtag Baden-Württemberg trotz erheblicher Widerstände – auch aus den Reihen des grünen Koalitionspartners – für die Einführung von Palantir. Eine Petition sammelte 13.000 Unterschriften dagegen. Eine Urabstimmungsinitiative bei den Grünen wurde eingereicht. Landespolizeipräsidentin Stefanie Hinz erklärte vor dem Landtag, Palantir sei der „technologische Marktführer" und es gebe keine vergleichbaren, zeitnah verfügbaren Alternativen.
Langfristig will Baden-Württemberg gemeinsam mit Partnern wie Airbus Defence and Space und Schwarz Digits (der IT-Sparte der Schwarz Gruppe) eine eigene, souveräne Software entwickeln. Bis dahin nutzt man Palantir. Ein Versprechen, das den Lock-in-Effekt praktisch garantiert: Ist das System erst einmal implementiert und die Polizei darauf geschult, wird ein Wechsel extrem teuer und aufwendig.
Seit Sommer 2025 prüft das Bundesinnenministerium unter Alexander Dobrindt (CSU) den bundesweiten Einsatz. Dobrindt erklärte öffentlich, er habe „kein Störgefühl gegenüber einer Software, nur weil sie vom Anbieter Palantir kommt." Bundesjustizministerin Hubig (SPD) äußerte sich dagegen skeptisch und betonte, es könnten nur rechtsstaatlich konforme Mittel eingesetzt werden.
Im Koalitionsvertrag der schwarz-roten Bundesregierung ist zwar von „automatisierter Datenrecherche und -analyse" mittels KI die Rede. Bedingung sei jedoch die Wahrung verfassungsrechtlicher Vorgaben und der „digitalen Souveränität". Ob Palantir diese Bedingungen erfüllt, ist mehr als fraglich.
Deutschland steht mit seinem Palantir-Einsatz nicht allein. Frankreichs Inlandsgeheimdienst DGSI setzt die Software ein. Großbritannien nutzte Palantir-Produkte im Gesundheitswesen. Polen setzt sie auf dem Arbeitsmarkt ein. Und die NATO hat einen Vertrag mit dem US-Unternehmen geschlossen. Die stille Expansion schreitet voran.
Am 16. Februar 2023 fällte das Bundesverfassungsgericht ein wegweisendes Urteil. Die Verfassungsbeschwerden, eingereicht von der Gesellschaft für Freiheitsrechte (GFF), richteten sich gegen die gesetzlichen Grundlagen für den Einsatz von Palantir-Software in Hessen und Hamburg. Das Gericht urteilte klar: Die bestehenden Regelungen sind verfassungswidrig. Sie verstoßen gegen das Recht auf informationelle Selbstbestimmung (Art. 2 Abs. 1 i.V.m. Art. 1 Abs. 1 GG).
Die zentrale Aussage des Gerichts: „Die Befugnisse lassen die automatisierte Verarbeitung unbegrenzter Datenbestände mittels rechtlich unbegrenzter Methoden zu." Data Mining, KI-Einsatz und Predictive Policing werden weder ausgeschlossen noch rechtlich eingeschränkt. Das Gericht forderte mindestens eine „konkretisierte Gefahr" als Eingriffsanlass.
Das Urteil hätte ein Wendepunkt sein können. Stattdessen geschah Folgendes: Die betroffenen Bundesländer passten ihre Polizeigesetze formal an – und machten im Wesentlichen weiter wie bisher. Hessen überarbeitete Hessendata, schwärzt nun Opfernamen und passte einige Features an. Bayern erließ ein neues Polizeiaufgabengesetz, das den Einsatz „konform" zum Urteil ermöglichen soll. Im Juli 2025 reichte die GFF jedoch eine erneute Verfassungsbeschwerde ein – diesmal gegen Bayerns VeRA-Einsatz, da die neuen Regelungen weiterhin unverhältnismäßig seien und keine wirksamen Kontroll- und Schutzmechanismen vorsehen.
Hier kommen unsere früheren Artikel direkt zum Tragen. Palantir Technologies ist ein US-Unternehmen mit Hauptsitz in Denver, Colorado. Es unterliegt uneingeschränkt US-amerikanischem Recht – einschließlich dem CLOUD Act und FISA Section 702.
Wie wir in unserem CLOUD-Act-Artikel ausführlich dargelegt haben, können US-Behörden von US-Unternehmen die Herausgabe von Daten verlangen – unabhängig davon, wo diese Daten gespeichert sind. Und wie unser FISA-Artikel zeigt, verpflichtet Section 702 US-Unternehmen zur Kooperation mit der NSA bei der Überwachung von Nicht-US-Bürgern.
Die entscheidende, unbeantwortete Frage lautet: Welchen konkreten Verpflichtungen unterliegt Palantir nach dem verschärften FISA? Kann die NSA Palantir anweisen, über Gotham/VeRA gewonnene Erkenntnisse aus deutschen Polizeidatenbanken herauszugeben? Palantir beteuert, selbst keine Daten zu sammeln, zu verkaufen oder für eigene Zwecke zu verarbeiten. Doch das ist nicht die relevante Frage. Die relevante Frage ist, ob Palantir auf Anweisung von US-Behörden Zugriff auf Daten gewähren muss, die über seine Software verarbeitet werden.
Innenminister Dobrindt verweist auf ein Gutachten des Fraunhofer-Instituts, das den Vorwurf von Datenabflüssen widerlege. Doch dieses Gutachten prüfte den Quellcode zu einem bestimmten Zeitpunkt. Ein Software-Update kann die Situation jederzeit ändern. Und die rechtliche Verpflichtung eines US-Unternehmens zur Kooperation mit US-Geheimdiensten lässt sich nicht durch ein technisches Gutachten widerlegen – sie ergibt sich aus dem Gesetz.
Die Kritiker verweisen auf ein anschauliches Beispiel: den Starlink-Einsatz in der Ukraine. Dort hat sich gezeigt, wie ein einzelnes US-Tech-Unternehmen durch politisch motivierte Entscheidungen massiven Einfluss auf die Sicherheitslage eines ganzen Landes nehmen kann. Die Vorstellung, dass die innere Sicherheit Deutschlands von den Geschäftsentscheidungen eines Unternehmens in Colorado abhängt, dessen Gründer Peter Thiel einer der größten Unterstützer von Donald Trump ist, sollte jeden demokratisch gesinnten Bürger beunruhigen.
Ein weiteres fundamentales Problem: Gotham ist proprietäre Software. Der Quellcode ist ein Geschäftsgeheimnis. Entscheidungen, die auf den Analysen von Palantir beruhen, sind für Betroffene nicht nachvollziehbar. Wie soll man sich gegen einen Verdacht wehren, dessen Zustandekommen man nicht versteht? Wie sollen Gerichte die Rechtmäßigkeit einer Maßnahme prüfen, wenn die entscheidenden Algorithmen ein Geschäftsgeheimnis sind?
Constanze Kurz, Sprecherin des Chaos Computer Clubs, bringt es auf den Punkt: Die zusammengeführten Daten landen in einer „absichtlich undurchschaubaren Software des US-Konzerns Palantir, von der sich die Polizei auf Jahre abhängig macht." Das seien klare Ausschlusskriterien für Daten aus dem Innenleben der Polizei.
Die Palantir-Software erfasst nicht nur Tatverdächtige. Wer als Zeuge bei einem Autounfall aussagt, Anzeige gegen jemanden erstattet oder einfach nur am selben Bahnhof in eine Kontrolle gerät wie eine gesuchte Person, kann im System landen. Auch Opfer von Straftaten, Kontaktpersonen, Auskunftspersonen – sie alle sind in den polizeilichen Datenbanken gespeichert, die Palantir durchforstet.
Die GFF warnte ausdrücklich: „Schon wer Anzeige erstattet, Opfer einer Straftat wird oder einfach nur zur falschen Zeit am falschen Ort ist, kann durch die Software ins Visier der Polizei geraten." Besonders alarmierend ist dies im Kontext des Erstarkens rechtsextremer Kräfte. Gelangt die AfD in eine Landesregierung, könnte sie theoretisch auf Palantir-Systeme zugreifen und diese für ihre Zwecke nutzen – etwa nach dem Vorbild der Trump-Administration zur gezielten Erfassung und Abschiebung von Menschen.
Für diejenigen unter euch, die unsere Artikelserie verfolgt haben, wird nun das Gesamtbild deutlich. Es handelt sich nicht um isolierte Bedrohungen, sondern um ein ineinandergreifendes System:
Der CLOUD Act (Artikel 1 dieser Serie) schafft die rechtliche Grundlage dafür, dass US-Behörden von US-Unternehmen wie Palantir die Herausgabe von Daten verlangen können – unabhängig davon, ob diese auf Servern in Deutschland, den Niederlanden oder anderswo in der EU liegen.
FISA Section 702 (Artikel 2 dieser Serie) ermöglicht es der NSA, die Kommunikation von Nicht-US-Bürgern anlasslos und massenhaft zu überwachen – über US-Anbieter wie die, deren Infrastruktur Palantir nutzt. Seit der RISAA-Erweiterung 2024 ist der Kreis der zur Kooperation verpflichteten Unternehmen erheblich gewachsen.
HART sammelt biometrische und biografische Daten von Hunderten Millionen Menschen in einer zentralisierten Datenbank, die mit US-Behörden, lokaler Polizei und ausländischen Regierungen geteilt wird.
Palantir liefert die Technologie, die all diese Datenströme zusammenführt, analysiert und in verwertbare Informationen umwandelt. Und genau diese Technologie wird nun bei der deutschen Polizei eingeführt.
Die Frage, die sich jeder stellen sollte: Wenn ein US-Unternehmen, das von der CIA mitfinanziert wurde, das mit NSA, FBI und ICE zusammenarbeitet, das dem CLOUD Act und FISA Section 702 unterliegt – wenn dieses Unternehmen Zugriff auf die zusammengeführten Datenbanken der deutschen Polizei erhält, die Informationen über mehr als 30 Millionen Menschen enthalten: Wie sicher sind diese Daten dann wirklich vor dem Zugriff der US-Geheimdienste?
Die Debatte um Palantir ist noch nicht entschieden. Es gibt Handlungsmöglichkeiten:
Informiert euch und andere. Das größte Problem ist die mangelnde öffentliche Aufmerksamkeit. Die meisten Menschen wissen nicht einmal, dass ihre Daten in Polizeidatenbanken landen können, ohne dass sie jemals verdächtigt wurden – und dass diese Daten nun potenziell mit US-Überwachungstechnologie analysiert werden.
Unterstützt Organisationen, die sich für digitale Grundrechte einsetzen. Die Gesellschaft für Freiheitsrechte (GFF) führt die juristischen Kämpfe gegen den Palantir-Einsatz. Der Chaos Computer Club liefert die technische Expertise. Campact organisiert öffentlichen Druck. Diese Arbeit braucht Unterstützung.
Fordert europäische Alternativen. Die Innenministerkonferenz hat im Juni 2025 beschlossen, eine europäische Alternative zu Palantir suchen zu wollen. Dieser Beschluss muss mit Leben gefüllt werden. Quelloffene, transparente, demokratisch kontrollierbare Software – entwickelt in Europa, für europäische Rechtsstandards.
Setzt euch politisch ein. Schreibt euren Landtags- und Bundestagsabgeordneten. Fragt sie konkret: Welchen FISA-Verpflichtungen unterliegt Palantir? Wie wird garantiert, dass keine Daten an US-Behörden fließen? Warum gibt es keine Transparenz über den Quellcode? Warum wird keine europäische Open-Source-Alternative priorisiert?
Achtet auf eure eigene Datenspur. In unseren vorangegangenen Artikeln haben wir bereits empfohlen, auf europäische Alternativen zu setzen: Nextcloud statt Google Drive, Tuta oder Proton Mail statt Gmail, Signal oder Element/Matrix statt WhatsApp. Jede Entscheidung für einen europäischen Dienst ist eine Entscheidung gegen die Abhängigkeit von US-Technologie.
In Tolkiens Welt galt eine simple Wahrheit: Wer die Palantíri leichtfertig nutzt, riskiert, von einer dunkleren Macht beobachtet und manipuliert zu werden. Die Parallelen zur realen Welt sind frappierend.
Palantirs Gotham mag ein leistungsfähiges Werkzeug für die Polizeiarbeit sein. Die Erfolge bei der Aufklärung schwerer Straftaten sind real. Doch der Preis, den wir dafür zahlen, ist zu hoch: die Untergrabung des Grundsatzes der Zweckbindung, die Schaffung einer undurchsichtigen Überwachungsinfrastruktur, die Abhängigkeit von einem US-Unternehmen mit engen Geheimdienstverbindungen, und die faktische Aushöhlung der digitalen Souveränität.
Die Lösung ist nicht, auf moderne Analysetechnologie zu verzichten. Die Lösung ist, europäische, quelloffene, demokratisch kontrollierbare Alternativen zu entwickeln. Bis dahin gilt: Jede Polizeidatenbank, die über Palantir-Software analysiert wird, ist potenziell eine Datenbank, auf die US-Geheimdienste Zugriff haben könnten. Nicht weil Palantir böswillig wäre – sondern weil US-Recht dies ermöglicht und das Unternehmen gar keine Wahl hätte.
Unsere drei Artikel zeigen ein konsistentes Bild: Der CLOUD Act, FISA Section 702, HART und Palantir sind keine voneinander isolierten Phänomene. Sie sind die Zahnräder einer Maschinerie, die darauf ausgelegt ist, globale Datenströme unter US-amerikanische Kontrolle zu bringen. Und Europa öffnet dieser Maschinerie gerade bereitwillig die Tür.
Dieser Artikel ist Teil einer Serie über den US-Überwachungsapparat und seine Auswirkungen auf europäische Bürger. Die vorangegangenen Artikel behandeln den CLOUD Act und FISA Section 702. Die dargestellten Einschätzungen basieren auf aktuellen Gerichtsurteilen, Berichten von Aufsichtsbehörden und Analysen anerkannter Bürgerrechtsorganisationen (EFF, GFF, CCC, Campact, EPIC), ersetzen jedoch keine individuelle Rechtsberatung. Stand: Februar 2026.
The post Palantir, die Sehsteine der USA in Europa appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Keep Android Open – Google will Android schliessen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Im August 2025 hat Google angekündigt, dass ab September 2026 keine Anwendung mehr auf zertifizierten Android-Geräten installiert werden kann, wenn der Entwickler sich nicht zuvor bei Google registriert und verifiziert hat. Das gilt nicht nur für Apps aus dem Play Store – sondern für sämtliche Installationswege, einschliesslich Sideloading und alternative App-Stores wie F-Droid.
Konkret verlangt Google von Entwicklern:
Der Rollout soll zunächst in Brasilien, Indonesien, Singapur und Thailand beginnen. Ab 2027 plant Google die weltweite Einführung – also auch in Europa und der Schweiz.
Google begründet die Massnahme mit Sicherheit. Laut eigener Analyse enthalten Apps aus Sideloading-Quellen angeblich fünfzigmal mehr Malware als Apps aus dem Play Store. Die Verifizierung soll verhindern, dass böswillige Akteure anonym schädliche Apps verbreiten.
Das klingt auf den ersten Blick nachvollziehbar, hält einer genaueren Prüfung allerdings nicht stand. Denn die Identitätsverifizierung prüft nur, wer der Entwickler ist – nicht, was die App tut. Ein verifizierter Entwickler kann weiterhin problemlos Malware verbreiten. Kriminelle werden schlicht gestohlene Identitäten nutzen oder den Verifizierungsprozess als triviale Hürde betrachten, da sie ohnehin bereits Gesetze brechen. Gleichzeitig werden legitime Entwickler abgeschreckt, die ihre Privatsphäre schützen wollen oder sich nicht von Google abhängig machen möchten.
F-Droid bringt es auf den Punkt: Vertrauen entsteht nicht dadurch, dass man die rechtliche Identität eines Entwicklers überprüft. Ob eine App schädlich ist oder nicht, lässt sich dadurch nicht feststellen – unabhängig davon, ob der Entwickler bei Google verifiziert ist. Die Art, wie F-Droid freie Software direkt aus dem Quellcode baut und an Nutzer verteilt, entspricht dem Prinzip, nach dem die meisten Linux-Distributionen seit Jahrzehnten Software ausliefern, wenn auch mit einigen Nachteilen. Diese Verteilungsmechanismen haben sich über Jahrzehnte bewährt, gelten als extrem sicher und bilden das Rückgrat der modernen Computing-Infrastruktur weltweit. Niemand hat je vorgeschlagen, dass Linux-Distributionen sicherer werden, indem eine zentrale Instanz jeden Entwickler verifiziert.
Wer ein Android-Gerät gekauft hat, tat dies im Vertrauen auf das Versprechen einer offenen Plattform, auf der jede beliebige Software ausgeführt werden kann. Ab September 2026 wird Google jedoch ohne Zustimmung der Nutzer ein Betriebssystem-Update ausspielen, das dieses Recht dauerhaft einschränkt. Ab diesem Zeitpunkt entscheidet Google, welchen Anwendungen ihr „vertrauen dürft" – und welchen nicht.
Besonders brisant: Diese Änderung betrifft zertifizierte Android-Geräte, also praktisch alle handelsüblichen Smartphones und Tablets, die mit Google-Apps und Play Protect ausgeliefert werden. Das schliesst Samsung, Xiaomi, OnePlus, Motorola, Google Pixel und unzählige weitere Hersteller ein.
Für Entwickler wird es unmöglich, Anwendungen zu erstellen und direkt mit Freunden, Familie oder der eigenen Community zu teilen, ohne zuvor Googles Genehmigung einzuholen. Das ursprüngliche Versprechen von Android – das wichtigste Argument, mit dem sich das System einst vom iPhone abhob – beruhte auf seiner Offenheit. Offenbar ist Google inzwischen überzeugt, genug Kontrolle über das Android-Ökosystem zu besitzen, um dieses Prinzip nun aufzugeben.
Für die Open-Source-Gemeinschaft ist die Lage besonders kritisch. F-Droid, der wichtigste alternative App-Store für freie und quelloffene Android-Software, kann seine Entwickler nicht dazu zwingen, sich bei Google zu registrieren und dafür zu bezahlen. Gleichzeitig kann F-Droid die App-Kennungen nicht einfach übernehmen, da dies faktisch die exklusiven Vertriebsrechte für diese Anwendungen an sich reissen würde. F-Droid hat unmissverständlich erklärt: Googles Registrierungsdekret wird das F-Droid-Projekt und andere freie Distributionsquellen in ihrer heutigen Form beenden.
Regierungen, die sich auf Android-Geräte in der Verwaltung verlassen, überlassen die Kontrolle über die Rechte ihrer Bürger und ihre digitale Souveränität einem US-Konzern. Einem Konzern, der bekannt dafür ist, sich auch aussegerichtlichen Forderungen autoritärer Regime zu beugen, um missliebige – aber völlig legale – Anwendungen zu entfernen. Die für Verwaltung und Wirtschaft unverzichtbare Software wird damit den Launen eines fernen, unkontrollierbaren Unternehmens ausgeliefert.
Gerade für europäische Länder, die sich intensiv um digitale Souveränität bemühen, wäre diese Entwicklung ein herber Rückschlag. Der Digital Markets Act (DMA) der EU soll genau solche Machtkonzentration verhindern – doch ob er gegen Googles Pläne greifen wird, ist noch offen.
Ende 2025 deutete Google in einem Blogbeitrag vage an, dass es einen „erweiterten Ablauf" geben könnte, der es „erfahrenen Nutzern" eventuell erlaubt, „die Risiken der Installation nicht verifizierter Software zu akzeptieren". Viele Medien berichteten daraufhin, Google habe eingelenkt.
Die Realität sieht anders aus. Googles offizielle Entwicklerseite stellt weiterhin unmissverständlich fest:
Ab September 2026 müssen alle Android-Apps von bestätigten Entwicklern registriert werden, damit sie auf zertifizierten Android-Geräten installiert werden können.
Solange Google keine konkreten Belege dafür vorgelegt hat, dass es möglich sein wird, den Verifizierungsprozess ohne unangemessene Hürden zu umgehen, sollte man dem Glauben schenken, was auf der offiziellen Seite steht: Alle Apps von nicht registrierten Entwicklern werden blockiert.
Ein wichtiger technischer Aspekt: Die Verifizierungspflicht betrifft ausschliesslich zertifizierte Android-Geräte – also solche, die mit Google Mobile Services (GMS) und dem Play-Protect-Framework ausgeliefert werden. Geräte mit Custom ROMs wie GrapheneOS, LineageOS, CalyxOS, /e/OS oder anderen AOSP-basierten Systemen ohne Google-Dienste sind von dieser Einschränkung nicht direkt betroffen. Auf diesen Systemen können weiterhin beliebige APKs installiert werden.
Das klingt zunächst beruhigend – ist es aber nur bedingt. Denn die überwältigende Mehrheit der Android-Nutzer verwendet Standard-Firmware mit Google-Diensten. Custom ROMs sind selbst unter technisch versierten Nutzern eine Nischenerscheinung. Nicht jeder kann oder will sein Gerät mit einem Custom ROM betreiben – sei es wegen mangelnder technischer Kenntnisse, fehlender Geräteunterstützung oder weil bestimmte Apps (Banking, Firmensoftware) ein zertifiziertes Gerät voraussetzen.
Zudem nutzen auch viele Anwender auf Stock-Android bewusst F-Droid und Apps von freien Entwicklern als Ergänzung oder Alternative zum Play Store. Genau diese Nutzer werden durch die neuen Regeln direkt betroffen sein. Es ist daher wichtig, sich auch dann für die Offenheit von Android einzusetzen, wenn man selbst ein Custom ROM nutzt – denn die Vielfalt des Ökosystems lebt davon, dass freie Software auf allen Android-Geräten installiert werden kann, nicht nur auf einer Handvoll Enthusiasten-Geräten.
Es gibt zudem ein weiteres Risiko: Wenn mehr Nutzer auf Custom ROMs ausweichen, um die Verifizierungspflicht zu umgehen, steigt paradoxerweise die Angriffsfläche. Denn das Entsperren des Bootloaders – bei den meisten Geräten die Voraussetzung für ein Custom ROM – deaktiviert die vom Hersteller etablierte Vertrauenskette auf Hardwareebene. Nur wenige Security-fokussierte ROMs wie GrapheneOS unterstützen das erneute Sperren des Bootloaders nach der Installation. Bei allen anderen Geräten bleibt der Bootloader entsperrt – mit entsprechenden Risiken.
Registriert euch nicht für Googles Early-Access-Programm, führt keine Identitätsprüfung durch und akzeptiert keine Einladungen zur Android-Entwicklerkonsole. Nur durch das Einverständnis der Entwickler kann Googles Plan gelingen. Ermutigt andere Entwickler und Organisationen, sich ebenfalls nicht zu registrieren. Nutzt Community-Foren, soziale Netzwerke und Blogs, um die Botschaft zu verbreiten. Die Bibliothek FreeDroidWarn kann in eigene Projekte eingebunden werden, um Nutzer direkt in der App über die Problematik zu informieren.
Regulierungsbehörden auf der ganzen Welt sind ernsthaft besorgt über Monopole und die zunehmende Machtkonzentration im Technologiesektor. Beschwerden sind besonders wirksam, wenn sie von Bürgern des jeweiligen Landes eingereicht werden und in der Amtssprache verfasst sind.
Für die Europäische Union:
Für die Schweiz:
Was Google hier plant, geht weit über eine technische Änderung hinaus. Es ist ein fundamentaler Bruch mit dem Prinzip, das Android seit seiner Einführung definiert hat: Offenheit. Wenn ein einzelnes Unternehmen entscheiden kann, welche Software auf dem weltweit meistgenutzten Betriebssystem installiert werden darf, hat das weitreichende Konsequenzen – für die Meinungsfreiheit, für den Wettbewerb, für die Innovation und für die digitale Selbstbestimmung jedes einzelnen Nutzers.
Android ist nicht irgendein Produkt. Es läuft auf über drei Milliarden Geräten weltweit. Für viele Menschen – besonders in Entwicklungsländern – ist das Smartphone der einzige Computer, den sie besitzen. Ihnen den Zugang zu freier Software zu verwehren, ist ein Angriff auf ihre digitale Autonomie.
Die Initiative „Keep Android Open" ruft daher alle auf: Informiert euch, erhebt eure Stimme und setzt euch für ein offenes Android ein – bevor es zu spät ist.
Weiterführende Links:
The post Keep Android Open – Google will Android schliessen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post FISA Section 702: Das unsichtbare Netz der US-Massenüberwachung appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Section 702 wurde 2008 als Teil des FISA Amendments Act verabschiedet – in der politischen Atmosphäre nach den Anschlägen vom 11. September 2001. Der offizielle Zweck: Die gezielte Überwachung von Nicht-US-Bürgern außerhalb der USA, um Informationen über Terrorismus, Spionage und die Verbreitung von Massenvernichtungswaffen zu sammeln.
Klingt erst einmal spezifisch und kontrolliert. Doch die Realität sieht völlig anders aus.
Section 702 erlaubt es dem US-Justizminister und dem Direktor der Nationalen Nachrichtendienste, gemeinsam breite Überwachungsprogramme zu genehmigen. Das geheime FISA-Gericht (Foreign Intelligence Surveillance Court, kurz FISC) prüft diese Programme nur auf einer übergeordneten, programmatischen Ebene – es genehmigt keine einzelnen Überwachungsziele. Sobald ein Programm genehmigt ist, können NSA, FBI und CIA eigenständig entscheiden, wen sie ins Visier nehmen. Einzige Bedingung: Das Ziel muss ein Nicht-US-Bürger sein, der sich vermutlich außerhalb der USA aufhält.
Das klingt nach einer Einschränkung. Aber genau hier beginnt das Problem für uns als Europäer.
Edward Snowden enthüllte 2013, was viele bereits ahnten: Unter Section 702 betreibt die NSA zwei massive Überwachungsprogramme.
PRISM (heute „Downstream Collection") ist das bekanntere der beiden Programme. Das FBI – als Vermittler zwischen NSA und Privatunternehmen – schickt sogenannte „Selektoren" (E-Mail-Adressen, Telefonnummern, andere Identifikatoren) an US-Technologieunternehmen und verpflichtet diese, alle Kommunikationen herauszugeben, die mit diesen Selektoren in Verbindung stehen. Betroffen sind Unternehmen wie Microsoft, Google, Apple, Meta (Facebook), Yahoo und YouTube. Laut dem FISC war PRISM im Jahr 2011 für rund 91 Prozent der etwa 250 Millionen Internetkommunikationen verantwortlich, die jährlich unter Section 702 erfasst werden.
Lest das nochmal: 250 Millionen Kommunikationen pro Jahr. Allein durch PRISM.
Upstream Collection geht noch einen Schritt weiter. Hier greift die NSA Kommunikationen direkt an der Internet-Backbone-Infrastruktur ab – also an den Glasfaserkabeln und Knotenpunkten, durch die der globale Datenverkehr fließt. Da etwa 80 Prozent des weltweiten Internetverkehrs irgendwann durch US-Infrastruktur geleitet wird, ist die Reichweite dieses Programms enorm. Wenn ihr eine E-Mail an einen Geschäftspartner in Brasilien schickt und diese über einen US-Server geroutet wird, kann die NSA sie abfangen.
Besonders brisant war die sogenannte „Abouts"-Erfassung: Dabei wurden nicht nur Kommunikationen erfasst, die an oder von einem Überwachungsziel gingen, sondern auch solche, die ein Überwachungsziel lediglich erwähnten. Die NSA hat diese Praxis 2017 offiziell eingestellt – aber der RISAA von 2024 hat die Tür für eine Wiedereinführung unter bestimmten Bedingungen offen gelassen.
Die US-Regierung betont gebetsmühlenartig, dass Section 702 nur auf Ausländer außerhalb der USA abzielt. Was sie weniger gern erwähnt: Bei der Überwachung dieser Ziele werden zwangsläufig auch die Kommunikationen all jener erfasst, die mit diesen Zielen in Kontakt stehen – darunter Millionen von US-Bürgern und Europäern.
Diese sogenannte „Incidental Collection" (nebenbei erfolgende Erfassung) ist alles andere als nebensächlich. Wenn ein europäischer Geschäftsmann mit einem ausländischen Partner kommuniziert, der zufällig auf einer Überwachungsliste steht, landen seine E-Mails, Nachrichten und Anrufe in den Datenbanken der US-Geheimdienste. Und selbst wenn keine direkte Verbindung zu einem Überwachungsziel besteht: Durch die Upstream-Erfassung an der Internet-Backbone werden Kommunikationen quasi im Vorbeigehen mitgelesen.
Für Nicht-US-Bürger gibt es dabei praktisch keinen Schutz. Section 702 gewährt keinerlei Rechte auf Information, Widerspruch oder gerichtliche Überprüfung für ausländische Staatsangehörige. Ihr wisst nicht, ob eure Daten erfasst wurden. Ihr könnt nicht dagegen klagen. Ihr werdet nie informiert.
Doch es kommt noch schlimmer. Die unter Section 702 gesammelten Daten werden in riesigen Datenbanken gespeichert. Und hier beginnt ein Missbrauch, der selbst die Verfechter des Gesetzes in Erklärungsnot bringt.
Das FBI kann diese Datenbanken jederzeit mit den Namen, E-Mail-Adressen oder Telefonnummern von US-Bürgern durchsuchen – die sogenannten „Backdoor Searches" oder „U.S. Person Queries". Kein Durchsuchungsbefehl nötig. Kein Richter. Kein begründeter Verdacht. Einfach den Namen eintippen und die intimsten Kommunikationen lesen.
Die Zahlen sind erschütternd:
Unter den Betroffenen dieser Durchsuchungen befanden sich nachweislich: Teilnehmer von Black-Lives-Matter-Protesten, Verdächtige des 6. Januar 2021, Journalisten, Mitglieder des US-Kongresses, ein US-Senator, ein Staatssenator, ein Staatsrichter, politische Kommentatoren und 19.000 Spender einer einzigen Kongresskampagne.
Das Privacy and Civil Liberties Oversight Board (PCLOB) – die eigentlich zuständige Aufsichtsbehörde – stellte fest, dass es kaum Belege für den Nutzen dieser massenhaften Backdoor-Durchsuchungen gibt. In den wenigen dokumentierten Fällen, in denen sie tatsächlich hilfreich waren, hätte das FBI auch einen regulären Durchsuchungsbefehl erwirken oder sich auf bestehende Ausnahmen berufen können.
Im Dezember 2024 fällte Richterin LaShann DeArcy Hall am U.S. District Court für den Eastern District of New York ein wegweisendes Urteil im Fall United States v. Hasbajrami: Die Backdoor-Durchsuchungen von Section-702-Daten verstoßen gegen den vierten Zusatzartikel der US-Verfassung und erfordern grundsätzlich einen richterlichen Durchsuchungsbefehl.
Es war das erste Mal überhaupt, dass ein Gericht diese Praxis für verfassungswidrig erklärte. Der Fall betraf einen US-Einwohner, der 2011 am New Yorker JFK-Flughafen verhaftet wurde. Erst nach seiner ursprünglichen Verurteilung offenbarte die Regierung, dass Teile der Beweismittel aus ohne Durchsuchungsbefehl durchgeführten Section-702-Abfragen stammten.
Die Regierung hat Berufung eingelegt. Aber das Urteil sendet ein klares Signal – auch für die anstehende Debatte um die Verlängerung von Section 702.
Statt die dokumentierten Missbräuche einzudämmen, hat der US-Kongress im April 2024 mit dem Reforming Intelligence and Securing America Act (RISAA) Section 702 nicht nur verlängert, sondern ausgeweitet:
Erweiterte Definition von „Electronic Communication Service Provider": Jeder Dienstleister, der Zugang zu Geräten hat, die elektronische Kommunikationen übertragen oder speichern könnten, kann nun zur Kooperation gezwungen werden. Das betrifft potenziell nicht mehr nur klassische Telekommunikationsunternehmen und Internetanbieter, sondern auch Rechenzentren, Cloud-Dienste, Managed-Security-Anbieter – und theoretisch sogar Vermieter oder Wartungspersonal mit Zugang zu Netzwerkinfrastruktur. Senator Ron Wyden nannte dies „eine der dramatischsten und erschreckendsten Erweiterungen der staatlichen Überwachungsbefugnisse in der Geschichte."
Neue Überwachungszwecke: Die Definition von „Foreign Intelligence Information" wurde erweitert, um die internationale Produktion, Verteilung und Finanzierung illegaler Drogen einzuschließen – ein gewaltiger Schritt weg von der ursprünglichen Antiterrorismus-Begründung.
Immigrations-Screening: Section-702-Daten dürfen nun zur Überprüfung von Einwanderern und Asylsuchenden verwendet werden.
Was der RISAA nicht enthält: eine Pflicht zum richterlichen Durchsuchungsbefehl für Backdoor Searches. Ein entsprechender Änderungsantrag scheiterte im Repräsentantenhaus mit einem Gleichstand von 212 zu 212 Stimmen.
Die einzige gute Nachricht: Der RISAA verlängerte Section 702 nur um zwei Jahre. Am 20. April 2026 läuft das Gesetz aus. Es sei denn, der Kongress verlängert es erneut.
Hier schließt sich der Kreis zu unserem CLOUD-Act-Artikel. Denn während der CLOUD Act es US-Behörden ermöglicht, gezielt Daten von US-Unternehmen anzufordern, geht Section 702 noch viel weiter: Es erlaubt die massenhafte, programmatische Erfassung von Kommunikationsdaten – ohne dass einzelne Ziele gerichtlich genehmigt werden müssen.
Der Europäische Gerichtshof (EuGH) hat in seinem Schrems-II-Urteil vom Juli 2020 unmissverständlich festgestellt, dass Section 702 nicht mit den Grundrechten der EU vereinbar ist. Der Gerichtshof stellte insbesondere fest, dass Section 702 „keinerlei Beschränkungen der damit übertragenen Überwachungsbefugnisse oder Garantien für Nicht-US-Bürger" enthält, die potenziell betroffen sind. Auch das Presidential Policy Directive 28 (PPD-28), das gewisse Einschränkungen für die Überwachung von Nicht-US-Bürgern vorschreibt, wurde vom EuGH als unzureichend bewertet.
Das hat direkte Konsequenzen für europäische Unternehmen. Wenn ihr personenbezogene Daten eurer Kunden, Mitarbeiter oder Geschäftspartner über US-Dienste verarbeitet – sei es Microsoft 365, Google Workspace, AWS oder Salesforce –, dann sind diese Daten potenziell der Überwachung durch Section 702 ausgesetzt. Und das steht in direktem Widerspruch zur DSGVO, die einen „gleichwertigen Schutz" bei Datentransfers in Drittländer verlangt.
Das Trans-Atlantic Data Privacy Framework (TADPF), das Nachfolgeabkommen des gescheiterten Privacy Shield, steht bereits vor dem nächsten juristischen Angriff durch Max Schrems und noyb. Der Datenschutzaktivist hat darauf hingewiesen, dass die tatsächlichen Überwachungsgesetze der USA – allen voran Section 702 – sich durch das Framework nicht geändert haben. Seine Einschätzung: Das TADPF wird denselben Weg gehen wie Safe Harbor und Privacy Shield.
Um die Tragweite zu verstehen, müsst ihr den CLOUD Act und Section 702 zusammen betrachten:
| CLOUD Act | FISA Section 702 | |
|---|---|---|
| Zweck | Strafverfolgung | Geheimdienstliche Überwachung |
| Rechtsgrundlage | Gerichtsbeschluss erforderlich | Programmatische Genehmigung durch FISC |
| Ziel | Konkrete Ermittlungen | Massenhafte Datenerfassung |
| Betrifft | US-Unternehmen weltweit | Jeden, der über US-Infrastruktur kommuniziert |
| Transparenz | Minimal (Gag Orders möglich) | Praktisch keine |
| Rechtsschutz für EU-Bürger | Kaum vorhanden | Nicht existent |
Zusammen bilden diese beiden Gesetze ein lückenloses System: Der CLOUD Act gewährt den Zugriff auf gespeicherte Daten bei US-Unternehmen. Section 702 erlaubt das massenhafte Abfangen von Kommunikationen in Echtzeit. Egal ob eure Daten auf einem Microsoft-Server in Frankfurt liegen oder eure E-Mail über ein US-Backbone geroutet wird – die US-Regierung hat einen Weg, darauf zuzugreifen.
Selbst die ohnehin schwachen Kontrollmechanismen werden zunehmend ausgehöhlt. Das Privacy and Civil Liberties Oversight Board (PCLOB), das als zentrale Aufsichtsinstanz die Einhaltung der Bürgerrechte bei Überwachungsprogrammen überprüfen soll, wurde Anfang 2025 faktisch handlungsunfähig gemacht. Die demokratischen Mitglieder wurden entlassen, das Gremium besteht nun aus einem einzigen Teilzeit-Mitglied. Gleichzeitig wurde das Office of Internal Auditing des FBI – im Jahr 2020 eigens geschaffen, um Missbrauch zu verhindern – aufgelöst.
Das bedeutet: Die Mechanismen, die Missbrauch verhindern sollen, werden gerade systematisch abgebaut – während die Überwachungsbefugnisse gleichzeitig ausgeweitet werden.
Angesichts dieser Situation gibt es für europäische Privatpersonen und Unternehmen nur eine logische Konsequenz: Reduziert eure Abhängigkeit von US-Infrastruktur und US-Software.
Für eure Kommunikation: Signal oder andere Ende-zu-Ende-verschlüsselte Messenger sind unverzichtbar. Beachtet jedoch: Der EuGH hat angemerkt, dass US-Behörden unter Section 702 theoretisch auch kryptographische Schlüssel von US-Unternehmen anfordern könnten. Deshalb sind europäische Alternativen wie Threema oder Matrix/Element vorzuziehen.
Für eure Daten: Self-Hosting mit europäischer Software – etwa Nextcloud auf europäischen Servern – entzieht eure Daten vollständig der US-Jurisdiktion. Wie wir in unserem CLOUD-Act-Artikel erklärt haben: Entscheidend ist nicht, wo die Daten liegen, sondern wer sie kontrolliert. Eine selbst gehostete Lösung bei einem europäischen Anbieter ist der sicherste Weg.
Für eure E-Mails: Europäische E-Mail-Anbieter wie Tuta (ehemals Tutanota) oder Proton Mail unterliegen nicht der US-Jurisdiktion und bieten Ende-zu-Ende-Verschlüsselung.
Für euer Unternehmen: Führt eine Datentransfer-Folgenabschätzung (Transfer Impact Assessment) durch. Prüft, welche eurer Dienste US-Unternehmen sind oder Daten über US-Infrastruktur routen. Und dokumentiert diese Risiken – nicht nur für die DSGVO-Compliance, sondern für das Vertrauen eurer Kunden.
Section 702 läuft am 20. April 2026 aus. Die nächsten Monate werden zeigen, ob der US-Kongress endlich grundlegende Reformen verabschiedet – etwa eine Pflicht zum richterlichen Durchsuchungsbefehl für den Zugriff auf Kommunikationen von US-Bürgern – oder ob das Gesetz erneut verlängert oder sogar ausgeweitet wird.
Aber selbst wenn Section 702 reformiert würde: Für europäische Bürger ändert sich wenig. Die Debatte in Washington dreht sich ausschließlich um die Rechte von US-Bürgern. Nicht-US-Bürger haben unter Section 702 keinerlei Schutz – und daran wird sich auch durch Reformen nichts ändern.
Die einzige Lösung für Europäer liegt nicht in Washington. Sie liegt in unseren eigenen Händen: in der konsequenten Nutzung eigener Infrastruktur, selbst gehosteter OpenSource Software und europäischer Dienste die sich dem Datenschutz gewidmet haben. Digitale Souveränität ist kein Luxus – sie ist die logische Antwort auf ein Überwachungssystem, das uns als Europäer ganz bewusst ohne jeden Rechtsschutz lässt.
The post FISA Section 702: Das unsichtbare Netz der US-Massenüberwachung appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Mehr Leistung bei wenig RAM: Swap & zRAM unter Linux appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Die gute Nachricht: Linux bietet mit Swap und zRAM sehr effektive Werkzeuge, um genau solche Situationen deutlich zu entschärfen. Richtig eingerichtet sorgen sie dafür, dass das System stabil bleibt, weniger einfriert und sich insgesamt flüssiger anfühlt – selbst bei knappen RAM-Ressourcen.

Dieses Tutorial erklärt:
Das Ganze ist bewusst einsteigerfreundlich, aber technisch korrekt gehalten.
Swap ist Auslagerungsspeicher. Wenn der physische Arbeitsspeicher (RAM) knapp wird, kann Linux Speicherbereiche auf ein langsameres Medium auslagern – meist eine SSD oder HDD.
Swap ist wichtig, aber allein nicht optimal für Performance.
zRAM ist komprimierter Arbeitsspeicher.
Dabei wird ein Teil des RAMs als komprimiertes Blockgerät genutzt. Daten werden also nicht auf die Festplatte, sondern komprimiert im RAM selbst abgelegt.
zRAM ist kein Ersatz für RAM, aber ein sehr effizienter Puffer.
Die beste Lösung ist eine zweistufige Speicherstrategie:
Linux nutzt automatisch zuerst den Swap mit der höheren Priorität – also zRAM – und greift nur im Ernstfall auf die SSD zurück.
Ergebnis:
swapon --show
oder:
free -h
Wenn kein Swap vorhanden ist oder ihr neu starten wollt, geht es weiter mit Schritt 2. Solltet ihr bereits eine Swap Partition haben, überspringt Schritt 2, und macht weiter mit Schritt 3.
Gebt diese Befehle einzeln in die Konsole ein:
sudo fallocate -l 4G /swapfile
sudo chmod 600 /swapfile
sudo mkswap /swapfile
sudo swapon /swapfile
Danach dauerhaft aktivieren in der fstab Datei:
sudo nano /etc/fstab
Eintrag hinzufügen:
/swapfile none swap sw 0 0
Speichern mit strg+o und beenden mit strg-x
Unter Ubuntu, KDE Neon und ähnlichen Debian Systemen:
sudo apt install zram-tools
Konfiguration öffnen:
sudo nano /etc/default/zramswap
Empfohlene Grundeinstellung am Ende der Datei setzen:
ENABLED=true
PERCENT=40
PRIORITY=100

Dienst neu starten:
sudo systemctl restart zramswap
Swappiness steuert, wie früh Linux Swap nutzt, sollte der Arbeitspeicher eine bestimmte Auslastung erreichen.
Empfehlung für Desktop + wenig RAM:
sudo sysctl vm.swappiness=80
Dauerhaft:
sudo nano /etc/sysctl.conf
Eintrag:
vm.swappiness=80

Danach die Einstellungen mit:
sudo sysctl -p
direkt aktivieren
swapon --show
Erwartetes Ergebnis:

/dev/zram0
PERCENT=40USED 0B → aktuell genug RAM, kein Druck/swapfile
Genau die richtige Reihenfolge, die Einstellungen sind korrekt gesetzt.
free -h
oder live:
watch -n 1 swapon --show
Gesundes Verhalten:
Swap und zRAM sind keine Notlösungen, sondern bewusst entwickelte Werkzeuge im Linux-Kernel.
Richtig kombiniert sorgen sie für:
Gerade auf Systemen mit wenig RAM ist diese Konfiguration oft der größte Performance-Gewinn ohne neue Hardware.
Wenn trotz zRAM und Swap dauerhaft alles ausgelastet ist, gilt trotzdem: Kein Tuning ersetzt fehlenden Arbeitsspeicher. Aber bis zu diesem Punkt holt diese Methode das Maximum aus eurem System heraus.
The post Mehr Leistung bei wenig RAM: Swap & zRAM unter Linux appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Ubuntu 22.04 auf 24.04 upgraden appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Sichert zunächst eure wichtigen Daten. Das sollte ohnehin regelmäßig geschehen, aber vor einem Major-Upgrade ist es besonders ratsam.
Aktualisiert das System auf den neuesten Stand, entweder über die integrierte Updateverwaltung:
Oder über das Terminal mit den Befehlen:
sudo apt update
sudo apt full-upgrade
Startet das System neu nachdem alles geupdated wurde.
sudo reboot
Öffnet die Anwendung Software-Aktualisierung (oder Update Manager). Ubuntu sollte euch aber auch automatisch mitteilen, dass eine neue Version (24.04) verfügbar ist.
Klickt auf System jetzt aktualisieren und folgt dem Assistent. Das System wird dann alle notwendigen Schritte automatisch ausführen. Das kann eine Weile dauern.
Falls ihr nicht direkt informiert werdet, dass eine Systemaktualisierung bereit stellt, bekommt ihr die Meldung mit einem Klick auf die Aktuliasierungsverwaltung.
Klickt in diesem Falle auf Aktualisieren...
Hier bekommt die Veröffentlichungshinweise, lest diese durch, falls interessiert.
Klickt als nächstes auf System aktualisieren.
Das System beginnt mit den Vorbereitungen der Aktualisierung und leitet alle nötigen Schritte ein.
Danach werdet ihr nochmals informiert, was alles geupdated wird, und danach gehts weiter mit der eigentlichen Aktualisierung:
Während des Upgrades informiert euch Ubuntu, das einige Pakete, hier zum Beispiel Thunderbird zukünftig nur noch als Snap Paket erhältlich ist, und zwingt euch unfreiweilig in ihr proprietäres Snap Ökosystem.
Bestätigt mit Weiter.
Falls ihr individuelle Konfigurationen an bestimmten Systemdateien getätigt habt, wird Ubuntu euch fragen, was mit diesen geschehen soll:
Klickt auf Beibehalten, wenn ihr individuelle Konfigurationen übernehmen wollt, oder Ersetzen falls ihr nie was an diesen Dateien verändert habt.
Anschliessend werdet ihr gefragt, ob ihr die veralteten Pakete entfernen wollt, der Ordnung halber entfernt ihr diese natürlich. Falls eurer Rechner nicht von 2005 sein sollte, geht das natürlich nicht mehrere Stunden.
Nach dem Upgrade startet ihr System neu und ihr seid nun auf Ubuntu 24.04 LTS.
Diese Methode ist für diejenigen, die gerne im Terminal arbeiten oder die Kenntnisse darin vertiefen möchten. Sie funktioniert sowohl auf Desktop- als auch auf Server-Systemen.
Öffnet ein Terminal und gebt Folgendes ein:
sudo do-release-upgrade
Das System prüft automatisch, ob ein Upgrade verfügbar ist. Wenn ja, werden euch die Changelog und Upgrade-Details angezeigt.
Bestätigt mit y (yes), um fortzufahren:
Do you want to start the upgrade? [Y/n]
Das Upgrade lädt nun Pakete herunter und aktualisiert sie. Bei Rückfragen zu Konfigurationsdateien (z.B. von SSH oder anderen Services) werden euch Optionen angeboten:
Für die meisten Nutzer ist es sicher, keep (N) zu wählen, wenn ihr Anpassungen gemacht habt.
Nach Abschluss werden alte, nicht mehr benötigte Pakete entfernt. Das System fordert euch auf, neu zu starten:
sudo reboot
Nach dem Neustart seid ihr auf Ubuntu 24.04.
Prüft die Ubuntu-Version:
lsb_release -a
Das sollte anzeigen:
Release: 24.04
Codename: noble
Bereinigt noch alte Paketdateien:
sudo apt autoremove
sudo apt autoclean
do-release-upgrade findet keine neue Version
Das passiert, wenn das System nicht auf dem neuesten Stand ist. Versucht:
sudo do-release-upgrade -d
Das -d erzwingt das Upgrade auf die nächste verfügbare Version.
Falls immer noch nichts passiert, prüft eure Repositories:
cat /etc/apt/sources.list
Achtet darauf, dass keine exotischen PPAs (Personal Package Archives) aktiviert sind, die das Upgrade blockieren.
Paketkonflikte während des Upgrades
Das Terminal zeigt euch dann eine Frage zu Konfigurationsdateien. Nutzt see diff, um zu prüfen, was sich ändert. Im Zweifel: keep (N) wählen, um eure Einstellungen zu behalten.
Das System bricht während des Upgrades ab
Falls das Internet unterbricht oder etwas anderes schiefgeht, könnt ihr das Upgrade fortsetzen:
sudo do-release-upgrade
Das erkennt den unvollendeten Prozess und setzt fort.
Abhängigkeitsprobleme nach dem Upgrade
Falls das System nicht vollständig aktualisiert wurde, versucht:
sudo apt install -f
sudo apt full-upgrade
Das -f repariert unterbrochene Installationen.
PPAs verursachen Probleme
Manchmal blockieren externe PPAs (z.B. für proprietary Software) das Upgrade. Ihr könnt sie deaktivieren:
sudo add-apt-repository --remove ppa:paketname/ppa
Oder alle auf einmal mit ppa-purge:
sudo apt install ppa-purge
sudo ppa-purge ppa:paketname/ppa
Nach dem Entfernen könnt ihr es erneut versuchen:
sudo do-release-upgrade
Desktop-Umgebung (GNOME/KDE) funktioniert nicht
Falls euer Desktop nach dem Upgrade nicht mehr startet, versucht:
sudo apt install --reinstall ubuntu-desktop
# oder für KDE:
sudo apt install --reinstall kubuntu-desktop
Meldet euch ab, wählt beim Login die richtige Umgebung und meldet euch wieder an.
Netzwerk funktioniert nach dem Upgrade nicht
Das ist selten, kann aber passieren. Prüft die Netzwerk-Manager-Konfiguration:
sudo systemctl restart networking
Oder für systemd-based Systeme:
sudo systemctl restart systemd-networkd
Das Upgrade von 22.04 auf 24.04 ist ein relativ unkomplizierter Prozess. Nutzt die Terminal-Methode mit do-release-upgrade – sie ist transparenter, zuverlässiger und funktioniert überall gleich gut, ob auf Desktop oder Server. Mit etwas Geduld und den richtigen Antworten zu Konfigurationsfragen ist das System schnell auf dem neuesten Stand.
Viel Erfolg beim Upgrade!
The post Ubuntu 22.04 auf 24.04 upgraden appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Immich – Private Foto- & Video-Cloud appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Mit Immich steht dir ab sofort ein moderner, leistungsfähiger und datenschutzfreundlicher Foto- und Video-Dienst zur Verfügung. Der Service richtet sich an alle, die ihre Erinnerungen sicher speichern, komfortabel verwalten und jederzeit abrufen möchten – ohne Abhängigkeit von kommerziellen Cloud-Anbietern.
Im Gegensatz zu bekannten Plattformen wie Google Photos oder iCloud bleibt bei Immich die volle Kontrolle über deine Daten erhalten. Es gibt kein Tracking, keine Profilbildung, keine Weitergabe an Werbenetzwerke. Deine Fotos und Videos werden ausschließlich innerhalb dieses Dienstes verarbeitet.
Immich bietet mobile Apps für Android und iOS, mit denen Fotos und Videos automatisch gesichert werden können. Neue Aufnahmen landen zuverlässig im persönlichen Archiv, ohne manuelles Hochladen oder komplizierte Workflows.
Zusätzlich steht eine Weboberfläche zur Verfügung, über die du deine Mediensammlung bequem vom Desktop aus verwalten kannst.
Alle Medien werden automatisch nach Datum, Aufnahmezeit und Metadaten sortiert. Große Sammlungen bleiben übersichtlich, auch über Jahre hinweg.
Dank integrierter Analysefunktionen kannst du deine Fotos und Videos gezielt durchsuchen – etwa nach Motiven, Orten oder Personen – ohne dass Inhalte an externe Dienste gesendet werden.
Du kannst Alben erstellen und gezielt freigeben, etwa für Familie oder Freunde. Dabei behältst du jederzeit die Kontrolle darüber, wer was sehen darf. Keine öffentlichen Profile, keine unfreiwillige Sichtbarkeit, kein algorithmisches Ranking.
Immich ist konsequent auf Privatsphäre ausgelegt:
Der Dienst eignet sich besonders für Nutzer, die ihre persönlichen Erinnerungen nicht an große Konzerne auslagern möchten.
Ob Smartphone, Tablet oder Desktop – deine Fotos und Videos sind jederzeit verfügbar. Die Oberfläche ist modern, schnell und auf den täglichen Gebrauch ausgelegt, auch bei sehr großen Mediensammlungen.
Deine persönliche Fotocloud bietet dir 3GB Speicher für deine Fotos und Videos.
The post Immich – Private Foto- & Video-Cloud appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Wanderer – Outdoor-Trail-Hub appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Wanderer ist ein offenes, leistungsfähiges Tool, mit dem du deine Aktivitäten rund um Trails, Pfade und Outdoor-Abenteuer zentral verwaltest. Die Oberfläche ist intuitiv gestaltet, sodass sowohl Hobby-Wanderer als auch erfahrene Outdoor-Communities ihre Touren einfach dokumentieren und planen können. (wanderer Documentation)
Wanderer bietet optionale soziale Features, damit du dich mit anderen Entdeckern vernetzen kannst. Du kannst:
Dank Federation (über ActivityPub) ist Wanderer außerdem kompatibel mit anderen föderierten Plattformen, sodass Interaktionen über Instanzgrenzen hinweg möglich sind – für eine vernetzte Outdoor-Community. (wanderer Documentation)
Mit Wanderer geben wir dir ein mächtiges Werkzeug an die Hand, um deine Outdoor-Erlebnisse zu planen, zu archivieren und mit anderen Abenteurern zu teilen – datenschutzfreundlich, frei und ohne externe Datenkraken.
Probier es aus: ➜ wanderer.yourdevice.ch
The post Wanderer – Outdoor-Trail-Hub appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Debian 12 Bookworm auf Trixie 13 upgraden appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Bevor ihr startet, macht eine Sicherung eurer wichtigen Daten. Das sollte ohnehin regelmäßig geschehen, aber vor einem Major-Upgrade ist es besonders ratsam.
Aktualisiert zunächst das System auf den neuesten Stand von Bookworm:
sudo apt update
sudo apt full-upgrade
Nach diesen Befehlen kann es nötig sein, den Rechner neuzustarten – befolgt die Aufforderungen des Systems.
Das Herzstück des Upgrades: Ihr müsst alle Verweise auf „bookworm" in eurer apt-Quellenliste in „trixie" umwandeln.
Öffnet die Datei mit einem Editor eurer Wahl:
sudo nano /etc/apt/sources.list
(Alternativ geht auch sudo vi /etc/apt/sources.list oder ein anderer Editor.)
Sucht nach Zeilen, die „bookworm" enthalten, und ersetzt diesen Begriff durch „trixie". Typischerweise sieht es vorher so aus:
deb http://deb.debian.org/debian bookworm main contrib non-free-firmware
deb-src http://deb.debian.org/debian bookworm main contrib non-free-firmware
deb http://security.debian.org/debian-security bookworm-security main contrib non-free-firmware
deb-src http://security.debian.org/debian-security bookworm-security main contrib non-free-firmware
Danach sollte es so aussehen:
deb http://deb.debian.org/debian trixie main contrib non-free-firmware
deb-src http://deb.debian.org/debian trixie main contrib non-free-firmware
deb http://security.debian.org/debian-security trixie-security main contrib non-free-firmware
deb-src http://security.debian.org/debian-security trixie-security main contrib non-free-firmware
Speichert die Datei (in nano: Strg+O, Enter, dann Strg+X).
Prüft auch, ob weitere sources-Listen vorhanden sind:
ls -la /etc/apt/sources.list.d/
Wenn dort .list oder .sources-Dateien sind, müsst ihr auch dort „bookworm" durch „trixie" ersetzen.
Jetzt aktualisiert die Paketlisten:
sudo apt update
Führt einen Testlauf durch, um zu sehen, welche Pakete aktualisiert werden:
sudo apt full-upgrade --dry-run
Wenn alles gut aussieht, startet das echte Upgrade:
sudo apt full-upgrade
Das kann eine Weile dauern. Der Prozess lädt große Mengen an Daten herunter und aktualisiert hunderte von Paketen. Bei Rückfragen des Systems (z.B. zu Konfigurationsdateien) empfiehlt es sich, die Standardoptionen zu wählen, außer ihr habt spezifische Änderungen an Dateien vorgenommen.
Wählt hier einfach immer N (keep your currently-installed version), und bestätigt mit Enter.
Startet den Rechner neu:
sudo reboot
Prüft nach dem Start, dass alles lädt:
uname -r
Das sollte euch einen Kernel mit „trixie" anzeigen.
Bereinigt alte Pakete:
sudo apt autoremove
sudo apt autoclean
Paketkonflikte während des Upgrades
Manchmal zeigt apt an, dass Pakete nicht installiert werden können, weil Abhängigkeiten fehlen. Versucht in diesem Fall:
sudo apt --fix-broken install
Oder wartet mit dem Upgrade auf ein bestimmtes Paket, bis Abhängigkeiten geklärt sind. Das ist selten nötig, kommt aber vor.
„Unmet dependencies" Fehlermeldung
Falls apt weigert sich weiterzumachen, versucht:
sudo apt install -f
Das versucht, fehlende Abhängigkeiten automatisch zu beheben.
Einzelne Pakete verursachen Probleme
In seltenen Fällen kann ein einzelnes Paket das Upgrade blockieren. Ihr könnt es temporär „halten", bis der Rest aktualisiert ist:
sudo apt-mark hold paketname
Und später wieder freigeben:
sudo apt-mark unhold paketname
Das System startet nicht nach dem Upgrade
Das ist sehr selten. Falls es passiert:
sudo grub-install /dev/sda (oder eure entsprechende Festplatte)Desktop-Umgebung ist kaputt
Falls X11 oder euer Desktop nicht mehr startet, versucht:
sudo apt install --reinstall xserver-xorg
Oder, wenn ihr GNOME/KDE nutzt:
sudo apt install --reinstall gnome-shell
# oder
sudo apt install --reinstall kde-full
Das Upgrade von Bookworm auf Trixie ist ein geradliniger Prozess, wenn ihr die Repositories korrekt austauscht. Mit ein paar Terminal-Befehlen und etwas Geduld ist das System schnell auf dem neuesten Stand. Die fehlende GUI ist kein Hindernis – im Gegenteil: Ihr habt volle Kontrolle über den Prozess und könnt jederzeit sehen, was passiert.
Viel Erfolg beim Upgrade!
The post Debian 12 Bookworm auf Trixie 13 upgraden appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post So upgradet ihr auf Linux Mint 22 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Ihr könnt die entsprechenden Schritte je nach eurer aktuellen Mint-Version und Anforderung befolgen.
Der Leitfaden wurde mit den Schritten zum Upgrade auf Linux Mint 22 von Mint 21.3 erstellt. Linux Mint hat ein GUI-Programm zum Upgrade auf die neueste Version.

Die gleichen Schritte gelten im übrigen für Benutzer, die von Mint 20.3 auf Mint 21 upgraden möchten (welches bis 2025 unterstützt wird).
Bevor ihr zu Linux Mint 22 upgraded, solltet ihr Folgendes beachten:
Sobald ihr wisst, was ihr tun werdet, schauen wir uns an, wie ihr zu Linux Mint 22 upgraded.
Überprüft eure Linux-Mint-Version und stellt sicher, dass ihr Mint 21.3 verwendet.
lsb_release -a
Ihr könnt nicht von Mint 21.1 oder 21.2 zu Mint 22 upgraden. Stellt sicher, dass ihr das System auf Mint 21.3 aktualisiert habt, bevor ihr euch an das Upgrade macht.
Startet als erstes den Update Manager mit Menu → sucht nach Update → geht auf die Aktualisierungsverwaltung.
Überprüft, ob Package-Updates verfügbar sind. Wenn ja, installiert zuerst alle Software-Updates.
Die Meldung „Euer System ist aktuell" wird im Software-Manager angezeigt.
Ihr könnt auch diesen Befehl im Terminal für diesen Schritt verwenden:
sudo apt update && sudo apt upgrade -y
Führt auf jeden Fall ein Neustart des System durchs sobald ihr alles geupdated habt.
Timeshift ist ein gutes Programm zum Erstellen von System-Snapshots, aber es ist nicht das unkomplizierteste Programm für eure Dokumente, Bilder und andere persönliche Dateien, wenn man mal schnell ein Backup durchführen will. Ich rate euch, eine Timeshift Sicherung, oder eine manuelle Sicherung auf einer externen Festplatte zu erstellen. Dies dient einfach der Datensicherheit.
Wenn ich sage, eine Sicherung auf einer externen Festplatte zu erstellen, meine ich einfach, eure Ordner Bilder, Dokumente, Downloads und Videos auf einen externen USB-Stick zu kopieren und einzufügen.
Wenn ihr keine Festplatte dieser Größe habt, kopiert zumindest die wichtigsten Dateien, auf die ihr nicht verzichten könnt.
Jetzt, da euer System aktualisiert ist, seid ihr bereit, zu Linux Mint 22 zu upgraden. Das Linux-Mint-Team stellt ein GUI-Programm namens mintupgrade zum Upgrade von Linux Mint 21.3 auf Linux Mint 22 zur Verfügung.
Ihr könnt dieses Programm mit dem folgenden Befehl installieren:
sudo apt install mintupgrade
Ihr könnt das neue GUI-Programm nicht im App-Menü aufgelistet finden. Zum Starten müsst ihr den folgenden Befehl im Terminal eingeben:
sudo mintupgrade
Dieses einfache, aber umfassende Programm führt euch durch den Upgrade-Prozess.
Es wird euch fragen, ob es eine Reihe von Tests durchführen darf, um euren Computer auf ein Upgrade vorzubereiten.
Eine Reihe von Tests wird durchgeführt, um den Computer auf das Upgrade vorzubereiten.
Nach diesen Anfangstests werden euch Timeshift-Sicherungen angefordert. Wenn ihr bereits eine Sicherung erstellt habt, seid ihr bereit.
Klickt auf Beheben, um ein aktuelles Timeshift Backup anzulegen.
Wenn ihr das Upgrade auf einer VM oder ähnlichem testet, benötigt ihr möglicherweise nicht den Timeshift-Snapshot. Klickt in diesem Fall auf das Hamburger-Menü oben rechts und wählt Einstellungen.
Im den Einstellungen der Aktualisierung oben rechts im Burgermenu, könnt ihr die Anforderung für Timeshift-Sicherung deaktivieren.
In den meisten Fällen solltet ihr das nicht tun. Eine aktive Sicherung ist während solcher Versionsupgrades notwendig.
Die meissten PPAs sind bereits für Ubuntu 24.04, und damit für Mint 22, verfügbar. Aber wenn ein PPA oder Repository für die neue Version nicht verfügbar ist, könnte dies den Upgrade-Prozess mit fehlerhaften Abhängigkeiten beeinflussen. Dies wird euch im Upgrade-Programm mitgeteilt. Dies wird aber zum heutigen Zeitpunkt eher weniger der Fall sein, da Linux Mint 22 bereits einige Zeit verfügbar ist. Trotzdem gehen wir auf die Fehlerbehebung während des Update Prozesses ein!
Hier zum Beispiel ist das Vim-PPA ist für Mint 22 nicht verfügbar
In diesem Beispiel habe ich die neueste Version von Vim über PPA verwendet. Dasselbe PPA wird nur bis Ubuntu Jammy Jellyfish (22.04) unterstützt, daher der Fehler, da Linux Mint 22 auf Noble Numbat (24.04) basiert.
Klickt auf Korrigieren und euch wird die Möglichkeit gegeben, die PPAs über Softwarequellen im Upgrade-Programm zu deaktivieren.
Da das PPA deaktiviert ist, wird das Paket „fremd", da die verfügbare Version aus dem Repository nicht mit den Versionen aus den Mint-Repositories übereinstimmt. Daher müsst ihr die Pakete auf eine Version herabstufen, die im Repository verfügbar ist. Klickt hier einfach auf Reparieren.
Jetzt beginnt Phase zwei. Hier werden nach einem Klick auf OK einige Tests durchgeführt und Pakete heruntergeladen.
Das Upgrade-Programm listet nun die Änderungen auf, die durchgeführt werden müssen.
Änderungen, die durchgeführt werden müssen, sind aufgelistet.
Nach Bestätigung mit OK wird das Programm mit dem Download der Pakete beginnen.
Phase drei: nach einem Klick auf OK wird mit dem Upgrade der Pakete begonnen.
Wenn ihr auf OK klickt, beginnt also das eigentliche Upgrade der Pakete.
Das System wird aktualisiert. Der Prozess dauert einige Zeit.
In einigen Fällen müssen während der Installation weitere Pakete herabgestuft werden, um Konflikte zu vermeiden. Klickt auf Beheben, um fortzufahren.
Mehr Pakete müssen herabgestuft werden, um den Upgrade-Prozess fortzusetzen:
Dies entfernt die weiteren inkompatiblen Pakete.
Nach Abschluss geht ihr zur Finalisierungsphase über.
Danach erhaltet ihr eine Benachrichtigung, dass das Upgrade abgeschlossen wurde.
Schließt das Upgrade-Programm und startet euer System neu, damit das Update wirksam wird.
Nach dem Neustart seid ihr im neuen Linux Mint 22 🎉
Das Upgrade auf Mint 22 ist genauso einfach wie auf die vorherige Version. Und es wird nur noch besser.
Wenn ihr euch immer noch nicht entscheiden könnt, möchtet ihr vielleicht unsere Linux-Mint-22-Rezension vor dem Upgrade lesen.
Ich hoffe, ihr findet das Anleitung hilfreich. Seid ihr auf Linux Mint 21 umgestiegen oder habt ihr euch für eine Neuinstallation entschieden?
Falls ihr auf Probleme stoßt oder weitere Hilfe zum Upgrade-Prozess benötigt, könnt ihr gerne eine Frage im Kommentarbereich stellen.
Credits: itsfoss.com. Die Bilder mit dem schwarzen Hintergrund stammen von itsfoss.com da bei mir keine Fehler beim Updateprozess aufgetreten sind. Der Vollständigkeit halber, wollte ich diese Schritte aber inkludieren.
The post So upgradet ihr auf Linux Mint 22 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post AdventureLog – Reisen & Erlebnisse appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>AdventureLog ist eine moderne Plattform, um besuchte Orte, geplante Reisen und persönliche Erlebnisse übersichtlich zu organisieren. Alles passiert auf unserer eigenen Infrastruktur und unterliegt denselben Datenschutz-Grundsätzen wie unsere übrigen Dienste.
AdventureLog kommt ohne externe Tracker, ohne Werbenetzwerke und ohne Profilbildung aus. Deine Daten bleiben bei uns und werden nicht für Analyse- oder Marketingzwecke missbraucht.
Du nutzt einen vollwertigen Reise-Service, ohne dich dafür gläsern machen zu müssen.
AdventureLog ergänzt unser bestehendes Angebot an freien und datenschutzfreundlichen Diensten und bietet dir eine echte Alternative zu kommerziellen Reise-Apps.
Zu AdventureLog gehts hier!
The post AdventureLog – Reisen & Erlebnisse appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Linux Laptop kaufen in der Schweiz: Kaufratgeber 2026 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
In diesem Ratgeber erfahrt ihr, worauf es beim Kauf eines Linux Laptops ankommt, welche Vorteile euch erwarten und warum ein vorkonfiguriertes Gerät oft die bessere Wahl ist.
Linux hat sich längst von der "Nerd-Distribution" zum ausgereiften Desktop-System entwickelt. Die Vorteile liegen auf der Hand:
Performance und Ressourcen: Linux läuft auch auf älterer Hardware flüssig. Wo Windows 11 mindestens 8 GB RAM verlangt, kommt Linux oft mit der Hälfte aus. Das bedeutet längere Akkulaufzeit und schnellere Reaktionszeiten – gerade bei Laptops ein entscheidender Vorteil.
Privatsphäre und Kontrolle: Keine Telemetrie, keine Zwangs-Updates, keine versteckten Datensammlungen. Ihr entscheidet, was auf eurem System läuft und welche Daten ihr teilt.
Kosten: Die meisten Linux-Distributionen sind kostenlos. Bei einem neuen Laptop spart ihr euch die Windows-Lizenz, die oft 100-150 CHF kostet. Auch Software ist meist Open Source und gratis verfügbar.
Noch unsicher, ob Linux das Richtige für euch ist? Hier erfahrt ihr mehr über die Gründe für den Umstieg.
Nicht jede Hardware funktioniert out-of-the-box mit Linux. Besonders kritisch sind:
Mehr Details zur Hardware-Kompatibilität findet ihr in unserem ausführlichen Artikel zur benötigten Hardware.
Mint, Ubuntu, Fedora, Mint, Pop!_OS – die Auswahl ist riesig. Für Einsteiger eignen sich besonders:

Nicht sicher, welches Linux zu euch passt? Nutzt unseren Linux Finder – ein interaktives Quiz, das basierend auf euren Anforderungen die perfekte Distribution empfiehlt.
Einen Überblick über alle gängigen Systeme bekommt ihr in unserem Betriebssystem-Vergleich.
Wenn von Linux-Laptops die Rede ist, fallen fast immer ThinkPads. Die Lenovo-Serie hat sich über Jahrzehnte einen legendären Ruf in der Linux-Community erarbeitet – aus gutem Grund.
Warum ThinkPads so beliebt sind:
Hervorragende Hardware-Kompatibilität: Lenovo testet ThinkPads aktiv mit Linux-Distributionen. Treiber funktionieren out-of-the-box, keine Bastelei mit WLAN-Chips oder Touchpads.
Robuste Bauweise: ThinkPads sind für den Business-Einsatz konzipiert. Das bedeutet solide Verarbeitung, gute Tastatur und Langlebigkeit – wichtig, wenn ihr das Gerät täglich nutzt.
Riesige Community: Für nahezu jedes ThinkPad-Modell findet ihr Online-Dokumentation, Tipps und Support von anderen Linux-Usern.
Bei yourdevice.ch führen wir die ThinkPad E-Serie – solide Mittelklasse-Modelle, die das Beste aus beiden Welten bieten: ThinkPad-Qualität ohne Premium-Preis. Hier geht's zu unseren ThinkPad E14 und E16 Modellen.
Ein oft unterschätzter Punkt: Kauft ihr einen Linux Laptop in der Schweiz, habt ihr lokalen Support und Garantie nach Schweizer Recht. Bei Import-Geräten aus dem Ausland müsst ihr bei Problemen oft aufwendig zurückschicken. Ausserdem verweigern Hersteller häufig den Support, sollte ein neueres Gerät defekt gehen, und ihr hattet darauf Linux installiert da das Gerät dann nicht mehr dem original Zustand entspricht. Bei uns ist Linux Originalzustand!
Technisch versierte User können natürlich jeden Laptop kaufen und Linux selbst installieren. Aber ist das wirklich die beste Lösung?
Zeitersparnis: Die Installation dauert zwar nur 30-60 Minuten, aber Treiber konfigurieren, Updates einspielen, System absichern und Software installieren kostet schnell mehrere Stunden. Bei einem vorkonfigurierten System ist alles fertig eingerichtet.
Funktionierende Treiber: Alle Hardware-Komponenten sind getestet und funktionieren garantiert. Keine bösen Überraschungen mit nicht funktionierendem WLAN oder Touchpad.
Professionelle Einrichtung: Das System ist bereits mit sinnvollen Einstellungen konfiguriert, Updates sind richtig eingerichtet, und grundlegende Sicherheitsmaßnahmen sind implementiert.
Support bei Problemen: Wenn doch mal etwas nicht funktioniert, habt ihr einen Ansprechpartner, der das System kennt und helfen kann.
Wer möchte, kann Linux über eine virtuelle Maschine vorher schnell und einfach ausprobieren. Das geht zum Beispiel über eine virtuelle Maschine, oder über die Installation von Linux auf einer externen SSD. So kann man sich vorher schon ein Bild machen, welches Linux am besten zu einem passt.
"Aber funktioniert mein Scanner?" – "Kann ich Office-Dokumente bearbeiten?" Ja und ja!
Office auf Linux ist längst kein Problem mehr. LibreOffice bietet volle Kompatibilität mit Microsoft-Formaten. Für cloudbasiertes Arbeiten funktionieren Google Docs und Microsoft 365 im Browser einwandfrei.

E-Mail-Programme wie Thunderbird stehen Windows in nichts nach. Wer mehr Privatsphäre will, findet bei uns auch Matrix-basierte Chat-Lösungen.

Scanner funktionieren unter Linux meist besser als unter Windows – dank des SANE-Projekts werden tausende Modelle unterstützt. Drucker, Webcams, externe Festplatten: Alles läuft in der Regel problemlos.
Für fast jedes Windows-Programm gibt es eine Linux-Alternative. Unsere Übersicht zeigt euch die besten Alternativen.
Kurze Antwort: Nein. Ihr müsst keine Terminal-Kenntnisse besitzen, um Linux zu nutzen. Moderne Distributionen sind so bedienbar wie Windows oder macOS.
Für den vollständigen Überblick: Unser Overall-Leitfaden für den Umstieg begleitet euch Schritt für Schritt.
Seit Jahren bieten wir bei yourdevice.ch vorkonfigurierte Linux Laptops in der Schweiz an. Aber wir sind mehr als nur ein Shop.
Ihr entscheidet, welches Linux auf eurem Laptop läuft. Ubuntu, Fedora, Mint, Pop!_OS – oder nutzt unseren Linux Finder, um die perfekte Distribution zu finden. Wir installieren und konfigurieren das System nach euren Wünschen.
Mit über 340 Artikeln zu Linux, Netzwerk, Bitcoin und mehr bieten wir eine der umfassendsten deutschsprachigen Linux-Ressourcen. Egal ob Antiviren-Programme, Festplatten-Verschlüsselung oder alltägliche Fragen – ihr findet Antworten.
Als Kunde bei yourdevice.ch erhaltet ihr kostenlosen Zugang zu einer Vielzahl von Open-Source-Services:
Cloud & Zusammenarbeit:
Privatsphäre & Sicherheit:
Kommunikation & Alternativen:
Tools & Entwicklung:
Alle Services sind für Kunden kostenlos und direkt über euer Konto von yourdevice.ch nutzbar und werden aktiv gewartet. Keine Werbung, keine Datensammlung, nur funktionierende Tools für euren Alltag.
Probleme? Fragen? Wir sprechen Deutsch und sind für euch da. Keine Hotline in Indien, kein Ticket-System, das tagelang dauert – echte Menschen mit Linux-Expertise helfen euch weiter.
Seit ihr euch noch nicht ganz sicher bezüglich des Umstiegs und benötigt Windows parallel zur Linux? Auch das bieten wir an, bei Bedarf installieren wir Linux parallel zu Windows, so kann man für das Was laufen muss, Windows verwenden, und für den Umstieg und das kennen lernen Linux benutzen.

Linux Laptops kaufen in der Schweiz war noch nie so einfach. Kombiniert Hardware, die funktioniert, mit einem Betriebssystem, das euch gehört, und einem Service-Paket, das euch unabhängig macht.
Entdeckt jetzt unsere Linux-Laptop-Auswahl oder nutzt unseren Linux Finder, um die perfekte Distribution zu finden.
Fragen? Schreibt uns – wir beraten euch gerne bei der Auswahl des richtigen Systems für eure Bedürfnisse.
The post Linux Laptop kaufen in der Schweiz: Kaufratgeber 2026 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Der CLOUD Act: Eure Daten und die amerikanische Software appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Was bedeutet das konkret für euch? Ihr glaubt, eure Windows-Festplatte sei verschlüsselt und sicher. Aber wenn Microsoft die Schlüssel in der Cloud speichert, können US-Behörden mit einem Durchsuchungsbefehl darauf zugreifen. Eure Verschlüsselung ist nur so sicher, wie das Unternehmen, das die Schlüssel verwaltet.

Microsoft bestätigte gegenüber Forbes, dass das Unternehmen etwa 20 solcher Anfragen pro Jahr erhält – und sie erfüllt, wenn eine gültige gerichtliche Anordnung vorliegt. Das Problem: Windows 11 sichert diese Wiederherstellungsschlüssel standardmäßig in der Microsoft Cloud, sobald ihr euch mit einem Microsoft-Konto anmeldet. Die meisten Nutzer wissen nicht einmal, dass dies passiert.
Das ist kein Einzelfall. Es ist die konkrete Realität des CLOUD Act.
Der CLOUD Act (Clarifying Lawful Overseas Use of Data Act) von 2018 ist ein US-Gesetz mit einer einfachen, aber weitreichenden Regelung: US-Behörden können von US-Unternehmen die Herausgabe von Daten verlangen – egal wo auf der Welt die Server stehen.
1. Der Serverstandort ist irrelevant
Eure Daten können in einem Rechenzentrum in Frankfurt, Amsterdam oder Zürich liegen – wenn das Unternehmen unter US-Kontrolle steht, kann das FBI mit einem Durchsuchungsbefehl darauf zugreifen.
2. Ihr werdet nicht informiert
Die Betroffenen erfahren in der Regel nie, dass ihre Daten abgerufen wurden. US-Behörden können "Gag Orders" (Schweigeanordnungen) verhängen, die es Unternehmen verbieten, ihre Kunden zu informieren.
3. Fast alle großen Tech-Konzerne sind betroffen
Microsoft, Google, Amazon, Apple, Meta (Facebook), Dropbox, Slack, Zoom – sie alle unterliegen dem CLOUD Act, weil sie US-Unternehmen sind.
4. Auch Tochtergesellschaften bieten keinen Schutz
Microsoft Deutschland, Google Switzerland, Amazon Luxembourg – die US-Muttergesellschaft kann angewiesen werden, ihre Tochter zur Datenherausgabe zu zwingen.
Viele denken: "Ich habe nichts zu verbergen, warum sollte mich das interessieren?" Hier sind konkrete Gründe:
Eure privaten Fotos, E-Mails und Dokumente
Wenn ihr Microsoft OneDrive, Google Drive oder Dropbox nutzt, liegen eure Familienfotos, persönlichen E-Mails und privaten Dokumente auf US-Servern. US-Behörden können darauf zugreifen – ohne dass ihr es je erfahrt.
Eure Gesundheitsdaten
Nutzt ihr eine Fitness-App eines US-Anbieters? Synchronisiert ihr Gesundheitsdaten in die Cloud? Diese Daten können abgerufen werden.
Eure Kommunikation
WhatsApp (gehört zu Meta/Facebook), Gmail, Outlook.com – alles US-Dienste. Eure Kommunikation kann durchsucht werden.
Geschäftliche Dokumente
Selbstständige und kleine Unternehmen: Vertrauliche Verträge, Kundendaten, Geschäftsgeheimnisse – alles potenziell zugänglich für US-Behörden.
Microsoft, Google und Amazon bewerben ihre "EU-Rechenzentren" als sichere Lösung. Das ist Marketing, keine Datenschutzgarantie.
Eure Daten können in Frankfurt auf deutschen Servern liegen – wenn Microsoft Azure sie verwaltet, unterliegen sie trotzdem dem CLOUD Act. Die Gerichtsbarkeit folgt dem Eigentümer, nicht dem Serverstandort.
Selbst wenn ein US-Konzern eine europäische Tochtergesellschaft gründet, die formal die Daten verwaltet: Die US-Muttergesellschaft kann angewiesen werden, die Tochter zur Herausgabe zu zwingen.
"Aber meine Daten sind doch verschlüsselt!" höre ich oft. Das Problem: Wer kontrolliert die Schlüssel?
Der BitLocker-Fall zeigt es deutlich: Wenn Microsoft eure Verschlüsselungsschlüssel in der Cloud speichert, kann das Unternehmen gezwungen werden, sie herauszugeben. Eure Verschlüsselung wird wertlos.
Client-seitige Verschlüsselung: Nur ihr habt die Schlüssel, der Anbieter sieht nur verschlüsselte Daten.
→ Gut: Signal, Tresorit, Proton Drive
→ Schlecht: Standard OneDrive, Google Drive, Dropbox
Server-seitige Verschlüsselung: Der Anbieter verschlüsselt die Daten, hat aber selbst die Schlüssel.
→ Das ist wie ein Tresor, zu dem auch die Bank den Schlüssel hat.
Zero-Knowledge-Architektur: Der Anbieter kann technisch nicht auf eure Daten zugreifen.
→ Genau das fehlt bei Microsoft, Google, Amazon
Apple und Google bieten mittlerweile erweiterten Datenschutz mit Ende-zu-Ende-Verschlüsselung für Cloud-Backups an. Microsoft nicht. Senator Ron Wyden (USA) kritisierte: "Es ist schlicht unverantwortlich, dass Tech-Unternehmen Produkte ausliefern, die es ihnen erlauben, heimlich die Verschlüsselungsschlüssel der Nutzer herauszugeben."
Die gute Nachricht: Ihr müsst nicht auf Komfort verzichten, um eure Privatsphäre zu schützen. Es gibt ausgereifte, quelloffene Alternativen zu allen gängigen Cloud-Diensten.

Empfohlene Distributionen für Einsteiger:
Verschlüsselung unter Linux:
LUKS (Linux Unified Key Setup) verschlüsselt eure Festplatte – und ihr verwaltet die Schlüssel. Keine Cloud-Uploads, keine Hintertüren.
Nextcloud ist die Open-Source-Alternative zu Microsoft 365 und Google Workspace. Alles, was diese Dienste können, kann Nextcloud auch – aber unter eurer Kontrolle.

Features:
Drei Möglichkeiten, Nextcloud zu nutzen:
Option A: Gemietetes Hosting in Europa
Wir bieten managed, aber auch fertige Nextcloud-Instanzen:
Option B: Eigener Server zuhause (Self-Hosting)
Eine Synology oder UGREEN NAS bei euch im Büro/Zuhause:
Option C: Selber Virtual Private Server (VPS) mieten
Ein gemieteter Server bei einem europäischen Hoster:
Einer der größten Vorteile von Open Source: Keine Vendor-Lock-ins durch proprietäre Protokolle.

CalDAV (Kalender): Synchronisiert eure Termine zwischen allen Geräten
CardDAV (Kontakte): Synchronisiert Adressbücher
WebDAV (Dateien): Standard-Protokoll für Datei-Synchronisation
Diese Protokolle funktionieren mit jeder kompatiblen Software:
Ihr seid nicht an einen Anbieter gebunden. Wechsel sind einfach – kopiert einfach eure Daten auf einen neuen Server.
Praktische Artikel zum Thema DAV:
https://yourdevice.ch/nextcloud-direkt-via-webdav-in-linux-und-windows-einbinden/
https://yourdevice.ch/thunderbird-kalender-mit-nextcloud-caldav-verbinden/
https://yourdevice.ch/iphone-kalender-auf-android-oder-in-die-nextcloud-uebertragen/
https://yourdevice.ch/kontakte-synchronisieren-mit-nextcloud-android-und-thunderbird/
https://yourdevice.ch/nextcloud-direkt-in-android-einbinden/
https://yourdevice.ch/nextcloud-kalender-mit-android-synchronisieren/
Statt Gmail/Outlook.com:
Ausführlicher Artikel zum Thema:
Alle bieten:
Statt Google Docs:
Statt Dropbox:
Statt Zoom/Teams:
Statt Google Analytics:
Statt 1Password/LastPass:
Woche 1: Bestandsaufnahme
Woche 2: Nextcloud einrichten
Woche 3: Daten migrieren
Woche 4: Umstellung abschließen
Für Firmen gelten besondere Anforderungen, aber die Lösungen sind ähnlich:
Rechtliche Absicherung:
"Ich habe nichts zu verbergen"
→ Würdet ihr euer Tagebuch, eure Bankdaten und eure Fotos einem Fremden auf der Straße geben? Privatsphäre ist ein Grundrecht, kein Privileg für "Verdächtige".
"Das ist mir zu kompliziert"
→ Nextcloud ist genauso einfach wie Dropbox. Drag & Drop, fertig. In den meissten Fällen gibt es die Nextcloud bereits fertig eingerichtet. Wer selber installieren will, nutzt AIO-Docker Setups
"Ich brauche Microsoft Office für die Arbeit"
→ LibreOffice und ONLYOFFICE sind mit allen Office-Formaten kompatibel. Für die meisten Nutzer gibt es keinen funktionalen Unterschied.
"Aber alle anderen nutzen WhatsApp/Gmail"
→ Das ist keine technische, sondern eine soziale Frage. Je mehr Leute wechseln, desto normaler wird es. Seid Vorbild. Nutzt andere Messenger, zeigt den Leuten wie einfach es ist, Signal, oder Element zu verwenden.
"Das ist teurer als die kostenlosen Google-Dienste"
→ Kostenlos bedeutet: Ihr seid das Produkt. Eure Daten werden analysiert, für Werbung genutzt und – wie wir wissen – an Behörden weitergegeben. 10CHF/Monat für echte Privatsphäre sind ein Schnäppchen.
"Was ist, wenn meine NAS kaputt geht?"
→ Backups! Synology bietet Cloud-Backup zu anderen Synology-NAS, oder ihr nutzt einen EU-Backup-Dienst z.B bei Hetnzer's Storage Box. Redundanz ist bei jeder Lösung wichtig – auch Google Drive kann ausfallen.
Der CLOUD Act zeigt: Solange US-Unternehmen eure Daten kontrollieren, habt ihr keine Kontrolle. Nicht über die Sicherheit, nicht über den Zugriff, nicht über eure Privatsphäre.
Die Lösung ist nicht kompliziert:
Der Fall Microsoft/BitLocker/FBI ist nur das jüngste Beispiel. Es wird nicht das letzte sein. Solange ihr US-Dienste nutzt, gebt ihr die Kontrolle ab – freiwillig oder nicht.
Die Technologie für echte digitale Souveränität existiert bereits. Ihr müsst sie nur nutzen.
Jeder Server, den ihr selbst betreibt, jede Nextcloud-Instanz in einem schweizer oder europäischen Rechenzentrum, jeder Wechsel zu Open Source ist ein Schritt weg von Überwachung und hin zu echter Privatsphäre.
Fangt heute an. Eure Daten gehören euch – nicht Microsoft, nicht Google, und schon gar nicht dem FBI.
The post Der CLOUD Act: Eure Daten und die amerikanische Software appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post BitLocker-Skandal: Microsoft liefert eure Festplattenschlüssel an das FBI appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Im US-Außengebiet Guam ermittelten Bundesrichter gegen Verdächtige, die sich angeblich am Covid-Hilfsprogramm bereichert hatten. Die Beweise sollten drei Laptops liefern – verschlüsselt mit BitLocker. Statt an der Verschlüsselung zu scheitern, forderten die Ermittler per Gerichtsbeschluss die Schlüssel direkt von Microsoft an. Der Konzern lieferte bereitwillig. Pro Jahr soll es etwa 20 solcher Fälle geben – Tendenz vermutlich steigend.
Was hier so technisch klingt, ist ein fundamentaler Bruch des Verschlüsselungsversprechens: Festplattenverschlüsselung soll eure Daten vor unbefugtem Zugriff schützen. Wenn aber der Hersteller der Verschlüsselungssoftware selbst Zugang zu euren Schlüsseln hat und diese auf Anfrage herausgibt, dann ist die Verschlüsselung wertlos.
Das Kernproblem liegt in Microsofts Systemarchitektur. Bei der Installation von Windows 10 und 11 werdet ihr standardmäßig aufgefordert, euch mit einem Microsoft-Konto anzumelden. Was Microsoft euch dabei verschweigt: Euer BitLocker-Wiederherstellungsschlüssel landet automatisch und ungefragt in der Microsoft-Cloud. Unverschlüsselt. Für Microsoft – und damit für US-Behörden – jederzeit zugänglich.
Diese „Komfort-Funktion" ist standardmäßig aktiviert. Die meisten Nutzer haben keine Ahnung, dass ihre vermeintlich sichere Festplattenverschlüsselung durch diese Hintertür komplett ausgehebelt wird. Microsoft begründet dies mit der Benutzerfreundlichkeit: Wer seinen Schlüssel verliert, kann so einfacher auf seine Daten zugreifen. Die Wahrheit ist: Ihr verliert die Kontrolle über eure eigenen Daten.
Microsoft selbst räumt das Risiko in einer Stellungnahme ein: „Wenn die Wiederherstellung von Schlüsseln einfach ist, besteht auch das Risiko eines ungewollten Zugangs." Trotzdem bleibt die Cloud-Speicherung der Schlüssel der Standard. Die Verantwortung wird heuchlerisch auf euch abgewälzt: „Kunden sind in der besten Position, um zu entscheiden, wie sie ihre Schlüssel verwalten" – nur dass die meisten Kunden nicht einmal wissen, dass diese Entscheidung getroffen wird.
Die Dimension dieses Problems wird deutlich, wenn man sich die Verbreitung von Windows ansieht. Hunderte Millionen Geräte weltweit nutzen BitLocker mit aktivierter Cloud-Schlüssel-Speicherung. Das bedeutet: Microsoft und damit potentiell auch US-Behörden haben theoretisch Zugang zu den Festplatten von Millionen Menschen – Privatpersonen, Unternehmen, Behörden, Journalisten, Aktivisten.
Kryptographie-Experte Matt Green von der Johns Hopkins University bringt es auf den Punkt: „Das sind private Daten auf privaten Computern und Microsoft hat die architektonische Entscheidung getroffen, einen Zugang zu diesen Daten zu haben." Green hebt hervor, dass Microsoft damit alleine steht: Apple und Google implementieren ihre Verschlüsselungssysteme ohne zentrale Zugangsmöglichkeiten.
Das FBI-Beispiel zeigt: Wenn Behörden die Möglichkeit haben, nutzen sie diese auch. Besonders problematisch: Mit den BitLocker-Schlüsseln erhalten Ermittler Zugriff auf das komplette Gerät – nicht nur auf die Daten, die für den jeweiligen Fall relevant sind. Ein digitaler Generalschlüssel für euer gesamtes digitales Leben.
Die aktuelle BitLocker-Kontroverse ist kein Einzelfall, sondern reiht sich in eine lange Geschichte fragwürdiger Kooperationen zwischen Microsoft und US-Geheimdiensten ein. 1999 entdeckte der Kryptographie-Experte Andrew D. Fernandes eine Variable namens „_NSAKEY" in Windows NT 4.0 – einen 1024-Bit öffentlichen Schlüssel mit direktem Bezug zur National Security Agency (NSA).
Die Entdeckung löste massive Spekulationen aus: Hatte die NSA eine Hintertür in Windows eingebaut? Microsoft dementierte vehement und behauptete, der Name stamme lediglich daher, dass die NSA die technische Prüfbehörde für US-Kryptographie-Exportkontrollen sei. Die Erklärung überzeugte Sicherheitsexperten nicht. Besonders brisant: In Windows 2000 wurde ein dritter, nicht dokumentierter Schlüssel gefunden, der laut Sicherheitsforscher Dr. Nicko van Someren „fishy" aussah.
Die Parallelen zum aktuellen BitLocker-Skandal sind offensichtlich: Damals wie heute geht es um kryptographische Schlüssel in Windows-Systemen, damals wie heute gibt es Verbindungen zu US-Geheimdiensten, und damals wie heute versucht Microsoft, die Vorwürfe herunterzuspielen.
https://en.wikipedia.org/wiki/NSAKEY
Die politische Kritik ist eindeutig. Ron Wyden, demokratischer Senator und bekannter Datenschutzaktivist, verurteilt Microsofts Vorgehen scharf: Für Tech-Konzerne sei es unverantwortlich, Produkte auszuliefern, die das heimliche Ausliefern von Nutzerdaten ermöglichen.
Auch Windows Central bezeichnet es als „schockierend", dass Microsoft die BitLocker-Schlüssel ungesichert in Nutzerkonten hinterlegt. Nutzer würden bei der Installation aktiv dazu hingeleitet, das Schlüssel-Backup zu aktivieren – ohne über die massiven Risiken für ihre Privatsphäre aufgeklärt zu werden. Das ist keine Fahrlässigkeit, das ist System.
Die Tech-Industrie präsentiert sich gerne als Verteidiger eurer Privatsphäre. Die Realität sieht anders aus. Zwar lieferte sich Apple 2016 einen medienwirksamen Rechtsstreit mit dem FBI um das iPhone des San Bernardino-Attentäters – doch hinter den Kulissen ist die Geschichte wesentlich schmutziger.
Was die meisten nicht wissen: Apple händigt seit Jahren bereitwillig iCloud-Backup-Daten an US-Behörden aus. Laut eigenen Transparenzberichten übergab Apple allein in der ersten Hälfte eines Jahres in 1.568 Fällen Nutzerdaten an die Regierung. Der Grund: iCloud-Backups waren bis 2022 nicht Ende-zu-Ende verschlüsselt – Apple hatte die Schlüssel und konnte auf richterliche Anordnung zugreifen.
Noch brisanter: 2018 plante Apple, iCloud-Backups endlich vollständig Ende-zu-Ende zu verschlüsseln. Nach Gesprächen mit dem FBI ließ Apple das Projekt fallen. Reuters berichtete, dass Apple "überzeugt" wurde von den Argumenten der Behörden. Die angebliche Datenschutz-Ikone knickte ein, um es sich nicht mit dem FBI zu verscherzen.
Erst Ende 2022 – vier Jahre später – führte Apple "Advanced Data Protection" ein, mit echter Ende-zu-Ende-Verschlüsselung für iCloud. Der Haken: Es ist ein Opt-In Feature. Standardmäßig landen eure iCloud-Backups weiterhin unverschlüsselt auf Apples Servern, zugänglich für Behörden mit Gerichtsbeschluss.
Google steht nicht besser da. Der Konzern baute 2009 eine Backdoor in Gmail, um Behörden bei gültigen Gerichtsbeschlüssen Zugriff zu gewähren. Diese Backdoor wurde von chinesischen Hackern ausgenutzt, um auf sensible US-Überwachungsziele zuzugreifen – ein perfektes Beispiel dafür, warum Hintertüren niemals sicher sind. Sicherheitsexperte Bruce Schneier bestätigte: "Die chinesischen Hacker nutzten genau die Backdoor, die für US-Behörden geschaffen wurde."
Gmail-Emails werden unbegrenzt gespeichert und bei Bedarf an Behörden herausgegeben. Googles automatische Email-Auswertung für Werbezwecke ist dabei nur die Spitze des Eisbergs. Google nutzt eure Daten auch in eigenen Rechtsstreitigkeiten: Im Waymo-vs-Uber-Fall präsentierte Google die Suchverläufe eigener Ex-Mitarbeiter vor Gericht – Suchanfragen wie "wie lösche ich Google Drive Dateien permanent von meinem Computer" wurden gegen sie verwendet.
Die bittere Wahrheit: Alle großen US-Tech-Konzerne kooperieren mit Behörden, wenn es darauf ankommt. Der Unterschied zu Microsoft ist graduell, nicht prinzipiell. Während Microsoft eure BitLocker-Schlüssel standardmäßig in der Cloud speichert, tut Apple dasselbe mit iCloud-Backups (außer ihr aktiviert manuell Advanced Data Protection). Während Microsoft auf richterliche Anordnung Schlüssel herausgibt, tut Apple dasselbe mit Backup-Daten.
Microsoft ist nicht die einzige Gefahr – es ist nur die offensichtlichste. Wer seine Daten wirklich schützen will, darf sich nicht auf das Marketing von Tech-Konzernen verlassen, egal ob Microsoft, Apple oder Google. Die einzige verlässliche Lösung ist echte, lokale Verschlüsselung ohne Cloud-Speicherung – wie sie LUKS unter Linux bietet.
Microsoft betont öffentlich, dass US-Sicherheitsbehörden bereits 2013 den Einbau einer Hintertür in BitLocker gefordert hätten und man sich dem verweigert habe. Diese Aussage klingt nach Widerstand gegen staatliche Überwachung – ist aber blanker Hohn angesichts der Tatsachen.
Wozu eine zusätzliche Hintertür einbauen, wenn die vorhandene Architektur bereits vollständigen Zugriff ermöglicht? Indem Microsoft eure BitLocker-Schlüssel standardmäßig in seiner Cloud speichert, hat der Konzern faktisch eine Hintertür geschaffen – nur dass diese nicht als solche bezeichnet werden muss. Die öffentliche Verweigerungshaltung ist PR, die Praxis ist Massenüberwachungsinfrastruktur.
Die gute Nachricht: Es gibt Alternativen. Unter Linux-Systemen kommt standardmäßig LUKS (Linux Unified Key Setup) zum Einsatz – ein Open-Source-Verschlüsselungssystem, das echte Sicherheit bietet.
Der fundamentale Unterschied: Bei LUKS bleiben alle Schlüssel ausschließlich auf eurem eigenen System. Es gibt keine Cloud-Speicherung, keine automatische Übertragung, keine zentrale Stelle, die Zugriff hat. Euer Schlüssel existiert nur auf eurer Hardware – und damit habt ihr die vollständige Kontrolle.
LUKS basiert auf dem dm-crypt-Kernel-Modul und setzt auf bewährte Verschlüsselungsalgorithmen wie AES. Der gesamte Code ist Open Source, kann von Sicherheitsforschern weltweit überprüft werden und wird von der Community kontinuierlich auf Schwachstellen untersucht. Das Gegenteil von Microsofts geschlossener, intransparenter BitLocker-Implementierung.
Die Einrichtung von LUKS erfolgt bei den meisten Linux-Distributionen (Ubuntu, Fedora, Debian, etc.) bereits während der Installation. Ihr wählt ein starkes Passwort – fertig. Kein Microsoft-Konto, keine Cloud, keine Hintertüren. Die Verschlüsselung ist standardmäßig so stark, dass selbst Geheimdienste mit massiver Rechenleistung eure Daten nicht entschlüsseln können – vorausgesetzt, ihr nutzt ein sicheres Passwort.
LUKS unterstützt außerdem Multiple-Key-Slots: Ihr könnt mehrere Passwörter oder Schlüsseldateien für denselben verschlüsselten Container einrichten, etwa für verschiedene Teammitglieder. Ihr könnt Schlüssel jederzeit hinzufügen oder entfernen, ohne die gesamte Partition neu verschlüsseln zu müssen. Echte Kontrolle, echte Flexibilität. Es können auch nachträglich Ordner mit LUKS verschlüsselt werden.
Falls ihr Windows nutzt, solltet ihr sofort überprüfen, ob Microsoft euren BitLocker-Schlüssel gespeichert hat:

Die Funktion lässt sich deaktivieren – allerdings müsst ihr eure BitLocker-Schlüssel dann selbst sicher verwahren. Verliert ihr sie, sind eure Daten unwiederbringlich verloren. Das ist der Preis echter Sicherheit: Eigenverantwortung statt bequemer Überwachung. Leider ist es jedoch fraglich, ob die Keys dann auch wirklich von den Servern gelöscht sind, die Antwort darauf, kann sich jeder selber geben..

Die bessere Lösung: Steigt auf Linux mit LUKS um. Open Source, transparent, sicher.
Mit Donald Trumps Rückkehr ins Weiße Haus im Januar 2025 dürfte das Thema Verschlüsselung und Behördenzugriff wieder auf die politische Agenda rücken. Trump attackierte bereits in seiner ersten Amtszeit Tech-Konzerne wegen ihrer Verschlüsselungssysteme – insbesondere Apple.
Die entscheidende Frage: Wird Microsoft unter einer Trump-Administration noch stärker unter Druck geraten, den Behördenzugriff auszuweiten? Oder wird Microsoft – wie in der Vergangenheit – bereitwillig kooperieren, während sich andere Konzerne wehren?
Für euch als Nutzer bedeutet das: Die Bedrohung für eure Privatsphäre durch staatliche Überwachung wird nicht abnehmen. Im Gegenteil. Umso wichtiger ist es, jetzt auf echte Verschlüsselung zu setzen – auf Systeme, die technisch keine Hintertüren ermöglichen.
Nein, Bitlocker ist ein Schutz gegen Datendiebstahl durch physischen Zugriff auf eure Hardware. Solltet ihr den Laptop verlieren, oder wird dieser gestohlen, ist Bitlocker ein effektiver Schutz gegen Zugriff auf die Daten durch unbefugte Dritte. Jemand der die Festplatte ausbaut, hat somit keinen Zugriff auf die Daten auf der verschlüsselten Festplatte. Ohne Bitlocker kann jeder, der die Platte ausbaut, eure Daten kinderleicht auslesen.
BitLocker mit aktivierter Cloud-Speicherung ist keine Verschlüsselung im eigentlichen Sinne – es ist Sicherheitstheater. Es vermittelt euch ein falsches Gefühl von Sicherheit, während eure Daten für Microsoft und US-Behörden jederzeit zugänglich bleiben.
Die Geschichte von NSAKEY bis zur aktuellen FBI-Affäre zeigt: Microsoft hat eine lange Tradition der Kooperation mit Geheimdiensten. Der Konzern trifft bewusst Architekturentscheidungen, die Massenüberwachung ermöglichen, und schiebt die Verantwortung heuchlerisch auf euch als Nutzer ab.
Echte Sicherheit gibt es nur mit echter Verschlüsselung. LUKS unter Linux bietet genau das: Open Source, transparent, ohne Hintertüren. Eure Schlüssel bleiben auf eurem System, unter eurer Kontrolle. Kein Konzern, keine Behörde, niemand hat Zugriff – außer ihr selbst.
Weiterführende Links:
Hinweis: Ihr könnt bei uns in den Kommentaren gerne eure Erfahrungen mit BitLocker oder LUKS teilen. Habt ihr bereits auf Linux umgestellt? Welche Hürden gab es? Lasst es uns wissen!
The post BitLocker-Skandal: Microsoft liefert eure Festplattenschlüssel an das FBI appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Tuning & Overclocking Guide für Bitaxe und NerdQ Miner appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Die gute Nachricht: Die meisten ASIC Miner laufen nicht optimal ab Werk. Hersteller setzen konservative Standardeinstellungen, um zu garantieren, dass alle Chips - selbst die schwächsten aus der Produktion - stabil laufen. Das bedeutet aber auch: Euer spezifischer Chip könnte deutlich mehr leisten, effizienter arbeiten oder mit weniger Spannung auskommen. Jeder Chip ist anders, und genau hier liegt euer Potenzial!

Was euch in diesem Guide erwartet:
Lernt die Geheimnisse des Core Voltage & Frequency Tuning kennen - die beiden wichtigsten Parameter, die über Performance, Effizienz und Stabilität eurer Mining-Hardware entscheiden. Ob ihr nun:
Dieser umfassende Guide deckt alle drei Szenarien ab - von der Diagnose über die Optimierung bis hin zum sicheren Pushen eurer Hardware-Grenzen. Mit konkreten Beispielen, Schritt-für-Schritt-Anleitungen und technischem Hintergrundwissen ausgestattet, werdet ihr nach diesem Artikel genau wissen, wie ihr das Maximum aus euren Mining-Geräten herausholt!
Anfänger-Hinweis: Falls ihr neu in der Mining Welt seid, empfehlen wir euch, zunächst die Bitcoin Mining Bibel zu lesen, damit ihr die Grundlagen des Minings kennen lernt.
Stellt euch dies als die Stromversorgung des Mining-Chips' Gehirn (dem Core) vor. Gemessen in Millivolt (mV), bestimmt es, wie viel elektrische Energie dem Chip für seine Berechnungen zur Verfügung steht.
Zu niedrige Spannung führt zu Instabilität ungültigen Shares ("Invalid Shares" oder "Summit-Fehler") und somit zu schlechterer Leistung; zu hohe Spannung erhöht die Wärmeerzeugung dramatisch und riskiert Beschädigungen.
Technischer Hintergrund: Der Chip führt im Grunde Berechnungen durch, bei denen Transistoren zwischen An- und Ausgängen schalten. Eine niedrigere Spannung führt dazu, dass diese Übergänge nicht schnell genug erfolgen oder fehlschlagen, besonders bei höheren Frequenzen. Die Spannung bestimmt auch den Schwellenwert, den die Transistoren erreichen müssen – unter diesem Punkt funktioniert der Chip nicht mehr zuverlässig.
Gemessen in Megahertz (MHz), ist dies die Geschwindigkeit, mit der der Chip seine Hash-Berechnungen durchführt.
Höhere Frequenz = mehr Berechnungen pro Sekunde = potentiell höhere Hashrate, aber es benötigt auch mehr Stromzufuhr und erzeugt wesentlich mehr Wärme.
Technischer Kontext: Die Frequenz bestimmt, wie viele Male pro Sekunde die internen Logik-Gatter schalten. Bei SHA-256 (Bitcoin Mining) müssen Millionen von logischen Operationen pro Hash durchgeführt werden. Die Frequenz multipliziert sich direkt in der Hashrate-Berechnung.
Diese zwei Einstellungen sind nicht unabhängig.
Frequenz erhöhen erfordert Spannung: Wenn ihr die Frequenz erhöht, schalten die Transistoren schneller. Dies erfordert jedoch, dass die Spannung hoch genug ist, um diese schnelleren Übergänge zuverlässig zu treiben. Eine zu niedrige Spannung bei hoher Frequenz führt zu "Timing Violations" – der Chip kann seine Operationen nicht in der geforderten Zeit abschließen.
Spannung erhöhen kostet Energie & Wärme: Eine höhere Spannung bedeutet, dass mehr Strom durch die Transistoren fließt. Dies folgt dem Ohmschen Gesetz: P = V² × I / R. Da die Verlustleistung mit dem Quadrat der Spannung zunimmt (oder mit V × I), steigt die Wärmeerzeugung superlinear – eine kleine Spannungserhöhung kann zu einer großen Temperaturerhöhung führen.
Effizienzkurve (J/TH): Energieeffizienz wird in Joules per Terahash (J/TH) gemessen. Der optimale Punkt für die meisten ASIC-Chips liegt typischerweise im mittleren Spannungsbereich (nicht zu niedrig, nicht zu hoch) und bei einer Frequenz, die nicht zu weit über dem Factory Default liegt. Das "sweetspot" variiert stark je nach Chip und Batch.
Die kurze Antwort: Nein.
Die Werkseinstellungen (z.B. 1150mV / 550MHz für einen ASIC Chip wie den BM1370) sind lediglich sichere Startpunkte, die auf Durchschnittswerten über tausende von Chips basieren.
Warum Variationen existieren:
Dieser Guide ist für 3 Szenarien sinnvoll:
Sicher zusätzliche Performance heraus holen – natürlich mit Vorsicht!
Möchtet ihr die maximale Effizienz aus eurem Miner herausholen, dann seid ihr in diesen Abschnitt genau richtig. Wir senken die ASIC Spannung so ab, damit der Stromverbrauch sinkt, und die Effizienz des Geräts steigt. Das gute daran, es ist praktisch nicht gefährlich.
Wenn euer Miner-Dashboard konsistent niedrige Hash-Submissions ("Invalid Shares", "HW Errors") zeigt, oder die Gesamthashrate konsistent unter Erwartungen liegt – dies deutet oft auf unzureichende Core Voltage für die aktuelle Frequenz hin.
Häufige Fehler:
Low Hashrate: Der Chip hasht, sendet aber weniger als erwartete SharesInvalid Shares: Der Chip produziert ungültige Hashes (falsche Berechnungen)Hardware Errors (HW): Der Chip schlägt bei der Verarbeitung fehlMacht euch mit dem User Interface von AxeOS oder der NerdQ Geräte vertraut. Beide Geräte bieten eine saubere und übersichtliche Oberfläche an, um die Performance der Geräte bestens zu überwachen.
AxeOS:
NerdQ OS:
In den Dashboards habt ihr den Überblick zur Hashrate, dem Stromverbrauch, die Input Voltage des Netztteils, die ASIC Spannung in Volt, die ASIC Temperatur, die VRM/VR Temperatur, die Lüfterdrehzahl und die Lüfterdrehzahl in Prozent. Diese Angaben helfen euch, den aktuellen Stand des Gerätes einzuschätzen.
In AxeOS müsst ihr Einstellungen/Settings des Gerätes, und dort den OC Modus freischalten. Dazu muss am Ende des Browserlinks ein
?oc=
angehängt werden. Aus
http://192.168.5.30/#/settings
wird
http://192.168.5.30/#/settings?oc=
Danach zeigt sich ein gelber Banner mit einem Warnhinweis:

Auf den NerdQ Geräten könnt ihr das über einen einfach Button tun:
Danach könnt ihr die Frequenzen und die Spannungen freier auswählen und feiner abstimmen
Bitaxen und NerdQ Geräte verfügen über eine automatische Lüftersteuerung, welche nach einem Temperatur Target arbeitet. Heisst also, die Lüfter Geschwindigkeit passt sich automatisch an die ASIC Temperatur an. Erhöht ihr Frequenz und Spannung, steigt nicht unbedingt die Chip Temperatur, sondern die Lüfterdrehzahl erhöht sich, bis das Maximum von 100% erreicht ist.
Aus Sicherheitsgründen sollte ein Lüfter nicht bei 100% im automatischen Modus laufen, da hier keinerlei Reserven mehr bestehen, vor allem, wenn es im Raum wärmer werden sollte. Ein gutes Temperatur Target liegt bei 60°c. Optimalerweise dreht der Lüfter dabei bei ca 50% seiner maximalen Drehzahl
Die Einstellungen dazu findet ihr in den Settings von NerdQ oder AxeOS:
Bei Geräten mit besseren Kühlern kann man das Temperatur Target auch etwas absenken, sollte sich der Kühler zu fest langweilen, und der Lüfter mit sehr niedriger Drehzahl arbeiten. Generel kann man sagen, dass sich kühlere Chips besser übertakten lassen.
Wichtig zu wissen: die ASIC Chips sollten wenn möglich 70° nicht überschreiten. Aus Sicherheitsgründen fahren die meissten Home Miner bei über 70° herunter. Danach schaltet sich der Überhitzungsschutz ein. Dieser wird euch deutlich in den Einstellungen der Miner angezeigt. Deaktiviert den Überhitzungsschutz, und stellt die Standardwerte der Chips wieder ein (BM1370 = 525mhz bei 1.15v)
Bevor ihr weiterlest, müsst ihr diese Risiken verstehen und akzeptieren:
Overclocking führt zum Garantieverlust eures Gerätes. Wenn er durchbrennt, wars das. Es gibt sicherlich keinen Ersatz vom Verkäufer!
Bevor ihr ein einziges MHz erhöht, überprüft diese Bedingungen:
1. Baseline Stabilität
2. Temperatur im grünen Bereich
3. Stromversorgung mit Headroom
Eine Bitaxe mit aussreichender Kühlung und genügend Spielraum:
Die Temperatur liegt bei 60°, der Lüfter ist erst bei 42%
Erhöht die Frequenz für der Chips um +10 MHz (z.B. von 550 auf 560MHz).
Warum +10 MHz?
In neueren Version von AxeOS und NerdQ OS muss das Gerät nicht neugestartet werden.
Das ist der wichtigste Schritt. Geht ins Dashboard und beobachtet intensiv:
3a) Stabilität & Submissions
3b) Temperatur-Überwachung
3c) Hardware Errors & Log-Überwachung
nonce_range_err – kann auf Timing Violations hindeutendevice_hw_errors – Chip-Fehlershares_stale – seltener, aber kann auf "zu lange Berechnung" hinweisenWo beobachten:
Das Dashboard zeigt eine stabile Temperatur, der Lüfter ist nicht ausgereizt, die VRMs bleiben schön kühl.
Falls alles ok ist nach 30 Minuten Monitoring:
Typisches OC-Szenario:
550MHz (Baseline, stabil)
→ 560MHz (+10) - stabil, +0°C, 0 Fehler, Temperatur OK ✓
→ 570MHz (+10) - stabil, +0°C, 0 Fehler, Temperatur OK ✓
→ 580MHz (+10) - stabil, +0°C, 0 Fehler, Temperatur OK ✓
→ 590MHz (+10) - stabil, +1°C, 0 Fehler, Temperatur OK ✓
→ 600MHz (+10) - stabil, +2°C, 0 Fehler, Temperatur OK ✓
→ a) 610MHz (+10) - instabil (Fehler oder Hashrate sinkt), Temperatur OK, x
→ b) 610MHz (+10) - stabil, Temperatur zu hoch, x
a) ihr müsst die ASIC Spannung um 10mv erhöhen und nochmals testen
b) ihr müsst für eine bessere Kühlung sorgen
Wenn ihr nach 30 Minuten bei der neuen Frequenz Fehler oder niedriger Hashrate seht:
Diagnose:
Maßnahme: Core Voltage erhöhen
Szenario-Beispiel:
Versuch: 610MHz @ 1150mV
→ Nach 10min: 50 Invalid Shares, Hashrate sinkt
Lösung: 610MHz @ 1160mV (Spannung +10mv)
→ Nach 30min: 0 Fehler, aber Temp ist von 60°C auf 65°C gestiegen ✓
→ Akzeptabel! Speichern.
Nächster Versuch: 620MHz @ 1160mV
→ Nach 15min: Neue Fehler, 645 Invalid Shares
→ Wieder Spannung erhöhen? Vielleicht nicht. Temp ist bereits bei 65°C.
→ Lieber bei 610MHz @ 1160mV stoppen.
In meinem Falle ist aufgrund der besseren Kühlung das Gerät immer noch bei 60°, aber der Lüfter dreht schon deutlich schneller bei 54%
Wenn während eines Versuches die Temperaturen in den gefährlichen Bereich schießen:
Sichere Schwellenwerte (harte Limiten):
Wenn ihr dies seht: sofort stoppen!
Maßnahme: Rollback
Warnung: Das Ignorieren von Temperaturwarnungen ist der sicherste Weg zu permanenten Hardware-Schäden oder Bränden. Respektiert die Grenzen.
Wiederholt diese Zyklen (Freq erhöhen → Monitoren → Falls instabil, Spannung erhöhen → Monitoren temps):
Ihr stoppt, wenn eine der folgenden Bedingungen erfüllt ist:
Die "ideale" OC-Zone:
Angenommen, eure Baseline ist:
Frequency: 550MHz
Core Voltage: 1150mV
Temp: 60°C
Hashrate: 1070 GH/s (100%)
Power Draw: 18
Efficiency: 16.0 J/TH
Standard Kühlblock und Lüfter
OC-Versuch Gerät Nummer 1 mit Standard Kühler, schlechter ASIC Chip:
| Schritt | Freq | Volt | Hashrate | Temp | Fehler | Power | J/TH | Status |
|---|---|---|---|---|---|---|---|---|
| 1 | 550 | 1150 | 1100 GH/s | 60°C | Nein | 17W | 16.0 | ✓ OK |
| 2 | 570 | 1150 | 1130GH/s | 60°C | Ja (5% inv) | 17.5W | 16.5 | ⚠ Instabil |
| 3 | 590 | 1160 | 1170 GH/s | 63°C | Nein | 19W | 17.0 | ✓ OK |
| 4 | 610 | 1160 | 1240 GH/s | 64°C | Ja (10% inv) | 19.5W | 17.5 | ⚠ Instabil |
| 5 | 630 | 1170 | 1300 GH/s | 68°C | Nein | 21W | 19.0 | ⚠ Borderline |
| 6 | 640 | 1170 | 1310 GH/s | 71°C | Ja | 23W | 20.0 | ❌ Zu heiß |
Fazit: Optimales OC-Fenster liegt bei 590 MHz @ 1160 mV
Warum Schritt 3 statt Schritt 5?
Während Schritt 5 (630 MHz @ 1170 mV) die höchste Hashrate von 1300 GH/s erreicht, ist dies nicht das beste Gesamtpaket:
Schritt 5 als risikobereite Alternative:
OC Versuch Gerät Nummer 2 mit The Bitchin' Sink Kühler und dem Gelid Black Magic und zusätzlichen Effizienz Tuning
| Schritt | Freq | Volt | Hashrate | Temp | Fehler | Power | J/TH | Status |
|---|---|---|---|---|---|---|---|---|
| 1 | 550 | 1150mv | 1.07 TH/s | 60°C | Nein | 17W | 16.0 | ✓ OK |
| 2 | 570 | 1150mv | 1.10 TH/s | 60°C | Nein | 17.5W | 16.5 | ✓ OK |
| 3 | 590 | 1150mv | 1.17 TH/s | 60°C | Nein | 19W | 17.0 | ✓ OK |
| 4 | 610 | 1150mv | 1.24 TH/s | 60°C | Nein | 19.5W | 17.5 | ✓ OK |
| 5 | 630 | 1150mv | 1.29 TH/s | 61°C | Nein | 23W | 19.0 | ✓ OK |
| 6 | 640 | 1150mv | 1.31 TH/s | 62°C | Nein | 23W | 20.0 | ✓ OK |
| 7 | 640 | 1140mv | 1.31 TH/s | 61°C | Nein | 21W | 19.0 | ✓ OK |
| 8 | 640 | 1130mv | 1.31 TH/s | 60°C | Nein | 19.5W | 18.5 | ✓ OK |
| 9 | 640 | 1120mv | 1.25 TH/s | 60°c | Ja | 19.0W | 18.0 | ⚠ Instabil |
| 10 | 640 | 1130mv | 1.31 TH/s | 60°c | Nein | 19.5W | 18.5 | ✓ OK |
Fazit: OC-Versuch Gerät Nummer 2 – Optimales Fenster bei 640 MHz @ 1130 mV
Dieser Versuch zeigt deutlich bessere Ergebnisse als der erste. Mit dem The Bitcoins Sink Kühler und dem Gelid Black Magic Lüfter erreichen wir maximale Performance bei minimaler Spannung.
Optimaler Betriebspunkt: Schritt 8 / Schritt 10 (identisch)
Warum besser als Schritt 6? Beide erreichen 1.31 TH/s, aber:
Mit 20mV weniger Spannung spart ihr 3.5W Stromverbrauch und verbessert die Effizienz um 7,5%. Das ist die perfekte Kurve für Langzeitbetrieb.
Grenzbereich erkannt: Schritt 9 (1120mV) zeigt Instabilität – 1130mV ist die sichere Untergrenze.
Fazit: Der bessere Kühler ermöglicht deutlich aggressiveres Tuning mit gleichzeitig besserer Effizienz. Das ist ein sehr sauberes Ergebnis.
✅ DO:
❌ DON'T:
Während Overclocking die Hashrate maximiert, reduziert Undervolting die Spannung, um den Stromverbrauch zu senken. Das Beste: Undervolting ist sicher - es kann die Hardware nicht beschädigen. Treten Fehler auf oder sinkt die Hashrate zu stark, könnt ihr problemlos zur vorherigen Einstellung zurückkehren.
Warum Undervolting?
Der Physik-Trick: Die Leistungsaufnahme steigt quadratisch mit der Spannung: P ≈ V² × f
Ausgangssituation:

Ziel:
Notiert die aktuellen Werte:
Konservativer Start: -25mV
Alternative - Aggressiver: -50 bis -75mV
Was prüfen:
Erfolgs-Indikatoren:
Warnsignale:
Wenn Schritt 2 erfolgreich war, könnt ihr weitermachen:
Nächster Schritt: weitere -10mv reduzieren
Typische BitAxe Sweet Spots:
Nach 24 Stunden Laufzeit:
Falls instabil: Voltage um +10-20mV erhöhen
Die Bitaxe mit den neuen Settings:
Für maximale Effizienz könnt ihr beides anpassen:
Beispiel:
Ergebnis:
Wann sinnvoll:
Problem: Chip wird instabil → Voltage um +20mV erhöhen
Problem: Hashrate bricht stark ein (>10%) → Zu aggressives Undervolting, +10-20mV zurück
Problem: Temperatur sinkt kaum → Wärmeleitpaste prüfen, Kühler reinigen, mehr Voltage-Reduktion
Problem: Lüfter läuft weiter bei 100% → Lüfter-Steuerung prüfen
✅ Sicher:
✅ Vorteile:
⚠️ Beachten:
Wenn euer Miner Dashboard konsistent niedrige Hash-Submissions ("Invalid Shares", "Summit-Fehler") von spezifischen Chips oder dem gesamten Gerät zeigt, oder die Hashrate deutlich unter den Spezifikationen liegt:
Mögliche Ursachen:
Finde die minimale stabile Spannung, die alle Fehler eliminiert und die erwartete Hashrate bei der aktuellen Frequenz wiederherstellt. Dies optimiert die Energieeffizienz (J/TH) und redzuiert die Fehlerrate.
Nutzt eurer Miner-Management-Interface (AxeOS, Braiins OS+, StockOS, etc.) um zu überprüfen:
Notiert die aktuellen Einstellungen für alle Chips oder Problem-Chips:
Erhöht die Core Voltage für die problematischen Chips um +5mV (z.B. von 1150mV auf 1155mV).
Beobachtet folgende Metriken sehr genau:
5a) Submission Rate & Hashrate
5b) Temperatur
5c) Hardware Errors
nonce_range_err: Könnte auf Stromprobleme hindeuten
Wo man nach Logs sucht:
Wenn die Fehlerquoten nach 30 Minuten Monitoring immer noch hoch sind:
Typische Progression bei Problemen:
1150mV → 50% Fehler → 1160mV → 20% Fehler → 1170mV → 5% Fehler → 1180mV → 0% Fehler ✓
Wenn ihr nach mehreren Inkrementierungen (z.B. bis 1200–1200mV) immer noch keine Verbesserung siehst, liegt das Problem wahrscheinlich nicht an der Spannung oder der Chip ist wirklich kein Silikon Lottery Win:
Mögliche Probleme:
Diagnose-Schritte:
Nutzt dieses Wissen weise. Beginnt klein, überwacht obsessiv, priorisiert Stabilität und Kühlung, und respektiert immer die Grenzen der Hardware. Glücklich (und sicheres) Mining! ⛏️
Bei der praktischen Umsetzung zeigt sich häufig: Ein OC lässt sich in den meisten Fällen rückgängig machen und die Hardware wird wieder normal, solange keine Überhitzung stattgefunden hat. Wenn die Hardware nicht physikalisch beschädigt wurde, könnt ihr zu den Werkseinstellungen zurückkehren – allerdings sind thermische oder elektrische Schäden oft permanent.
Ein wichtiger Punkt: Unterschiedliche Chip-Generationen (BM1368, BM1370, etc.) sollten praktisch nicht mit denselben Einstellungen getuned werden. Während es theoretisch möglich ist, haben unterschiedliche Generationen unterschiedliche Optimalpunkte. Nutzt separate Einstellungen pro Generation, wenn möglich.
Beim Overclocking erlischt die Garantie eurer Geräte. Sollte ein defekt auftreten, habt ihr kein Anspruch auf Ersatz
Im Shop verkaufen wir Geräte, welche in der PowerSave Edition auf maximale Effizienz, und in der Special beziehungsweise Black Edition auf Leistungsfähigkeit bei angepasster Chipspannung und Chipfrequenz optimiert worden sind, ohne dass ihr die Garantie verliert. Schaut mal vorbei!
The post Tuning & Overclocking Guide für Bitaxe und NerdQ Miner appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Die BKA Timing-Attacke auf Tor: Eine technische Einordnung appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Die Antwort auf diese Fragen ist differenzierter, als es die mediale Berichterstattung vermuten lässt. Dieser Artikel nimmt eine technische Einordnung der BKA-Operation vor und zeigt auf, warum Timing-Attacken zwar theoretisch möglich, in der Praxis aber äußerst aufwendig und für die allermeisten Tor-Nutzer kein realistisches Risiko darstellen.

Um zu verstehen, was bei der BKA-Operation tatsächlich passiert ist, muss man zunächst das Grundprinzip einer Timing-Attacke verstehen. Tor funktioniert, indem es den Datenverkehr der Nutzer durch mehrere Server (sogenannte Relays oder Nodes) leitet, typischerweise über eine Kette von mindestens drei Servern:
Jede Verbindungsschicht ist verschlüsselt, sodass kein einzelner Server die gesamte Verbindung sehen kann. Das ist das Kernprinzip von Tor: Kein einzelner Akteur soll gleichzeitig wissen, wer etwas sendet und wohin es gesendet wird.
Eine Timing-Attacke versucht nun, diese Trennung aufzuheben, indem sie Datenpakete zeitlich korreliert. Die grundlegende Idee ist simpel: Wenn ein Angreifer sowohl den Entry Node als auch den Exit Node kontrolliert (oder zumindest überwachen kann), kann er die Zeitstempel der ein- und ausgehenden Datenpakete vergleichen. Stimmen die Timing-Muster überein, lässt sich mit hoher Wahrscheinlichkeit ableiten, dass beide Datenpakete zur selben Verbindung gehören.
Forscher haben gezeigt, dass bereits einfache statistische Methoden wie die Analyse von Paket-Interarrival-Zeiten (die Zeit zwischen aufeinanderfolgenden Paketen) ausreichen können, um Verbindungen zu korrelieren. Algorithmen wie Mutual Information oder Frequency Analysis können verwendet werden, um charakteristische "Fingerabdrücke" im Datenverkehr zu identifizieren.
Konkret funktioniert eine Timing-Attacke in mehreren Schritten:
Das Problem: Diese Attacken funktionieren umso besser, je mehr Traffic ein Angreifer überwachen kann und je weniger andere Verbindungen parallel laufen. Bei einem Netzwerk mit Millionen von Nutzern und tausenden von Nodes wird die Sache schnell kompliziert.
Ein praktisches Beispiel verdeutlicht die Komplexität: Stellt euch vor, ihr beobachtet einen Entry Node mit 100 aktiven Verbindungen und einen Exit Node mit 80 aktiven Verbindungen. Rein mathematisch ergeben sich daraus 8.000 mögliche Verbindungskombinationen. Selbst mit perfekten Timing-Daten ist es nicht trivial, die richtigen Paare zu finden – besonders wenn mehrere Nutzer gleichzeitig ähnliche Websites besuchen oder ähnliche Traffic-Muster erzeugen.
Laut dem Panorama-Bericht und den Recherchen des Chaos Computer Clubs (CCC) hat das BKA zwischen 2019 und 2021 Timing-Attacken durchgeführt, um den Administrator der Darknet-Plattform "Boystown" zu identifizieren. Die Details der Operation wurden nie vollständig offengelegt, aber aus den verfügbaren Informationen lässt sich Folgendes rekonstruieren:
Das Tor Project selbst geht davon aus, dass die Deanonymisierung primär deshalb gelang, weil der Administrator eine veraltete Version von Ricochet verwendete, die vor 2022 entwickelt wurde. Diese Version enthielt noch keine Vanguards-lite-Technologie, die speziell gegen solche Guard-Discovery-Attacken entwickelt wurde.
Vanguards-lite funktioniert, indem es die Auswahl der Middle Nodes nicht mehr vollständig zufällig erfolgen lässt, sondern ein Set von festen "Vanguard"-Nodes definiert, die rotiert werden. Dadurch wird das "unendliche Würfelspiel" eliminiert, bei dem ein Angreifer einfach nur lange genug warten muss, bis sein kompromittierter Node ausgewählt wird.
Es ist deshalb spannend zu sehen, wie die meissten staatstreuen Medien von einem "schweren Schlag für das Tor Project" sprechen, obwohl der das Problem eigentlich der veraltet Ricochet Messenger das Problem war.

Der NDR sprach auch von einer erfolgreichen Unterwanderung von Tor, spricht aber auch nur die nur einen Bruchteil der wirklichen Geschehnisse an:
Hier kommen wir zum Kern der Sache, der in der Berichterstattung oft untergeht: Die beschriebene Timing-Attacke funktioniert primär bei Verbindungen ins Clearnet, also wenn ein Exit Node verwendet wird.
Wenn Nutzer über Tor auf normale Websites zugreifen (z.B. google.com oder wikipedia.org), verlässt ihr Datenverkehr das Tor-Netzwerk am Exit Node. An diesem Punkt ist der Datenverkehr entschlüsselt (zumindest soweit keine zusätzliche TLS-Verschlüsselung verwendet wird) und kann von einem Angreifer, der den Exit Node kontrolliert, vollständig eingesehen werden.
Kontrolliert ein Angreifer nun sowohl den Entry Node als auch den Exit Node, kann er:
Die Situation ändert sich dramatisch, wenn man ausschließlich innerhalb des Tor-Netzwerks bleibt, also auf .onion-Websites (Hidden Services/Onion Services) zugreift. In diesem Fall:
Für eine erfolgreiche Timing-Attacke müsste ein Angreifer in diesem Szenario:
Das ist um Größenordnungen schwieriger als die "simple" Entry-Exit-Korrelation.
Timing-Attacken sind keine "Script-Kiddie"-Angriffe. Sie erfordern:
Die BKA-Operation zeigt deutlich: Timing-Attacken sind ein Werkzeug, das realistisch nur von staatlichen Akteuren mit erheblichen Ressourcen eingesetzt werden kann. Ein durchschnittlicher Cyberkrimineller, eine Hackergruppe oder selbst ein Unternehmen haben nicht:
Das Tor-Netzwerk besteht Stand 2025 aus:
Die Wahrscheinlichkeit, dass ein durchschnittlicher Tor-Nutzer zufällig eine Verbindung aufbaut, bei der sowohl Entry als auch Exit Node von einem Angreifer kontrolliert werden, ist extrem gering. Selbst wenn ein Angreifer 10% aller Nodes kontrollieren würde (was eine massive Investition wäre), läge die Wahrscheinlichkeit bei etwa 1%.
Für die überwiegende Mehrheit der Tor-Nutzer – Aktivisten, Journalisten, Menschen in repressiven Regimen, Privacy-Enthusiasten – sind Timing-Attacken kein realistisches Bedrohungsszenario.
Das Tor Project arbeitet kontinuierlich daran, das Netzwerk gegen verschiedene Angriffsformen zu härten. Seit der Zeitperiode der BKA-Operation (2019-2021) wurden mehrere wichtige Verbesserungen implementiert:
Vanguards-lite ist die wichtigste Gegenmaßnahme gegen Guard-Discovery-Attacken. Das System funktioniert wie folgt:
Vanguards-lite ist seit Tor 0.4.7 standardmäßig aktiviert für alle Onion-Service-Aktivitäten.

Für besonders sicherheitsbewusste Onion-Service-Betreiber gibt es "Full Vanguards", ein noch strengeres System:
Tor experimentiert mit verschiedenen Techniken, um Timing-Muster zu verschleiern:
Diese Techniken befinden sich teilweise noch in der Forschungs- und Entwicklungsphase, da sie immer einen Trade-off zwischen Sicherheit und Latenz darstellen.
Das Tor Project arbeitet aktiv daran, die Diversität des Netzwerks zu erhöhen:
Seit 2021 wurden die Mechanismen zur Erkennung von Angriffen deutlich verbessert:
Wer wirklich maximale Sicherheit braucht (Whistleblower, Journalisten in Kriegsgebieten, politische Aktivisten unter autoritären Regimen), sollte zusätzlich beachten:
Für die allermeisten Nutzer sind folgende Bedrohungen relevanter als Timing-Attacken:
Die Berichterstattung über die BKA-Operation war zweifellos wichtig und hat eine berechtigte Diskussion über die Grenzen von Tor angestoßen. Allerdings muss man konstatieren, dass die Darstellung teilweise irreführend war:
Es ist nachvollziehbar, dass Berichte über erfolgreiche Deanonymisierungen Unsicherheit erzeugen. Gleichzeitig besteht die Gefahr, dass Menschen, die auf Anonymität angewiesen sind – Whistleblower, Journalisten in autoritären Staaten, Aktivisten – abgeschreckt werden und auf schlechtere oder gar keine Anonymisierungslösungen zurückgreifen.
Die Realität ist: Tor ist nach wie vor das beste verfügbare Werkzeug für Online-Anonymität. Keine andere Technologie bietet eine vergleichbare Kombination aus Benutzerfreundlichkeit, Netzwerkgröße und technischer Robustheit. Perfekt ist es nicht – das ist keine Technologie. Aber für die überwältigende Mehrheit der Bedrohungsszenarien ist Tor mehr als ausreichend.
Es ist wichtig, zwischen verschiedenen Typen von Angreifern zu unterscheiden:
Diese haben die Ressourcen für Timing-Attacken, aber:
Diese können ebenfalls Timing-Attacken durchführen, haben aber oft:
Für diese ist eine Timing-Attacke in den allermeisten Fällen:
Für Tracking-Zwecke sind:
Die Forschung an anonymen Netzwerken steht nicht still. Einige vielversprechende Entwicklungen:
Forscher arbeiten an Systemen wie MUFFLER, die Egress-Traffic dynamisch verschleiern, um Korrelationsangriffe zu erschweren. Der Overhead bleibt dabei minimal – ein entscheidender Faktor für die Praktikabilität.
Interessanterweise könnte KI sowohl Bedrohung als auch Lösung sein:
Obwohl Quantencomputer noch keine unmittelbare Bedrohung darstellen, arbeitet Tor bereits an der Integration von Post-Quantum-Kryptographie, um auch gegen zukünftige Bedrohungen gewappnet zu sein.
Projekte wie FlashFlow haben gezeigt, dass Tor die Kapazität seiner Relays bisher um etwa 50% unterschätzt. Bessere Messungen könnten zu einer deutlich höheren Netzwerk-Performance führen.
Nach dieser detaillierten technischen Analyse lässt sich festhalten:
Die BKA-Operation zeigt nicht, dass Tor "unsicher" ist, sondern dass keine Anonymisierungstechnologie absolute Sicherheit bieten kann – besonders nicht gegen Gegner mit nahezu unbegrenzten Ressourcen. Aber genau darauf war Tor auch nie ausgelegt.
Tor schützt gegen die allermeisten Bedrohungen:
Wer als durchschnittlicher Nutzer Tor verwendet, um seine Privatsphäre zu schützen, seine Meinung frei zu äußern oder auf zensierte Inhalte zuzugreifen, kann dies weiterhin mit sehr hoher Sicherheit tun. Wer allerdings plant, eine internationale Kinderpornographie-Plattform zu betreiben und dabei veraltete Software zu verwenden, sollte sich nicht wundern, wenn internationale Strafverfolgungsbehörden erhebliche Ressourcen aufwenden, um ihn zu finden – und das ist auch gut so.
Die entscheidende Botschaft: Lasst euch nicht verunsichern. Tor ist nach wie vor das beste Werkzeug für Online-Anonymität. Aktualisiert eure Software, verwendet Onion Services wo möglich, und denkt daran, dass technische Sicherheit nur ein Teil guter OpSec ist. Der Rest liegt bei euch.
The post Die BKA Timing-Attacke auf Tor: Eine technische Einordnung appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Metadaten bei Messengern: Was Nachrichten über euch verraten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Wenn ihr eine Nachricht verschickt, besteht diese aus zwei Teilen: dem Inhalt („Treffen wir uns um 18 Uhr am Bahnhof?") und den Metadaten – also allen Informationen über diese Nachricht. Metadaten sind „Daten über Daten" und umfassen bei Messengern typischerweise:
Der entscheidende Punkt ist: Ende-zu-Ende-Verschlüsselung schützt nur den Inhalt – die Metadaten bleiben in den meisten Fällen für den Messenger-Betreiber vollständig sichtbar. Stellt euch einen Briefumschlag vor: Selbst wenn der Brief darin perfekt versiegelt ist, steht auf dem Umschlag trotzdem Absender, Empfänger und Poststempel. Der Postbote muss diese Informationen sehen, um den Brief zuzustellen. Bei digitaler Kommunikation verhält es sich ähnlich – mit dem Unterschied, dass diese „Umschläge" dauerhaft gespeichert und analysiert werden können.
Einzelne Metadaten wirken harmlos. Dass ihr am Dienstag um 14:23 Uhr eine Nachricht an Hans verschickt habt, verrät wenig. Die Macht der Metadaten entfaltet sich erst durch Aggregation – also die Kombination vieler einzelner Datenpunkte über längere Zeiträume.
Eine Stanford-Studie aus dem Jahr 2016 demonstrierte dies eindrucksvoll: Forscher analysierten die Metadaten von 823 Freiwilligen – insgesamt 250.000 Anrufe und 1,2 Millionen SMS. Aus den reinen Verbindungsdaten konnten sie ableiten, welche Teilnehmer vermutlich Herzrhythmusstörungen hatten (regelmäßige Anrufe bei Kardiologen und Herz-Monitoring-Hotlines), wer bestimmte Waffen besaß (Anrufe bei Waffenhändlern und Hersteller-Support) und wer möglicherweise eine Abtreibung plante (Anrufe bei Gynäkologen, gefolgt von Abtreibungskliniken).
Die Electronic Frontier Foundation (EFF) bringt das Problem auf den Punkt mit Beispielen wie: „Sie wissen, dass ihr um 2:24 Uhr morgens bei einer Telefonsex-Hotline angerufen und 18 Minuten gesprochen habt. Aber nicht, worüber." Oder: „Sie wissen, dass ihr die Suizid-Präventions-Hotline von der Golden Gate Bridge aus angerufen habt. Aber das Thema des Gesprächs bleibt geheim."
Die Aussage, dass Metadaten heute oft interessanter sind als die eigentlichen Kommunikationsinhalte, stammt nicht von Datenschutz-Aktivisten, sondern von den höchsten Ebenen der Geheimdienste selbst.
Michael Hayden, der sowohl NSA-Direktor (1999-2005) als auch CIA-Direktor (2006-2009) war, sagte bei einer öffentlichen Debatte an der Johns Hopkins University im April 2014: „We kill people based on metadata" – Wir töten Menschen basierend auf Metadaten. Er bestätigte diese Aussage 2016 bei TechCrunch Disrupt: „Metadaten sind unglaublich mächtig. Metadaten sollten keinen Freifahrtschein bekommen."
Stewart Baker, ehemaliger Rechtsberater der NSA, formulierte es noch deutlicher: „Metadaten sagen euch absolut alles über jemandes Leben. Wenn ihr genug Metadaten habt, braucht ihr den Inhalt eigentlich nicht mehr."
Diese Aussagen sind keine Übertreibung: Das NSA-Programm SKYNET wendete maschinelles Lernen auf Mobilfunk-Metadaten von 55 Millionen Menschen in Pakistan an. Der Algorithmus analysierte über 80 verschiedene Verhaltensindikatoren – Bewegungsmuster, Anrufhäufigkeiten, Reiseverhalten, SIM-Karten-Wechsel, Kontaktnetzwerke – und berechnete „Terrorismuswahrscheinlichkeiten" für potenzielle Drohnenangriffsziele. Zwischen 2.500 und 4.000 Menschen wurden seit 2004 durch Drohnenangriffe in Pakistan getötet, viele davon durch solche „Signatur-Angriffe" basierend auf Verhaltensmustern statt konkreter Beweise.
Für Überwachung haben Metadaten mehrere technische Vorteile gegenüber Inhalten. Die Skalierbarkeit: Während das Abhören und Auswerten von Millionen Telefongesprächen enormen personellen Aufwand erfordert, können Metadaten automatisiert durchsucht und analysiert werden. Die Mustererkennung: Machine-Learning-Algorithmen können aus Metadaten Verhaltensprofile erstellen, soziale Netzwerke kartieren und Anomalien identifizieren. Die Präzision: Metadaten sind eindeutig – ein Zeitstempel oder eine IP-Adresse lässt weniger Interpretationsspielraum als ein mehrdeutiges Gespräch. Die rechtliche Situation: Historisch genießen Metadaten weniger rechtlichen Schutz als Kommunikationsinhalte.
Die Stanford-Studie zeigte außerdem die erschreckende Reichweite: Eine einzige „Seed"-Telefonnummer kann durch Zwei-Hop-Analyse (Kontakte der Kontakte) zur Überwachung von etwa 25.000 Personen führen.
WhatsApp nutzt das Signal-Protokoll für Ende-zu-Ende-Verschlüsselung und bewirbt dies prominent. Die Nachrichteninhalte kann WhatsApp über umwegen trotzdem noch lesen. Bei den Metadaten sieht es anders aus.

Laut WhatsApps eigener Datenschutzrichtlinie sammelt der Dienst: Die komplette Kontaktliste eures Telefons (sofern ihr die Berechtigung erteilt habt), Zeitstempel zu „Zeit, Häufigkeit und Dauer eurer Aktivitäten und Interaktionen", IP-Adressen zur Schätzung des „allgemeinen Standorts (Stadt und Land)" auch ohne aktivierte Standortfunktionen, Gruppenmitgliedschaften inklusive Gruppennamen, Profilbilder und Beschreibungen, Geräteinformationen wie Hardware-Modell, Betriebssystem, Akkustand, Signalstärke, App-Version und Mobilfunkanbieter sowie Nutzungsmuster darüber, wie ihr den Dienst nutzt und mit anderen interagiert.
Diese Daten werden nicht nur für den Betrieb des Dienstes verwendet. WhatsApp teilt Metadaten mit anderen Meta-Unternehmen (Facebook, Instagram). Die geteilten Daten umfassen Telefonnummern, Gerätedaten, Nutzungsmuster und IP-Adressen – verwendet für „zielgerichtete Werbung über Meta-Plattformen hinweg". In der EU beruft sich Meta dabei auf „berechtigte Interessen" nach der DSGVO statt auf explizite Einwilligung – ein Ansatz, der von Datenschützern stark kritisiert wird.
Ein besonders kritischer Aspekt wurde durch FBI-Dokumente bekannt: WhatsApp ist der einzige große Messenger, der bei entsprechenden richterlichen Anordnungen (sogenannten Pen Register) Metadaten in Nahe-Echtzeit alle 15 Minuten an Behörden übermitteln kann. Die Behörden erfahren damit, wer mit wem kommuniziert, wann und wie lange – nur nicht den Inhalt. Wenn die Behörden es wollen, bekommen sie die unverschlüsselten Chatbackups obendrein noch per Anfrage an Google, wahrscheinlich in ähnlicher kurzer Zeit.
Im Mai 2024 enthüllte The Intercept ein internes WhatsApp-Memo, in dem die eigenen Ingenieure warnten, dass „Traffic-Analyse-Schwachstellen es Regierungen ermöglichen, unsere Verschlüsselung zu umgehen". Das Problem: Selbst wenn der Inhalt verschlüsselt ist, können Überwacher durch Analyse von Nachrichtengrößen, Timing und Kommunikationsmustern erhebliche Informationen extrahieren.
WhatsApp betreibt eine vollständig zentralisierte Infrastruktur auf Metas globalen Rechenzentren. Der Server-Code ist proprietär und nicht einsehbar. Alle Metadaten laufen über diese zentrale Infrastruktur und können dort aggregiert, analysiert und bei Bedarf an Behörden oder Meta-Partner weitergegeben werden. Die Verschlüsselung der Inhalte ändert daran nichts.
Signal gilt als Referenz für private Kommunikation – und das zu Recht. Anders als die Konkurrenz verfolgt Signal eine radikale Datensparsamkeit, die durch dokumentierte Gerichtsverfahren verifiziert wurde.

Signal speichert nachweisbar nur drei Datenpunkte: Die Telefonnummer (als kryptografischer Hash), das Account-Erstellungsdatum (Unix-Timestamp der Registrierung) und den letzten Verbindungstag (nur das Datum, nicht die Uhrzeit).
Was Signal nicht speichert: IP-Adressen (temporär während Verbindung sichtbar, aber nicht geloggt), Kontaktlisten (werden nur lokal verarbeitet), Gruppenmitgliedschaften (Server kennt weder Gruppen noch deren Mitglieder), Kommunikationspartner (dazu gleich mehr), Nachrichteninhalte (Ende-zu-Ende-verschlüsselt, technisch unzugänglich) und Profilnamen und Avatare (ebenfalls Ende-zu-Ende-verschlüsselt).
Diese Angaben sind nicht nur Marketing-Versprechen. Signal veröffentlicht alle Behördenanfragen auf signal.org/bigbrother. Bei sechs dokumentierten Anfragen zwischen 2016 und 2024 – darunter Grand Jury Subpoenas und Search Warrants – forderten Behörden umfassende Daten: Namen, Adressen, Kommunikationsinhalte, Kontakte, Gruppenmitgliedschaften, Anrufprotokolle. In jedem Fall konnte Signal nur die drei genannten Datenpunkte liefern.
Die Innovation, die Signal von allen anderen unterscheidet, ist Sealed Sender (seit Oktober 2018). Diese Technologie funktioniert wie ein Briefumschlag mit verborgenem Absenderfeld.
Der technische Ablauf: Der Sender erhält regelmäßig kurzlebige Sender-Zertifikate vom Server. Bei Nachrichtenversand wird ein zweischichtiges Verschlüsselungsmodell angewandt – der Nachrichteninhalt wird mit dem Signal-Protokoll verschlüsselt, dann wird dieser „innere Umschlag" mit Sender-Zertifikat zusätzlich via X25519-Schlüsselaustausch verschlüsselt. Die Nachricht wird anschließend anonym an den Server übergeben, nur mit dem Delivery-Token des Empfängers. Der Signal-Server kennt dadurch nur das Ziel, nicht den Absender.
Einschränkungen: Eine wissenschaftliche Studie (NDSS 2021, University of Colorado Boulder und Boston University) zeigte, dass bei wiederholter Kommunikation statistische Angriffe theoretisch Sender-Empfänger-Paare korrelieren können. Bei aktivierten Lesebestätigungen könnte Signal bereits nach fünf Nachrichten Nutzer verknüpfen. Dieser Angriff funktioniert sogar gegen Tor/VPN-Nutzer, da er auf Anwendungsebene operiert.
Trotz dieser theoretischen Schwächen ist Sealed Sender ein massiver Fortschritt gegenüber anderen Messengern, bei denen der Server jede Kommunikationsbeziehung vollständig sieht.
Ein fundamentales Problem beim Kontaktabgleich: Telefonnummern haben einen zu kleinen Keyspace – bei etwa 10 Milliarden möglichen Nummern sind Hashes trivial umkehrbar. Signals Lösung nutzt Intel SGX (Software Guard Extensions) seit September 2017.
SGX erstellt isolierte Speicherbereiche (Secure Enclaves) auf Hardware-Ebene, die selbst für Betriebssystem und Server-Administratoren unzugänglich sind. Der Client baut eine direkte verschlüsselte Verbindung zur Enklave auf und verifiziert via Remote Attestation, dass der veröffentlichte Open-Source-Code tatsächlich läuft. Kontakte werden verschlüsselt an die Enklave gesendet, der Abgleich findet isoliert statt, nur das verschlüsselte Ergebnis wird zurückgesendet.
Da SGX-Schwachstellen bekannt sind (Spectre/Meltdown, Foreshadow, SGAxe, SmashEx), kam 2024 die Antwort mit SVR3 (Secure Value Recovery 3): Das Vertrauen wird auf drei verschiedene Hardware-Technologien bei drei Cloud-Anbietern verteilt – Intel SGX (Microsoft Azure), AWS Nitro (Amazon) und AMD SEV-SNP (Google Cloud). Ein Angreifer müsste alle drei Systeme gleichzeitig kompromittieren.
Signal erfordert weiterhin eine Telefonnummer zur Registrierung – primär um Spam-Accounts zu erschweren. Seit Februar 2024 ermöglicht das Username-System jedoch Kommunikation ohne Telefonnummern-Freigabe.
Usernames dienen ausschließlich der Kontaktaufnahme, nicht der Anzeige im Chat (dort erscheint der Profilname). Sie müssen eindeutig sein und mindestens zwei Ziffern am Ende enthalten (z.B. „axolotl.99"). Es gibt kein durchsuchbares Verzeichnis – der exakte Username muss bekannt sein. Usernames werden nicht im Klartext gespeichert, sondern durch Zero-Knowledge-Proofs geschützt.
Die Telefonnummer ist seit Februar 2024 standardmäßig nicht mehr sichtbar für Personen, die sie nicht bereits gespeichert haben. Bei maximaler Privatsphäre-Einstellung (beide auf „Niemand") ist Kontakt nur über den exakten Username möglich.
Signal ist größtenteils Open Source – Client-Apps, Server-Code (Java/Spring Boot), die Kryptografie-Bibliothek libsignal (Rust) und mehr sind öffentlich auf github.com/signalapp verfügbar. Die einzige Ausnahme ist das Anti-Spam-System. Signals Begründung: „Im Gegensatz zu Verschlüsselungsprotokollen, die nachweisbar sicher sein sollen, selbst wenn jeder weiß, wie sie funktionieren, ist Spam-Erkennung eine laufende Aufgabe, für die Transparenz einen großen Nachteil darstellt."
Ein Vertrauensbruch ereignete sich 2020-2021: Vom 22. April 2020 bis 6. April 2021 veröffentlichte Signal keine Server-Updates – elf Monate Stille. Erst nach Community-Kritik erfolgte ein großer „Code Dump". Der Vorfall beschädigte das Vertrauen in die vollständig offene Entwicklung, auch wenn Signal seither wieder regelmäßige Updates veröffentlicht.
Telegram wird oft als sichere Alternative zu WhatsApp wahrgenommen. Bei genauer Betrachtung zeigt sich jedoch, dass Telegram in wichtigen Aspekten weniger privat ist als WhatsApp – und dass sich die Situation seit August 2024 dramatisch verändert hat.

Der wichtigste Unterschied zu WhatsApp und Signal: Telegrams normale Chats sind nicht Ende-zu-Ende-verschlüsselt. Sie sind lediglich transportverschlüsselt – das heißt, sie sind auf dem Weg zwischen eurem Gerät und Telegrams Servern geschützt, aber Telegram selbst kann alle Nachrichten in Cloud-Chats entschlüsseln und lesen.
Nur die separat aktivierbaren „Geheimen Chats" bieten Ende-zu-Ende-Verschlüsselung. Diese müssen jedoch manuell gestartet werden, sind nur auf einem einzelnen Gerät verfügbar und unterstützen keine Gruppen. In der Praxis nutzen die meisten Menschen die Standard-Cloud-Chats – und wissen oft nicht, dass Telegram deren Inhalt lesen kann.
Telegram sammelt Telefonnummern (obligatorisch für die Registrierung), IP-Adressen (bis zu 12 Monate gespeichert), Geräteinformationen und die Historie von Benutzernamen-Änderungen. Das Unternehmen betreibt Server in fünf Rechenzentren: zwei in Miami, zwei in Amsterdam und eines in Singapur.
Telegram betont, keine Daten für Werbung zu nutzen und die Verschlüsselungsschlüssel für Cloud-Chats auf mehrere Rechenzentren in verschiedenen Jurisdiktionen zu verteilen. Dies soll es erschweren, Daten durch einzelne Gerichtsurteile herauszugeben.
Im August 2024 wurde Telegram-Gründer Pavel Durov in Frankreich verhaftet. Die Folgen für Telegrams Datenschutz waren dramatisch: Am 23. September 2024 änderte Telegram seine Datenschutzrichtlinie fundamental. Vorher gab Telegram nach eigenen Angaben nur bei „bestätigten Terrorismusermittlungen" Daten heraus und behauptete, „0 Bytes an Nutzernachrichten an Dritte, einschließlich Regierungen" weitergegeben zu haben.
Nach der Änderung gibt Telegram nun bei richterlichen Anordnungen IP-Adressen und Telefonnummern auch für Fälle von Cyberkriminalität, illegalem Warenhandel und Online-Betrug heraus. Die Zahlen sprechen für sich: Im gesamten Jahr 2024 erfüllte Telegram 900 Anfragen der US-Regierung (betraf 2.253 Nutzer), während es vor September nur 14 Anfragen waren (108 Nutzer). Aus Indien kamen 6.992 Anfragen, aus Brasilien 203.
Telegram verwendet mit MTProto ein selbst entwickeltes Verschlüsselungsprotokoll statt etablierter Standards. Sicherheitsforscher der ETH Zürich und der University of London identifizierten 2021 vier kryptografische Schwächen: Möglichkeiten zur Nachrichtenumordnung, Erkennung verschlüsselter Nachrichtentypen unter bestimmten Bedingungen, theoretische Klartext-Wiederherstellung durch Timing-Seitenkänale und potenzielle Man-in-the-Middle-Angriffe.
Telegram hat diese spezifischen Probleme behoben, doch die grundsätzliche Kritik bleibt: Ein Unternehmen, das eigene Kryptografie entwickelt („roll your own crypto") statt auf auditierte Standards zu setzen, wird von der Security-Community skeptisch betrachtet. Der Server-Code ist zudem nicht Open Source und kann nicht unabhängig überprüft werden.
Threema aus der Schweiz verfolgt einen radikal anderen Ansatz: Minimierung aller gesammelten Daten von Anfang an. Der Messenger erfordert keine Telefonnummer und speichert Kontaktlisten ausschließlich auf den Geräten der Nutzer.

Statt euch mit einer Telefonnummer zu registrieren, generiert Threema eine zufällige 8-stellige alphanumerische ID direkt auf eurem Gerät. Telefonnummer oder E-Mail-Adresse können optional verknüpft werden – dann werden aber nur gehashte Werte (SHA-256 HMAC) an die Server übertragen. Ihr könnt Threema vollständig anonym nutzen, ohne je persönliche Daten anzugeben.
Threemas Transparenzbericht listet auf, welche Daten bei behördlichen Anfragen herausgegeben werden können: Das Datum (ohne Uhrzeit) der ID-Erstellung, das Datum (ohne Uhrzeit) des letzten Logins – und falls vom Nutzer verknüpft, den Hash von Telefonnummer oder E-Mail sowie bei kürzlicher Push-Nutzung den Push-Token.
Was Threema nicht herausgeben kann: Nachrichteninhalte (Ende-zu-Ende-verschlüsselt), Kontaktlisten (nur auf Geräten gespeichert), Gruppenmitgliedschaften (nur auf Geräten gespeichert) und IP-Adressen (werden nicht gespeichert). Nachrichten werden sofort nach erfolgreicher Zustellung von den Servern gelöscht.
Die Zahlen zeigen dies: 2024 erhielt Threema 306 behördliche Anfragen und konnte für 852 IDs Daten liefern – aber eben nur die minimalen Informationen, die technisch verfügbar sind.
Hier liegt die wichtigste Einschränkung bei der Bewertung von Threema: Während die Client-Apps seit 2020 Open Source sind (unter AGPL v3-Lizenz), bleibt der Server-Code proprietär und nicht einsehbar.
Das bedeutet: Ihr müsst Threemas Aussagen über ihr Server-Verhalten glauben. Unabhängige Überprüfung ist nicht möglich. Threema behauptet, minimale Daten zu speichern, keine Logs zu erstellen und Nachrichten sofort zu löschen – aber niemand außerhalb des Unternehmens kann das verifizieren.
Threema verweist auf mehrere externe Audits: Cure53 (2024, Desktop-App), Universität Erlangen-Nürnberg (2023, Ibex-Protokoll-Verifizierung), Cure53 (2020, umfassend), Universität Münster (2019). Allerdings stellten Forscher der ETH Zürich im Januar 2023 fest, dass frühere Audits den kryptografischen Kern der Anwendung nicht untersucht hatten.
Die ETH-Forscher identifizierten sieben Schwachstellen im ursprünglichen Protokoll, darunter Möglichkeiten für Server, die Nachrichtenreihenfolge zu manipulieren oder unter bestimmten Bedingungen Nachrichten zu fälschen. Besonders brisant: Professor Paterson bezeichnete Threemas Reaktion als „extrem irreführend", als das Unternehmen behauptete, das alte Protokoll sei „nicht mehr in Verwendung".
Threema reagierte mit dem neuen Ibex-Protokoll (November 2022), das Perfect Forward Secrecy implementiert. Dieses wurde von deutschen Forschern formal verifiziert – aber eben nur das theoretische Protokoll, nicht die konkrete Implementierung auf den proprietären Servern.
Die Schweizer Rechtslage bietet einige Vorteile: Das Land unterliegt nicht dem US CLOUD Act, und Threema fällt nach eigenen Angaben nicht unter die Schweizer Vorratsdatenspeicherungspflichten (BÜPF), da die Umsatzschwellen nicht erreicht werden. Ausländische Behörden müssen den offiziellen Rechtshilfeweg über die Schweiz gehen.
Allerdings sind Schweizer Gesetze keine absolute Garantie – bei gültigen Schweizer Gerichtsanordnungen muss auch Threema verfügbare Daten herausgeben. Der Unterschied ist, dass technisch kaum etwas verfügbar ist.
Element ist ein Messenger, der auf dem offenen Matrix-Protokoll basiert. Im Gegensatz zu den anderen vorgestellten Diensten ist Matrix föderiert – ähnlich wie E-Mail kann jeder seinen eigenen Server betreiben, und alle Server kommunizieren miteinander.

Bei Matrix registriert ihr euch bei einem „Homeserver" – entweder dem öffentlichen matrix.org (betrieben von Element) oder einem selbst gehosteten Server. Wenn ihr mit jemandem auf einem anderen Server kommuniziert, werden die Nachrichten zwischen den Servern repliziert.
Dies hat fundamentale Auswirkungen auf Metadaten: In einem Gruppenchat mit Teilnehmern von fünf verschiedenen Servern speichern alle fünf Server die Metadaten – wer Mitglied ist, wann Nachrichten geschickt wurden, wer wann beigetreten oder gegangen ist. Wenn ein neuer Server einem Raum beitritt, erhält er eine vollständige Kopie aller historischen Metadaten.
Homeserver-Betreiber können sehen: Benutzer-IDs und Anzeigenamen, Raummitgliedschaften (wer ist in welchen Räumen), Geräte-IDs und -informationen, Zeitstempel aller Nachrichten, wer mit wem wann kommuniziert und die IP-Adressen ihrer eigenen Nutzer.
Selbst in Ende-zu-Ende-verschlüsselten Räumen bleiben Mitgliedschaften im Klartext sichtbar. Beitritts-, Austritts- und Verbannungsereignisse müssen für die Protokollintegrität dauerhaft gespeichert werden.
Die Element-App nutzt standardmäßig den matrix.org-Server, der etwa 35% aller aktiven Matrix-Nutzer repräsentiert – ein gewisses Zentralisierungsproblem für ein dezentrales Protokoll. Element als Unternehmen sammelt bei Nutzung ihrer Server: Account-Authentifikatoren, E-Mail-Adressen (falls angegeben), IP-Adressen und Geräte-Agenten (bei Opt-in für Analytics) sowie Push-Token für Benachrichtigungen.
Der große Unterschied zu WhatsApp, Signal oder Telegram: Keine Telefonnummer ist erforderlich, und ihr könnt euren eigenen Server betreiben mit vollständiger Kontrolle über die Datenaufbewahrung.
Ein wichtiger Aspekt bei der Bewertung von Matrix: Die meisten Matrix-Server (Synapse-Instanzen) werden von datenschutzfreundlichen Betreibern gehostet – Universitäten, Privacy-Organisationen, Tech-Communities oder Privatpersonen. Diese Betreiber haben im Gegensatz zu Meta oder Google kein Geschäftsmodell, das auf Datenauswertung basiert. Während WhatsApp Metadaten systematisch für Werbezwecke analysiert, haben die meisten Matrix-Serverbetreiber weder das Interesse noch die technische Infrastruktur für solche Analysen. Die technische Möglichkeit zum Metadaten-Zugriff besteht zwar, aber die wirtschaftlichen Anreize zur Auswertung fehlen vollständig.
Die Vorteile: Kein einzelner Angriffspunkt, keine zentrale Überwachungsmöglichkeit, Self-Hosting ermöglicht volle Datensouveränität, geschlossene Föderationen möglich (wie beim Bundeswehr-Messenger BwMessenger oder dem französischen Behörden-Messenger Tchap).
Die Nachteile: Metadaten verteilen sich auf alle teilnehmenden Server – ihr müsst nicht nur eurem eigenen Server vertrauen, sondern auch allen Servern in Räumen, denen ihr beitretet. Das Löschen von Daten ist nur eine Empfehlung – andere Server in der Föderation können Daten behalten. Das DSGVO-Recht auf Löschung wird vom Protokoll unterstützt, kann aber für föderierte Server außerhalb der Kontrolle von Element nicht garantiert werden.
Matrix 2.0, veröffentlicht im Oktober 2024, brachte „Invisible Encryption" – Ende-zu-Ende-Verschlüsselung so nahtlos wie bei Signal. Die Integration des MLS-Protokolls (Messaging Layer Security, RFC 9420), dem IETF-Standard für Gruppenverschlüsselung, ist in Arbeit. MLS könnte Gruppenmitgliedschaften kryptografisch verschleiern – der Server würde nur einen verschlüsselten Blob sehen.
Experimentell wird an P2P-Matrix gearbeitet, das Server-seitige Metadaten vollständig eliminieren würde, sowie an „Mixnets of blinded store & forward servers", um zu verschleiern, wer mit wem kommuniziert.
Die verschiedenen Ansätze zur Server-Architektur haben fundamentale Auswirkungen darauf, wer Zugriff auf Metadaten hat.

Zentralisierte Architektur (WhatsApp, Signal, Telegram, Threema): Ein einzelnes Unternehmen betreibt alle Server. Alle Metadaten fließen durch diese zentrale Infrastruktur. Dies ermöglicht effiziente Zustellung und einfache Skalierung, schafft aber einen „Single Point of Compromise" – eine behördliche Anfrage an dieses eine Unternehmen reicht aus, um Zugriff auf Metadaten zu erhalten.
Bei WhatsApp und Telegram bedeutet dies umfangreichen Metadaten-Zugriff. Bei Signal und Threema soll es durch technische Datensparsamkeit bedeuten, dass wenig Verwertbares vorhanden ist. Signal kann dies durch dokumentierte Gerichtsverfahren belegen, bei Threema muss man dem Unternehmen glauben.
Föderierte Architektur (Matrix/Element): Metadaten verteilen sich auf viele Server. Es gibt keinen zentralen Honeypot, aber potenziell mehr Stellen, an denen Metadaten abgegriffen werden können. Der Vorteil: Wer seinen eigenen Server betreibt, behält die volle Kontrolle über seine Daten – zumindest soweit es die eigene Seite der Kommunikation betrifft.
Peer-to-Peer-Architektur (Briar, nicht Teil des Vergleichs): Gar keine zentralen Server. Nachrichten werden direkt zwischen Geräten ausgetauscht, optional über Tor für zusätzliche Anonymität. Der Nachteil: Beide Gesprächspartner müssen gleichzeitig online sein.
Die vollständige Eliminierung von Metadaten ist technisch extrem schwierig – schließlich muss ein System irgendwie wissen, wohin eine Nachricht zugestellt werden soll. Verschiedene Ansätze versuchen, dieses Problem zu minimieren.
Signals Sealed Sender (siehe ausführliche Erklärung im Signal-Abschnitt) ist der aktuell fortschrittlichste Ansatz in einem Mainstream-Messenger: Der Absender wird vom äußeren Nachrichtenumschlag entfernt und erst innerhalb der verschlüsselten Nachricht übermittelt. Signals Server sehen so nur, dass jemand eine Nachricht an Empfänger B schickt – aber nicht, dass es Absender A war.
Die Einschränkungen: IP-Adressen bleiben sichtbar (können mit VPN/Tor maskiert werden). Bei bidirektionaler Kommunikation ist Korrelation durch Timing-Analyse weiterhin möglich. Forscher haben gezeigt, dass Zustellbestätigungen, Timing-Muster und Nachrichten-Logs zur Deanonymisierung genutzt werden können.
Das traditionelle Problem: Um herauszufinden, welche eurer Kontakte einen Messenger nutzen, muss eure Kontaktliste hochgeladen werden – was euer soziales Netzwerk offenlegt.
WhatsApp lädt die gesamte Kontaktliste regelmäßig hoch. Signal nutzt Intel SGX (sichere Enklaven) für Abfragen, bei denen selbst der Server die Anfragen nicht sehen kann – wobei SGX bekannte Schwachstellen hat, die durch SVR3 mit Multi-Cloud-Strategie adressiert werden. Threema macht den Adressbuch-Abgleich optional und löscht die Daten sofort nach der Synchronisation.
Onion Routing (bekannt von Tor) wickelt Nachrichten in mehrere Verschlüsselungsschichten. Jeder Relay-Server kennt nur seinen Vorgänger und Nachfolger, nicht die ursprüngliche Quelle oder das endgültige Ziel. Der Messenger Briar routet allen Datenverkehr über Tor, der Messenger Session nutzt ein eigenes dezentrales Onion-Netzwerk.
Mix-Netzwerke gehen noch weiter: Nachrichten werden verzögert und mit anderen gemischt, bevor sie weitergeleitet werden. Dies erschwert Timing-Korrelationen erheblich, führt aber zu Latenzen von Minuten statt Sekunden.
Trotz aller Techniken bleibt Metadaten-Schutz ein ungelöstes Problem. Euer Internet-Provider sieht immer, dass ihr euch mit Messenger-Servern verbindet. Selbst mit Verzögerungen können sophistizierte Angreifer durch statistische Analyse Kommunikationspaare identifizieren. Starke Anonymität erfordert hohe Latenz, Bandbreiten-Overhead und Komplexität – alles Faktoren, die der Benutzerfreundlichkeit entgegenstehen.
Die Messenger aus unserem Vergleich versuchen unterschiedliche Balancen: WhatsApp opfert Metadaten-Schutz vollständig für Funktionalität und Geschäftsmodell. Telegram macht ähnliche Trade-offs, jetzt noch verstärkt nach der Durov-Verhaftung. Signal hat mit Sealed Sender und Private Contact Discovery die fortschrittlichsten Mainstream-Lösungen implementiert. Threema minimiert gespeicherte Metadaten durch technische Architektur, erfordert aber Vertrauen in nicht-überprüfbare Aussagen. Matrix verschiebt das Problem auf die Föderations-Ebene, wo Self-Hosting echte Kontrolle ermöglicht – auf Kosten der Komplexität.
Die theoretischen Risiken von Metadaten sind durch zahlreiche dokumentierte Fälle belegt.
Dennis Rader, der „BTK-Killer", terrorisierte Wichita über 30 Jahre und tötete 10 Menschen. Gefangen wurde er 2005 durch Metadaten: Eine Floppy Disk, die er an die Polizei schickte, enthielt in den Dokumenteigenschaften die Worte „Christ Lutheran Church" und „Dennis" – was ihn direkt als Gemeinde-Präsident identifizierte.
Nach den Terroranschlägen in Madrid (2004) und London (2005) verpflichtete die EU-Richtlinie 2006/24/EG alle Mitgliedstaaten zur Vorratsdatenspeicherung. Telekommunikationsanbieter mussten Verkehrs- und Standortdaten aller Bürger zwischen sechs Monaten und zwei Jahren speichern – ohne konkreten Verdacht.
Deutschland setzte die Richtlinie 2008 um, doch bereits 2010 erklärte das Bundesverfassungsgericht die Regelung für verfassungswidrig. Österreichs Verfassungsgerichtshof folgte 2014. Schließlich kippte der Europäische Gerichtshof 2014 die gesamte EU-Richtlinie als Verstoß gegen die Grundrechtecharta.
Ein oft zitiertes Erfolgsbeispiel der Vorratsdatenspeicherung war die Operation "Himmel" 2007: Ermittler identifizierten durch gespeicherte IP-Adressen über 70 deutsche Provider und damit 1.200 Tatverdächtige im Zusammenhang mit Kinderpornographie. Kritiker weisen jedoch darauf hin, dass auch ohne Vorratsdatenspeicherung 71% aller Internetdelikte aufgeklärt wurden – mehr als außerhalb des Internets begangene Straftaten (55%). Eine Analyse des wissenschaftlichen Dienstes des Bundestags kam zu dem Schluss, dass in der EU keine Hinweise existieren, dass die verdachtsunabhängige Protokollierung von Nutzerspuren den Ermittlungsbehörden nachweislich hilft.
Im Februar 2013 beschlagnahmte das US-Justizministerium heimlich Telefonaufzeichnungen von Reportern und Redakteuren der Associated Press – 20 separate Telefonleitungen über zwei Monate, darunter Büroleitungen in Washington, New York und Hartford sowie Privat- und Handynummern einzelner Journalisten. Ziel war die Identifikation von Quellen für einen Artikel über eine CIA-Operation.
AP-Chef Gary Pruitt beschrieb die Auswirkungen: „Diese Aufzeichnungen offenbaren potenziell Kommunikation mit vertraulichen Quellen über alle Nachrichtenbeschaffungsaktivitäten der AP während eines Zwei-Monats-Zeitraums, liefern eine Roadmap zu APs Nachrichtenbeschaffungsoperationen... Einige unserer langjährigen vertrauenswürdigen Quellen sind nervös und ängstlich geworden, mit uns zu sprechen."
Im Juni 2013 enthüllte Edward Snowden, ehemaliger NSA-Mitarbeiter, das Ausmaß der amerikanischen Metadaten-Überwachung. Das PRISM-Programm ermöglichte der NSA direkten Zugriff auf die Server von Microsoft, Google, Facebook, Apple, Yahoo, YouTube und weiteren Tech-Giganten. Im März 2013 sammelte die NSA allein 97 Milliarden Datensätze aus globalen Computernetzwerken.
Besonders aufschlussreich war die Enthüllung von XKeyscore – ein System, das NSA-Analysten erlaubte, ohne vorherige Autorisierung durch E-Mail-Adressen, Telefonnummern, IP-Adressen oder Suchbegriffe sämtliche Metadaten zu durchsuchen. Snowden beschrieb: „Ich könnte von meinem Schreibtisch aus jeden ausspionieren – Sie, Ihren Buchhalter, einen Bundesrichter oder sogar den Präsidenten, wenn ich eine private E-Mail-Adresse hätte."
Die Zusammenarbeit war international: Deutschlands BND übermittelte täglich massive Mengen an Metadaten über die Bad Aibling Station an die NSA. Laut einer vom Guardian veröffentlichten Karte gehörte Deutschland im März 2013 zu den am stärksten überwachten Ländern – auf einem Level mit Saudi-Arabien, dem Irak und China. Zwischen Dezember 2012 und Januar 2013 sammelte die NSA allein in Spanien Metadaten von 60 Millionen Telefonaten.
Im Jahr 2016 wurde Ross Compton verdächtigt, Versicherungsbetrug und Brandstiftung begangen zu haben. Die Metadaten seines Herzschrittmachers – Herzfrequenz, Schrittmacheraktivität, Rhythmen – bewiesen, dass er unmöglich so aus dem Feuer geflohen sein konnte, wie er behauptete. Es war der erste Fall, in dem medizinische Geräte-Metadaten als Schlüsselbeweis dienten.
Im März 2020, während des Corona-Lockdowns, stellte die Swisscom dem Bundesamt für Gesundheit (BAG) Standortdaten aus ihrem Mobilfunknetz zur Verfügung. Das System erfasste Gebiete mit mindestens 20 SIM-Karten auf einer Fläche von 100×100 Metern und übermittelte diese Daten mit 24 Stunden Verzögerung an die Behörden. Offizielles Ziel war die Überprüfung, ob sich die Bevölkerung an das Verbot von Menschenansammlungen hält. Die ersten Auswertungen wurden von Gesundheitsminister Alain Berset öffentlich präsentiert: Die Daten zeigten, dass „seit dem Versammlungsverbot deutlich weniger Menschen unterwegs sind" und die Bevölkerung sich „diszipliniert verhält". Obwohl die Swisscom versicherte, die Daten seien „vollständig anonymisiert und aggregiert", demonstrierte der Fall die technische Machbarkeit flächendeckender Bewegungsüberwachung durch Telekomanbieter – eine Infrastruktur, die bei Bedarf auch für andere Zwecke genutzt werden könnte.
Nach dieser umfassenden Analyse lassen sich folgende Einordnungen treffen:
Signal ist der Goldstandard für Metadaten-Schutz unter Mainstream-Messengern. Sealed Sender, Private Contact Discovery mit Hardware-Enklaven, dokumentiert minimale Datenspeicherung (verifiziert durch Gerichtsverfahren), größtenteils Open Source (Client und Server) und Username-System seit Februar 2024. Die Einschränkung: Telefonnummer weiterhin für Registrierung erforderlich, aber muss nicht mehr geteilt werden. Signal ist die klare Empfehlung für alle, die Metadaten-Schutz ernst nehmen.
WhatsApp bietet "Inhaltsverschlüsselung" heisst ihr Zeit geschützt vor Häckern oder neugierigen Dritten geschützt, nicht jedoch vor WhatsApp selber, zudem sammelt WhatsApp umfangreich Metadaten und teilt diese mit Meta für Werbezwecke. Die Echtzeit-Metadaten-Übermittlung an Behörden ist einzigartig unter den großen Messengern. Für Menschen in der EU oder anderen Regionen mit starken Datenschutzgesetzen mag dies durch regulatorische Beschränkungen abgemildert werden – aber die technische Architektur ermöglicht umfassende Überwachung.
Telegram bietet weniger Schutz als oft angenommen: Keine Ende-zu-Ende-Verschlüsselung als Standard, umfangreiche Server-seitige Datenspeicherung und seit September 2024 wesentlich kooperativere Zusammenarbeit mit Behörden. Die Verteilung auf mehrere Jurisdiktionen bietet einen gewissen Schutz, aber das proprietäre Protokoll und die geschlossene Server-Software erfordern Vertrauen in das Unternehmen.
Threema verfolgt einen konsequenten Datensparsamkeits-Ansatz mit anonymer Registrierung (keine Telefonnummer erforderlich) und minimaler Metadaten-Speicherung. Der kritische Vorbehalt bleibt der proprietäre Server-Code – ihr müsst Threemas Aussagen über ihr Verhalten glauben, ohne sie verifizieren zu können. Die Schweizer Jurisdiktion bietet zusätzlichen rechtlichen Schutz. Threema ist eine gute Wahl für alle, die keine Telefonnummer preisgeben wollen und bereit sind, dem Schweizer Unternehmen zu vertrauen.
Element/Matrix ist die einzige wirklich auditierbare Option: Server und Client sind Open Source. Self-Hosting gibt euch vollständige Kontrolle. Der Nachteil ist die Komplexität föderierter Metadaten-Verteilung – in Räumen mit vielen externen Teilnehmern verteilen sich eure Metadaten entsprechend weit. Matrix ist ideal für technisch versierte Nutzer, Organisationen mit eigener IT-Infrastruktur oder alle, die vollständige Kontrolle über ihre Daten wollen. Wer Lust hat, kann sich unserem Schweizer Matrix Server anschliessen, wir werten keine Daten aus, und verkaufen diese auch nicht weiter.
Die Verschlüsselung von Nachrichteninhalten war ein wichtiger Fortschritt für die digitale Privatsphäre. Aber sie löst nur die Hälfte des Problems. Metadaten – wer mit wem kommuniziert, wann, wie oft, von wo – können genauso viel oder mehr über Menschen verraten wie die Inhalte selbst.
Die verschiedenen Messenger gehen mit diesem Problem unterschiedlich um. WhatsApp und Telegram haben sich für Geschäftsmodelle entschieden, die umfangreiche Metadaten-Sammlung entweder aktiv nutzen (WhatsApp/Meta) oder zumindest ermöglichen (Telegram). Signal hat technische Innovationen wie Sealed Sender entwickelt und durch dokumentierte Gerichtsverfahren bewiesen, dass seine Datensparsamkeit echt ist – nicht nur Marketing. Threema hat technische Datensparsamkeit zum Kernprinzip gemacht, erfordert aber Vertrauen in nicht-überprüfbare Unternehmensaussagen. Matrix/Element bietet als einziges vollständig auditierbares System echte Transparenz, kommt aber mit der Komplexität föderierter Architekturen.
Die Aussage „Metadaten sind interessanter als Inhalte" ist keine Übertreibung von Datenschutz-Aktivisten – sie stammt von denjenigen, die diese Daten nutzen. Michael Haydens Worte von 2014 sind aktueller denn je: In einer Welt, in der algorithmische Systeme Verhaltensmuster analysieren, Beziehungsnetzwerke kartieren und Vorhersagen treffen können, sind die Daten über unsere Kommunikation oft aussagekräftiger als die Kommunikation selbst.
Für eure Messenger-Wahl bedeutet das: Achtet nicht nur auf das Verschlüsselungs-Symbol. Achtet darauf, welche Metadaten gesammelt werden, wie lange sie gespeichert werden, wer Zugriff hat und ob diese Aussagen überprüfbar sind. Signal zeigt, dass es möglich ist, einen benutzerfreundlichen Messenger mit echtem Metadaten-Schutz zu bauen – dokumentiert durch Gerichtsverfahren, nicht nur durch Marketing-Versprechen. Nur so könnt ihr eine informierte Entscheidung treffen.
The post Metadaten bei Messengern: Was Nachrichten über euch verraten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Linux und ältere UEFI Laptops: no bootable device appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Mein Laptop hat UEFI-BIOS, Secure Boot war deaktiviert, eigentlich beste Voraussetzungen. Also Linux Mint 22.2 installiert – automatische Installation, sollte ja alles von alleine klappen. Neustart: No bootable device. Okay, vielleicht war die automatische Installation das Problem.
Also nochmal, diesmal manuell:
/boot/efi gemountetAlles lief fehlerfrei durch. Neustart: No bootable device. Wieder.
Im BIOS? Kein Ubuntu-Eintrag, keine Linux-Option – nur die Festplatte wird angezeigt. Aber die bootet halt nicht.
Nach einigem Troubleshooting stellte sich heraus: Der Bootloader war technisch korrekt installiert, die EFI-Partition hatte alle richtigen Flags (boot, esp), GRUB war da wo er sein sollte (/EFI/ubuntu/grubx64.efi). Aber das BIOS ignorierte es komplett.
Viele ältere UEFI-BIOS suchen nur nach einem Standard-Fallback-Pfad: /EFI/BOOT/BOOTX64.EFI. Die Idee war, GRUB dorthin zu kopieren:
sudo mount /dev/sdb1 /mnt/efi
sudo mkdir -p /mnt/efi/EFI/BOOT
sudo cp /mnt/efi/EFI/ubuntu/grubx64.efi /mnt/efi/EFI/BOOT/BOOTX64.EFI
Sollte eigentlich funktionieren – viele Leute berichten, dass dieser Trick bei buggy UEFI-Implementierungen hilft. Bei mir? No bootable device. Immer noch.
An diesem Punkt war ich ehrlich gesagt ziemlich genervt.
Nach mehreren gescheiterten UEFI-Versuchen blieb nur noch eine Option: Legacy-Modus (CSM). Klingt nach Rückschritt, aber bei so alten Laptops oft die zuverlässigere Lösung.
Im BIOS Legacy aktiviert, automatische Installation gestartet. Sollte jetzt doch klappen, oder? Fehlanzeige: "Schwerwiegender Fehler: Bootloader konnte nicht auf /dev/sdb installiert werden" Manuell liest sich der Bootloader auch nicht installieren. Was zur Hölle??
Gut, nächster Versuch: Manuelle Partitionierung, keine EFI-Partition, kein Schnickschnack. Einfach Root-Partition, Swap, Bootloader auf /dev/sdb – sollte doch so passen.
Aber nein, jetzt kam eine neue Meldung: "This installation requires separate partition for bootloader code... should be marked as reserved BIOS boot area..."
Nach 7-8 Installationsversuchen war ich ehrlich gesagt kurz davor, dem alten Ding seine wohlverdiente Ruhe zu gönnen. Leider war es nicht mein Laptop, also musste er weiterleben.
Nach weiterer Problemsuche kam endlich die Erleuchtung: Die Festplatte hatte noch die GPT-Partitionstabelle von den UEFI-Versuchen. Legacy-BIOS braucht aber MBR (msdos).
Der Grund für all die gescheiterten Versuche: Der Mint-Installer ändert die Partitionstabelle nicht automatisch von GPT auf MBR um. Er versucht einfach, mit der vorhandenen GPT-Tabelle weiterzumachen, was im Legacy-Modus aber nicht richtig funktioniert.
sudo parted /dev/sdb mklabel msdos
sudo partprobe /dev/sdb
Damit wurde die Partitionstabelle auf MBR umgestellt. Im Installer kam zwar noch eine verwirrende Warnung wegen fehlender EFI-Partition (obwohl ich eindeutig im Legacy-Modus war – nervig!), aber die ließ sich wegklicken.
Dann normal partitioniert:
/)/dev/sdb (die ganze Platte, nicht eine Partition!)Installation durchgeführt, Neustart und... ES BOOTETE ENDLICH! 🎉
Bei älteren Laptops (ca. 10 Jahre und älter) kann UEFI problematisch sein:
Wenn ihr auf "No bootable device" nach Linux-Installation stoßt:
/EFI/BOOT/BOOTX64.EFI)Nach mehreren UEFI-Versuchen, verschiedenen Fixes, 2 Stunden herumprobieren und einiger Frustration läuft Linux Mint jetzt einwandfrei im Legacy-Modus. Ist das technisch "rückständig"? Vielleicht. Funktioniert es stabil und zuverlässig? Absolut.
Bei älteren Laptops ist Legacy oft der pragmatischere Weg. Spart euch die Kopfschmerzen mit buggy UEFI-Implementierungen und geht direkt zu dem, was funktioniert.
The post Linux und ältere UEFI Laptops: no bootable device appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Nextcloud mit U2F / Yubikey absichern appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Es gibt einen besseren Weg: Hardware-Keys wie der YubiKey. Klingt kompliziert? Ist es nicht. Im Gegenteil – es ist sogar bequemer als das Code-Getippe. Aber Vorsicht: Nextcloud macht es euch nicht ganz einfach, und ohne das richtige Setup verschenkt ihr das Sicherheitsplus komplett.

TOTP-Apps wie Google Authenticator generieren Einmalpasswörter, die 30 Sekunden gültig sind. Solide Technologie, aber mit einer fatalen Schwäche: Diese Codes können abgefangen werden.
Stellt euch vor, ihr landet auf einer täuschend echten Phishing-Seite eurer Nextcloud. Passwort rein, TOTP-Code hinterher – und schon hat der Angreifer beide Informationen. In den entscheidenden 30 Sekunden kann er sich damit auf der echten Nextcloud anmelden. Game over.
Ein Hardware-Key wie der YubiKey macht diesen Angriff unmöglich. Warum? Weil nie ein Code übertragen wird, den man abfangen könnte.
Diese drei technische Vorteile machen den Unterschied:
Phishing-Resistenz: Der private Schlüssel verlässt den Key nie. Die Signatur ist an die Domain gebunden. Fake-Seiten haben keine Chance.
Kein Shared Secret: Bei TOTP teilen sich Server und Client ein Geheimnis. Wird der Server kompromittiert, kann der Angreifer beliebige Codes generieren. Bei U2F speichert der Server nur den öffentlichen Schlüssel – nutzlos für Angreifer.
Replay-Schutz: Jede U2F-Signatur enthält einen Zähler. Abgefangene Signaturen lassen sich nicht wiederverwenden.
U2F (Universal 2nd Factor) basiert auf Public-Key-Kryptographie. Der YubiKey enthält einen privaten Schlüssel, der das Gerät niemals verlässt. Bei der Anmeldung fordert Nextcloud eine signierte Bestätigung an – und der Key prüft vorher, ob die Domain stimmt.
Phishing-Seite mit falscher Domain? Der Key verweigert die Signatur. Keine Chance für den Angreifer, egal wie gut die Fake-Seite aussieht.
Die Klassiker sind YubiKeys von Yubico, aber auch Nitrokeys funktionieren. Wichtig:
Kauft am besten zwei Keys und registriert beide. Einer geht verloren oder kaputt? Der zweite ist euer Backup.
Das Beste: Ihr steckt den Key rein (oder haltet ihn ans Smartphone), drückt den Knopf – fertig. Kein Code-Getippe, kein Stress mit abgelaufenen Zeitfenstern. Was einfach ist, wird auch konsequent genutzt.
Hier wird es tricky, und das ist der Punkt, an dem viele scheitern: Nextcloud hat WebAuthn zweimal eingebaut, und die beiden Varianten machen völlig verschiedene Dinge.
Die integrierte WebAuthn-Funktion findet ihr unter Einstellungen → Sicherheit → "Passwortlos". Das klingt gut, ist aber keine echte Zwei-Faktor-Authentisierung. Hier ersetzt der YubiKey nur das Passwort. Das Problem: Ihr könnt euch weiterhin mit eurem normalen Passwort anmelden. Wenn das Passwort gephisht wird, seid ihr nicht geschützt. Faktisch habt ihr dann nur einen Faktor – entweder Passwort oder YubiKey.
Was ihr wirklich braucht: Die separate App "Two-Factor WebAuthn" (auch "twofactor_webauthn" genannt). Die findet ihr nicht in den Nextcloud-Einstellungen, sondern müsst sie als App installieren:
Dann in den persönlichen Einstellungen unter Einstellungen → Sicherheit den YubiKey als 2FA registrieren in der 2FA Sektion aktivieren, nicht unten in der Sektion "Authentifizierung ohne Passwort"
Steckt euren Yubikey an euer Gerät, Klickt auf Sicherhschlüssel hinzufügen, danach öffnet sich ein Fenster in dem ihr den PIN eures Yubikeys eingebt. Danach werdet ihr aufgefordert das Gerät zu berühren. Danach passiert erstmal nichts, und man denkt, es hat nicht geklappt, aber in der Nextcloud entsteht ein kleines Feld, in dem ihr dem Sicherheitschlüssel einen Namen geben müsst. Gebt ihr Yubikey oder ähnlich ein, und klickt auf dann auf Hinzufügen neben dem Feld.
Jetzt habt ihr echte Zwei-Faktor-Auth: Passwort + YubiKey. Beide werden abgefragt, keiner allein reicht.
Loggt ihr euch nun aus, und wieder ein, müsst ihr euren Yubikey berühren, ansonsten gehts nicht weiter.
Registriert am besten zwei YubiKeys – aber selbst dann kann es passieren, dass beide gerade nicht verfügbar sind. Urlaub ohne Key, defekte Hardware, oder schlicht verloren. Für genau diese Fälle gibt es Backup-Codes.
So erstellt ihr sie:
Wichtig: Druckt die Codes aus und verwahrt sie an einem sicheren Ort. Nicht digital auf dem gleichen Gerät speichern, auf dem ihr die Nextcloud nutzt. Jeder Code funktioniert einmalig – habt ihr alle aufgebraucht, generiert neue.
Diese Codes sind eure letzte Verteidigungslinie. Ohne sie und ohne YubiKey müsste ein Administrator eure 2FA manuell zurücksetzen – zeitaufwendig und nervig für alle Beteiligten.
Ein häufiger Fehler beim Aktivieren von 2FA: Alte Sessions bleiben aktiv. Wenn ihr 2FA erzwingt, aber eure Nextcloud-Apps auf dem Smartphone noch mit alten Login-Daten laufen, umgeht ihr eure eigene Sicherheit.
Nach der 2FA-Aktivierung:
Moderne Nextcloud-Android-Apps nutzen übrigens OAuth2 über den System-Browser. Das heißt: NFC funktioniert! Login über Browser → YubiKey mit NFC ans Smartphone halten → fertig. Kein mühsames App-Passwort nötig.
Moderne Android-Apps wie Etar (Kalender) oder die Kontakte-App können über DAVx5 synchronisieren, welches OAuth2 unterstützt. Hier funktioniert der YubiKey-Login problemlos – kein App-Passwort nötig.
Desktop-Clients wie Thunderbird (Kalender/Kontakte) oder die Mint Kalender-App unterstützen dagegen kein OAuth2. Hier müsst ihr App-Passwörter verwenden:
Tipp: Erstellt ein App-Passwort pro Gerät, nicht pro App. Beispiel: "Desktop-PC", "Laptop", "Pixel Tablet". So könnt ihr bei Verlust einzelne Geräte sperren, ohne alle anderen neu konfigurieren zu müssen.
Keine Technologie ist perfekt. U2F braucht Hardware, und die kann man vergessen. Der YubiKey muss zum täglichen Begleiter werden wie der Büroschlüssel.
Für rein mobile Workflows war USB lange unpraktisch. Mit NFC-Keys hat sich das geändert – aber nur, wenn eure Nextcloud-App den OAuth2-Flow über den Browser nutzt. Ältere Apps fallen hier durch.
Alternative: Passkeys via Bitwarden
Hier kommt eine clevere Lösung ins Spiel: Passkeys. Wenn ihr Bitwarden oder einen anderen modernen Passwort-Manager nutzt, könnt ihr bei der WebAuthn-Einrichtung in Nextcloud statt "Hardware-Sicherheitsschlüssel" die Option "Passkey mit Passwort-Manager" wählen. Bitwarden generiert dann einen FIDO2-Schlüssel und speichert ihn verschlüsselt in eurem Vault.
Falls ihr Bitwarden bereits in eurem Browser nutzt, kommt hier die Frage, wo der Sicherheitschlüssel gespeichert werden soll, entweder in eurem bestehenden Login Credentials für eure Nextcloud, oder eben auf dem Hardware-Key. Habt ihr keinen Yubikey, speichert ihr den Sicherheitsschlüssel auf eurem Bitwarden Account.
Die Vorteile:
Die Nachteile:
Die beste Strategie: Kombinieren!
Registriert in Nextcloud mehrere WebAuthn-Credentials:
So habt ihr maximale Sicherheit durch Hardware UND die Flexibilität eines Software-Passkeys. Nextcloud erlaubt problemlos mehrere WebAuthn-Geräte pro Account – nutzt das!
Wenn bei der 2FA-Einrichtung etwas schiefgeht oder Nutzer ausgesperrt sind, braucht ihr SSH-Zugriff auf euren Server. Diese occ-Befehle retten euch:
2FA-Erzwingung deaktivieren (wenn ihr euch selbst ausgesperrt habt):
sudo -u www-data php occ twofactorauth:enforce --off
2FA für einzelnen Nutzer deaktivieren (Key verloren, Notfall):
sudo -u www-data php occ twofactorauth:disable <username> twofactor_webauthn
Beispiel:
sudo -u www-data php occ twofactorauth:disable admin twofactor_webauthn
2FA-Status eines Nutzers prüfen:
sudo -u www-data php occ twofactorauth:state <username>
Zeigt, welche 2FA-Provider aktiv sind.
Provider-Leichen aufräumen (nach Deinstallation einer 2FA-App):
sudo -u www-data php occ twofactorauth:cleanup twofactor_webauthn
⚠️ Warnung: Der Cleanup-Befehl ist irreversibel! Alle Nutzer müssen ihre WebAuthn-Keys danach neu registrieren. Nur verwenden, wenn ihr die App wirklich komplett entfernen wollt.
Docker-Nutzer aufgepasst: Ersetzt sudo -u www-data php occ durch:
docker exec -u www-data nextcloud php occ [restlicher Befehl]
Snap-Installation:
nextcloud.occ [restlicher Befehl]
Ein YubiKey bringt euch nur dann echte Sicherheit, wenn ihr die richtige WebAuthn-Implementierung nutzt. Die integrierte "Passwortlos"-Funktion ist kein Ersatz für 2FA. Installiert die "Two-Factor WebAuthn" App, erzwingt 2FA, invalidiert alte Sessions – dann habt ihr Phishing-Schutz, der wirklich funktioniert.
Die Investition? 79 CHF für einen Key, ein paar Stunden Setup-Zeit. Der Gewinn? Eine ganze Klasse von Angriffen wird unmöglich. Wenn eure Nextcloud wichtige, sensible Daten enthält, ist das kein nice-to-have, sondern schlicht und einfach Pflicht.
Interessiert ihr euch für das Thema 2FA/Passkeys etwas tiefgreifender? Dann schaut mal hier vorbei.
The post Nextcloud mit U2F / Yubikey absichern appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Solo Mining - die grössten Fehlannahmen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Beim Solo-Mining versucht ein Miner auf eigene Faust, einen Bitcoin-Block zu finden. Im Gegensatz zum klassischen Pool-Mining, wo viele Miner ihre Rechenleistung bündeln und die Belohnung aufteilen, erhält der Solo-Miner die komplette Block-Belohnung (aktuell 3,125 BTC plus Transaktionsgebühren) - allerdings nur, wenn er tatsächlich einen Block findet.
Wer sich zuerst tiefer in das Thema Mining einlesen will, dem empfehlen wir hier unserer Solo Mining Bibel die euch die komplette verständlich näher bringen soll.
Hier liegt oft das Missverständnis: Auch beim Solo-Mining nutzen viele Miner einen Pool - aber dieser funktioniert völlig anders als beim herkömmlichen Pool-Mining. Der Pool dient lediglich als technische Infrastruktur:
Der Pool trägt aber keine eigene Hashrate bei. Er ist nur ein technischer Vermittler.
Desöfteren habe ich gehört, das Miner ihre Geräte mit Pools verbinden, die eine höhere Gesamt-Hashrate aufbringen, in der Annahme, dass dann die eigene Chance auch höher ist, einen Block zu finden. Beim Solo-Mining konkurriert jedoch jeder Miner direkt mit dem gesamten Bitcoin-Netzwerk - nicht nur mit seinem Pool. Die Wahrscheinlichkeit, einen Block zu finden, hängt ausschließlich von folgenden Faktoren ab:
Ob im gewählten Solo-Pool 100 EH/s oder nur 0,01 EH/s an Hashrate aktiv sind, macht für die eigenen Chancen absolut keinen Unterschied. Jeder Miner arbeitet isoliert und konkurriert mit allen Minern weltweit.
Ein weit verbreiteter Irrtum ist die Annahme, dass eine höhere Anzahl an eingereichten Workershares die Wahrscheinlichkeit erhöht, einen Block zu finden. Das ist falsch.
Workershares sind lediglich ein Arbeitsnachweis (Proof of Work), mit dem der Miner dem Pool zeigt, dass er tatsächlich arbeitet. Sie haben keinen direkten Einfluss darauf, ob ein Block gefunden wird oder nicht.
Verschiedene Pools verwenden unterschiedliche Share Targets und da raus resultierende unterschiedliche Share-Difficulties:
In beiden Fällen bleibt die Wahrscheinlichkeit, einen tatsächlichen Block zu finden, absolut identisch. Die Share-Schwierigkeit beeinflusst nur die Häufigkeit der Kommunikation zwischen Miner und Pool, nicht die Mining-Effizienz.
Ein weiteres hartnäckiges Missverständnis: Manche Miner glauben, dass vier Bitaxe mit je 1 TH/s eine höhere Chance auf einen Blockfund haben als ein einzelner NerdQAxe mit 4 TH/s. Das ist ein Trugschluss.
Für das Bitcoin-Netzwerk ist es vollkommen irrelevant, ob die Hashrate von einem Gerät oder von hundert Geräten kommt. Entscheidend ist ausschließlich die Gesamt-Hashrate.
Die Wahrscheinlichkeit, einen Block zu finden, ist absolut identisch.
Die Intuition sagt vielen: "Mehr Geräte = mehr Versuche = höhere Chance." Das stimmt prinzipiell - aber nur, weil mehr Geräte in der Regel auch mehr Gesamt-Hashrate bedeuten. Die Anzahl der Geräte selbst spielt keine Rolle.
Jeder Hash, den ein Miner berechnet, ist ein unabhängiger Versuch, einen Block zu finden. Ob diese Hashes von einem einzigen großen ASIC oder von vielen kleinen Geräten stammen, macht mathematisch keinen Unterschied. Das Netzwerk "sieht" nur die einzelnen Hash-Versuche, nicht die Geräte dahinter. Merkt euch deshalb, nur die Hashrate beeinflusst die Wahrscheinlichkeit einen Block zu finden, und nichts anderes.
Der praktische Unterschied liegt woanders: Bei mehreren Geräten hat man Redundanz. Fällt ein Bitaxe aus, laufen die anderen drei weiter. Fällt der NerdQAxe aus, steht man bei null. Aber das ist eine Frage der Ausfallsicherheit, nicht der Mining-Wahrscheinlichkeit.
Beim Mining berechnet der ASIC ständig Hashes. Ein Block wird nur dann gefunden, wenn ein Hash die extrem hohe Netzwerk-Schwierigkeit erfüllt. Die Workershares sind nur Zwischenmeldungen mit niedrigerer Schwierigkeit, um dem Pool zu zeigen: "Ich arbeite noch."
Analogie: Es ist wie beim Lottospielen - egal ob man dem Lottoanbieter jede Stunde oder jede Minute meldet, dass man noch Lose kauft, die Gewinnchance pro Los bleibt gleich.
Eine psychologisch verständliche, aber mathematisch falsche Annahme: "Ich mine jetzt schon seit 1 Jahr ohne Block - langsam bin ich dran!" oder "Nach so langer Pechsträhne muss jetzt bald ein Block kommen!" Das ist der klassische Gambler's Fallacy - der Trugschluss des Spielers.
Beim Bitcoin-Mining ist jeder einzelne Hash-Versuch ein völlig unabhängiges Ereignis. Das bedeutet:
Analogie: Beim Würfeln bleibt die Chance auf eine Sechs bei jedem Wurf 1:6 - egal ob man vorher fünfmal oder fünfzigmal keine Sechs gewürfelt hat. Der Würfel "erinnert" sich nicht an vergangene Würfe.
In der Wahrscheinlichkeitstheorie nennt man dies unabhängige Ereignisse. Die Wahrscheinlichkeit für Ereignis B wird nicht durch das Eintreten oder Nicht-Eintreten von Ereignis A beeinflusst.
Beim Mining bedeutet das konkret:
Die Chance bleibt immer identisch, völlig unabhängig davon, wie viele erfolglose Versuche bereits hinter einem liegen.
Menschen neigen dazu, Muster zu sehen, wo keine sind. Nach einer langen Pechsträhne denkt man: "Jetzt muss es doch endlich klappen!" Diese Intuition ist evolutionär verständlich, aber mathematisch falsch.
Auch hier gilt, die Chance ändert sich nur, wenn sich die Rahmenbedingungen ändern:
Ansonsten gilt: Jeder Hash ist ein neuer, unabhängiger Versuch mit exakt der gleichen Wahrscheinlichkeit wie beim allerersten Hash.
Einige Pools werben mit besonders niedrigen Latenzen und versprechen euch deutlich bessere Chancen beim Solomining. Diese Aussage ist nur bedingt korrekt. Nach praktischen Erfahrungen macht es faktisch keinen Unterschied, wenn eure Latenz zum Pool bereits unter 100ms beträgt. Bei dieser Verbindungsgeschwindigkeit ist der neue Job so schnell bei eurem Miner angekommen, dass dieser keine veralteten Jobs mehr berechnet.
Sollte die Latenz zwischen 100-500ms liegen, könnte gelegentlich ein Share vom einem alten Job gesendet werden, bevor der neue vom Server ankommt. In der Praxis ist diese Wahrscheinlichkeit aber so gering, dass sie keinen messbaren Einfluss auf eure Chancen hat. Bei Latenzzeiten über 500ms wird man dann irgendwann doch langsam einen Anstieg an Rejected Shares bemerken, und man sollte sich überlegen, zu einem Server zu wechseln, der weniger weit weg ist.
Bei Home-Minern wie dem BitAxe ist dieser Faktor vollkommen irrelevant: Dass ausgerechnet dieser Share, der möglicherweise während des Latenz-Fensters gelöst wurde, der Block-Winner sein könnte, ist praktisch ausgeschlossen. Die Wahrscheinlichkeit, einen Block zu finden, ist bereits so gering, dass Millisekunden der Netzwerkverzögerung keinen messbaren Unterschied machen. Konzentriert euch stattdessen auf die Faktoren, die wirklich zählen – nicht auf die Millisekunden zum Pool.
Wenn die Pool-Größe und die Anzahl der Workershares keine Rolle spielen, was ist dann wichtig bei der Auswahl eines Solo-Pools?
Zuverlässigkeit: Der Pool sollte eine hohe Verfügbarkeit (Uptime) haben und niedrige Latenz bieten. Ausfallzeiten bedeuten verlorene Mining-Zeit.
Rejected Shares: Die tatsächlichen Anzahl der Rejected Shares, also der ablehnten Shares sollte möglichst tief sein. Rejected Shares sind das tatsächliche Result einer sehr hohen Netzwerklatenz oder instabilen Netzwerkverbindung. Rejected Shares entstehen, wenn der Mining Server die Arbeit angepasst hat, aber der Miner noch an einem alten Job / Template arbeitet, und diesen einreicht. Ein Wert von unter 0.25% ist in Ordnung.
Gebühren: Manche Solo-Pools verlangen über 2% Gebühr vom gefundenen Block. Bei 3,125 BTC kann das einen erheblichen Unterschied machen.
Technische Features: Unterstützung für moderne Mining-Technologien wie AsicBoost kann die Effizienz verbessern. Allerdings muss der Pool diese Features auch unterstützen.
Eigener Stratum-Server: Technisch versierte Miner können auch ihren eigenen Stratum-Server betreiben und sind dann komplett unabhängig von Drittanbietern. Hier ist dann auch die Latenz am niedrigstens. Mit einer Node aus unserem Shop, könnt ihr auch ganz einfach einen eigenen Pool betreiben!
Die größten Fehlannahmen beim Solo-Mining auf einen Blick:
Der Pool ist beim Solo-Mining lediglich technische Infrastruktur, keine Mining-Gemeinschaft. Die eigenen Chancen hängen ausschließlich von der eigenen Hashrate im Verhältnis zur globalen Netzwerk-Hashrate ab - und bei jedem einzelnen Hash-Versuch von einer gehörigen Portion Glück. Vergangene Versuche haben keinen Einfluss auf zukünftige Chancen.
Habt ihr Lust unserem Pool zu joinen? Schaut vorbei unter:
https://blitzpool.yourdevice.ch
The post Solo Mining - die grössten Fehlannahmen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post LibreOffice und Microsoft Office: So vermeidet ihr Formatierungsprobleme appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
LibreOffice kann Dokumente im DOCX-Format speichern, dem Standardformat von Microsoft Word. Dennoch kann es vorkommen, dass ein MS Office-Nutzer eure Datei öffnet und das Layout anders aussieht als bei euch. Das liegt daran, dass beide Programme die Formatierungen intern unterschiedlich interpretieren.
Häufige Probleme beim DOCX-Austausch:
Schriftarten werden durch Standardschriften ersetzt, wenn sie beim Empfänger nicht installiert sind. Absatz- und Zeilenabstände können leicht variieren. Tabellen zeigen manchmal andere Spaltenbreiten oder Zellenformatierungen. Eingebettete Objekte wie Diagramme oder Formeln werden unterschiedlich dargestellt. Aufzählungen und Nummerierungen weichen in Einrückung und Abständen ab. Kopf- und Fußzeilen können ihre Position verändern.
Die Kompatibilität hat sich in den letzten Jahren deutlich verbessert, aber je komplexer euer Dokument formatiert ist, desto höher ist das Risiko für Abweichungen.
Wenn ihr sicherstellen möchten, dass euer Dokument beim Empfänger exakt so aussieht wie bei euch, ist PDF die bessere Wahl. LibreOffice bietet eine hervorragende PDF-Export-Funktion, die sogar mehr Optionen bietet als viele andere Programme.
So exportiert ihr in LibreOffice als PDF:
Öffnet das fertiges Dokument und geht auf "Datei" → "Exportieren als PDF" oder alternativ "Datei" → "Exportieren als" → "Als PDF exportieren". Es öffnet sich ein Dialog mit zahlreichen Einstellungsmöglichkeiten.
Die Standard Settings der PDF Einstellungen sind in den meissten Fällen absolut ausreichen. Wenn ihr möchtet, könnt ihr noch eine digitale Signatur hinzufügen.
Nützliche PDF-Optionen in LibreOffice:
Ihr könnt die Komprimierung anpassen, um die Dateigröße zu optimieren. Lesezeichen werden automatisch aus Überschriften erstellt, was die Navigation in langen Dokumenten erleichtert. Interaktive Formulare lassen sich direkt einbinden. Der PDF/A-Standard eignet sich für die Langzeitarchivierung. Wasserzeichen können hinzugefügt werden. Sicherheitseinstellungen wie Passwortschutz oder eingeschränkte Druckrechte sind möglich.
Verwendet DOCX, wenn:
Verwendet PDF, wenn:
Falls ihr dennoch DOCX versendet müssen, helfen diese Maßnahmen:
Verwendet Sie Standardschriftarten wie Arial, Times New Roman oder Calibri – diese sind auf praktisch jedem System vorhanden. Haltet die Formatierung einfach und vermeidet Sie verschachtelte oder komplexe Layouts. Testet das Dokument, indem ihr es nach dem Speichern noch einmal öffnen und überprüft. Im Zweifelsfall schickt ihr zusätzlich eine PDF-Version mit, damit der Empfänger ein Referenzdokument hat.
Der Dokumentenaustausch zwischen LibreOffice und Microsoft Office funktioniert in den meisten Fällen gut, ist aber nicht perfekt. Für wichtige Dokumente, bei denen die Formatierung stimmen muss, ist der PDF-Export die zuverlässigste Lösung. LibreOffice bietet hier professionelle Funktionen, die den Umstieg von Microsoft Office deutlich erleichtern.
The post LibreOffice und Microsoft Office: So vermeidet ihr Formatierungsprobleme appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Microsoft beendet lokale Konto-Einrichtung bei Windows 11 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Das Muster setzt sich fort mit der Copilot-Integration überall – von Paint bis Notepad. Microsoft drückt KI-Assistenten in jede Ecke von Windows 11 und macht es scheinbar unmöglich, sie zu deaktivieren.
Diese erzwungenen Ergänzungen haben ein gemeinsames Thema: Sie erfordern Internetverbindung und Cloud-Dienste. Microsoft will, dass eure Daten durch ihre Server fließen, verpackt als angeblich hilfreiche Features.

Jetzt hat Microsoft stillschweigend eine weitere kontroverse Änderung eingeführt, die Nutzern während der Windows 11-Installation die Wahlfreiheit nimmt.
Microsoft testet eine Änderung, die alle bekannten Methoden blockiert, um während der initialen Windows 11-Einrichtung (OOBE) lokale Konten zu erstellen. Bisher konnten Nutzer einfache Befehle oder Tricks nutzen, um die Microsoft-Konto-Pflicht zu umgehen. Diese Workarounds funktionieren in den aktuell getesteten Insider Preview-Builds nicht mehr.
Windows Latest hat Build 26220.6772 in den Dev- und Beta-Kanälen getestet und bestätigt, dass keine der Umgehungsmethoden mehr funktioniert. Sollte diese Änderung in die stabilen Builds übernommen werden, müssten sich Windows 11 Home-Nutzer während der Ersteinrichtung mit einem Microsoft-Konto anmelden.
Windows 11 Pro-Nutzer haben noch eine Option (zumindest in den Test-Builds): Sie können Domain Join verwenden, um lokale Konten zu erstellen. Drittanbieter-Tools wie Rufus können ebenfalls genutzt werden, um modifizierte Installationsdateien zu erstellen, die diese Anforderung überspringen. Aber für normale Home Edition-Nutzer scheint Microsoft bereit zu sein, diese Wahlmöglichkeit komplett zu entfernen.
Diese Änderung ist aktuell in Insider Preview-Builds in den Dev- und Beta-Kanälen aktiv. Wenn Microsoft dem üblichen Rollout-Muster folgt, könnte sie innerhalb von zwei bis drei Monaten via Windows Update die stabilen Versionen erreichen.
Ein Microsoft-Konto bedeutet:
Mit einem lokalen Konto habt ihr deutlich mehr Kontrolle. Eure Daten bleiben lokal auf eurem Rechner, und ihr entscheidet selbst, was ihr teilen wollt. Keine automatische Cloud-Synchronisation, keine Verknüpfung eurer Aktivitäten mit einer zentralen Identität.
Und hier kommt der Knaller: Microsoft erlaubt es euch immer noch, das Microsoft-Konto nach Abschluss der Einrichtung zu entfernen. Ihr könnt euch während der Installation anmelden, den Desktop erreichen und dann sofort abmelden und ein lokales Konto erstellen.
Das lässt Microsofts Ausrede über "sicherzustellen, dass Geräte korrekt eingerichtet werden" wie kompletten Unsinn aussehen. Wenn ein Microsoft-Konto wirklich für die ordnungsgemäße Konfiguration notwendig wäre, warum dann die sofortige Entfernung erlauben? Es ist einfach nur ein weiteres Dark Pattern in ihrem Flaggschiff-Betriebssystem.
Die wahre Intention ist offensichtlich: Microsoft will möglichst viele Nutzer in ihr Ökosystem locken. Wer sich einmal mit einem Microsoft-Konto angemeldet hat, bei dem ist OneDrive aktiv, die Cloud-Synchronisation läuft, und die Telemetrie sammelt fleißig Daten. Die meisten Nutzer werden sich nicht die Mühe machen, das Konto nachträglich zu entfernen.
Windows 10 erreichte sein End of Life am 14. Oktober 2025. Millionen von Nutzern werden nun unter Druck gesetzt, zu Windows 11 zu migrieren, und genau diese Einschränkung könnte auf sie warten.
Microsoft nutzt den Zwang zum Upgrade, um gleichzeitig die Kontrolle über eure Daten zu erhöhen. Wer von Windows 10 kommt und bisher vielleicht ein lokales Konto hatte, wird bei der Neuinstallation von Windows 11 gezwungen, ein Microsoft-Konto anzulegen. Viele werden es dabei belassen und sich nicht mehr die Mühe machen, es wieder zu entfernen.
Für technisch versierte Nutzer gibt es weiterhin Möglichkeiten:
Rufus für modifizierte Installationsmedien
Das Tool Rufus kann bootfähige USB-Sticks erstellen und dabei die Microsoft-Konto-Pflicht entfernen. Bei der Erstellung des Installationsmediums könnt ihr verschiedene Optionen aktivieren, darunter auch "Remove requirement for an online Microsoft account". Das funktioniert auch nach dieser Änderung noch, da Rufus die Installationsdateien selbst modifiziert.
Windows 11 Pro mit Domain Join
Wer Windows 11 Pro nutzt, hat weiterhin die Möglichkeit, während der Installation "Domain Join" zu wählen und damit ein lokales Konto zu erstellen. Diese Option bleibt auch in den aktuellen Test-Builds verfügbar – allerdings ist Windows 11 Pro deutlich teurer als die Home Edition.
Nachträgliche Kontoumwandlung
Wie bereits erwähnt, könnt ihr auch nach der Installation mit Microsoft-Konto zu einem lokalen Konto wechseln. Das ist zwar umständlich und genau das, was Microsoft bezweckt (die meisten werden es nicht tun), aber es funktioniert.
Letztendlich bleibt festzuhalten: Der Wechsel zu Linux ist 2025 eine hervorragende Wahl.
Distributionen wie Ubuntu, Linux Mint, Pop!_OS oder Fedora sind mittlerweile so benutzerfreundlich, dass auch Einsteiger problemlos zurechtkommen. Die Installation ist oft einfacher als bei Windows, und ihr habt von Anfang an:
Für viele alltägliche Aufgaben – Browser, E-Mail, Office-Anwendungen, Multimedia – ist Linux mehr als ausreichend. Die Gaming-Situation hat sich durch Proton und Steam Deck massiv verbessert, und viele Windows-Programme lassen sich über Wine oder in virtuellen Maschinen nutzen.
Microsoft zeigt einmal mehr, dass Nutzerfreundlichkeit und Wahlfreiheit keine Priorität haben. Stattdessen geht es um Datenkontrolle und Cloud-Anbindung. Die Entfernung der lokalen Konto-Option ist ein weiterer Schritt in diese Richtung – und das Timing zum Ende von Windows 10 ist alles andere als Zufall.
Für alle, die Wert auf Privatsphäre legen: 2025 ist ein guter Zeitpunkt, Alternativen ernsthaft in Betracht zu ziehen. Ob Linux als Hauptsystem oder zumindest als Dual-Boot-Option – die Kontrolle über eure eigenen Daten sollte nicht verhandelbar sein.
Hinweis: Falls ihr euch für einen Linux System aus unserem Shop entscheidet, und Dualboot mit Windows möchtet, kommt euer Windows System mit einem lokalen Systemadministrator Account eingerichtet daher, ohne Verbindung zu Microsoft.
The post Microsoft beendet lokale Konto-Einrichtung bei Windows 11 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Unterschied Bitaxe Gamma 601 vs 602 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Beide Modelle setzen auf den gleichen Mining-Chip: den BM1370 von Bitmain, der auch im Antminer S21 Pro zum Einsatz kommt. Dieser ASIC-Chip liefert beeindruckende Leistungsdaten:
Die Hardware-Grundlage ist damit absolut identisch. Beide Versionen nutzen zudem denselben ESP32-S3-Microcontroller für die Steuerung und WLAN-Konnektivität sowie die gleiche AxeOS-Firmware für die Konfiguration über eine Weboberfläche. Die Einrichtung und die Einstellungen ist somit auch absolut identisch.
Der einzige echte Unterschied liegt im Design der Platine selbst. Die 602-Revision ist eine fertigungsoptimierte Version der 601-Platine:
Konkrete Änderungen am PCB:
Diese Änderungen haben keinen direkten Einfluss auf die Mining-Performance. Bei identischer Kühlung liefern beide Versionen exakt die gleiche Hashrate und arbeiten mit der gleichen Effizienz.

Ein praktischer Vorteil der 602-Revision zeigt sich bei der USB-Verbindung. Das überarbeitete Routing des USB-Datenpfads hat positive Nebenwirkungen:
Bei der 601-Version traten gelegentlich Probleme beim Anschluss an Apple-Geräte auf – dieses Problem ist bei der 602-Variante weitgehend behoben.
In der Praxis ist der wichtigste Unterschied zwischen den Modellen oft gar nicht die PCB-Revision, sondern die mitgelieferten Komponenten:
Viele Händler nutzen die 602-Revision als Gelegenheit, verbesserte Hardware-Pakete anzubieten:
Typische 602-Bundle-Vorteile:
Diese Bundles ermöglichen oft höhere Taktraten und stabilere Temperaturen – allerdings nicht wegen der 602-Platine selbst, sondern wegen der besseren Kühlung.
Bitaxe ist ein vollständig quelloffenes Bitcoin-Mining-Projekt mit dem Ziel, Mining zu dezentralisieren. Die Gamma-Serie ist bereits die fünfte Generation dieser kompakten Solo-Miner:
Für wen lohnt sich welche Version?
Bitaxe 601:
Bitaxe 602:
Die PCB-Revision 602 bringt keine Performance-Steigerung gegenüber der 601. Die Verbesserungen beschränken sich auf Fertigungsoptimierung und USB-Kompatibilität. Der eigentliche Mehrwert liegt meist in den besseren Bundles, die Händler mit der 602-Version anbieten.
Wer bereits einen Bitaxe 601 besitzt, muss nicht upgraden. Wer neu kauft und Wert auf leiseren Betrieb, bessere Kühlung oder Apple-Kompatibilität legt, greift zur 602-Version – idealerweise als Bundle mit Premium-Komponenten.
Wichtig zu wissen: Solo-Mining mit einem einzelnen Bitaxe ist ein Lotteriespiel mit extrem geringer Erfolgswahrscheinlichkeit, aber hoher pädagogischer Wirkung. Es geht primär um Dezentralisierung, technisches Verständnis und Spaß an der Technik – nicht um profitables Mining.
Lust auf auf einen Bitaxe 602? Schaut mal im Shop vorbei:
The post Unterschied Bitaxe Gamma 601 vs 602 appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post VeraCrypt unter Linux installieren und nutzen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Diese Anleitung zeigt dir die Installation von VeraCrypt unter Ubuntu 24.04 und erklärt, wie ihr verschlüsselte Container per Terminal oder grafischer Benutzeroberfläche erstellen und nutzen könnt.
VeraCrypt, ecryptfs und fscrypt verfolgen alle dasselbe Ziel – den Schutz eurer Daten durch Verschlüsselung – gehen dabei aber unterschiedliche Wege.
VeraCrypt arbeitet container-basiert: Ihr erstellt eine verschlüsselte Datei (den Container), die nach dem Entsperren wie ein normales Laufwerk eingebunden wird. Der große Vorteil ist die Plattformunabhängigkeit – derselbe Container lässt sich unter Linux, Windows und macOS öffnen. Zusätzlich bietet VeraCrypt Funktionen wie versteckte Volumes und glaubhafte Abstreitbarkeit.
ecryptfs verschlüsselt dagegen auf Dateisystemebene. Jede Datei wird einzeln verschlüsselt und behält ihren Dateinamen (optional auch verschlüsselt). Ubuntu nutzte ecryptfs früher für die Home-Verzeichnis-Verschlüsselung. Das zugehörige Paket heißt ecryptfs-utils. Die Entwicklung ist allerdings weitgehend eingestellt.
fscrypt ist der moderne Nachfolger von ecryptfs und nutzt die native Verschlüsselung des Linux-Kernels für ext4, F2FS und UBIFS. Es ist schlanker und wird aktiv weiterentwickelt. Ubuntu setzt seit Version 18.04 auf fscrypt statt ecryptfs.
Kurz zusammengefasst: VeraCrypt eignet sich besonders, wenn ihr portable Container oder plattformübergreifende Kompatibilität braucht. fscrypt ist die erste Wahl für die Verschlüsselung von Verzeichnissen direkt im Dateisystem unter Linux.
Da VeraCrypt nicht in den Standard-Repositories der meissten Linux Distros enthalten ist, müsst ihr das vertrauenswürdige Unit 193 PPA hinzufügen, um Zugriff auf die aktuelle Version zu erhalten. Folgt den nachstehenden Schritten zur Installation:
sudo apt update
sudo add-apt-repository ppa:unit193/encryption -y
sudo apt update
sudo apt install veracrypt -y
veracrypt --version
Erwartete Ausgabe:
VeraCrypt 1.26.14
Mit VeraCrypt könnt ihr eure Daten schützen, indem ihr komplette Volumes verschlüsselt. Ähnlich wie bei fscrypt oder ecryptfs lassen sich neue Container erstellen oder externe Speichermedien absichern. Die folgenden Schritte zeigen euch, wie ihr unter Ubuntu 24.04 Volumes verschlüsselt.
Erstellt zunächst ein neues Arbeitsverzeichnis:
mkdir sample-dir
Wechsle in das erstellte Verzeichnis:
cd sample-dir
Jetzt erstellt ihr das verschlüsselte Volume mit folgendem Befehl:
sudo veracrypt --text --create vctest.vc --size 200M --password DeinPasswort --volume-type normal --encryption AES --hash sha-512 --filesystem ext4 --pim 0 --keyfiles "" --random-source /dev/urandom
Erklärung der Parameter:
--text: Nutzung im Terminal ohne grafische Oberfläche.--create: Legt den Namen der verschlüsselten Datei fest.--size: Gibt die gewünschte Größe des Volumes an, z. B. 200M für 200 MB.--password: Passwort für das Volume – am besten 20 Zeichen oder mehr.--volume-type: Erstellt ein Standard-Volume.--encryption: Verschlüsselungsalgorithmus (hier AES).--hash: Hashfunktion zur Schlüsselableitung (hier SHA-512).--filesystem: Format des Volumes, z. B. ext4.--pim: Personal Iterations Multiplier – 0 bedeutet Standardwert.--keyfiles: Keine Schlüsseldateien – daher leerer String.--random-source: Zufallsquelle für die Schlüsselgenerierung (hier das System-Zufallsgerät).Dieser Befehl erstellt ein 200MB großes Volume namens vctest.vc mit AES-Verschlüsselung, SHA-512 als Hash und ext4-Dateisystem. Grösse und Namen können natürlich angepasst werden.
Erwartete Ausgabe:
Done: 100.000% Speed: 79 MiB/s Left: 0 s
The VeraCrypt volume has been successfully created.
Mit folgendem Befehl bindet ihr das Volume im Verzeichnis /mnt ein:
sudo veracrypt --text --mount vctest.vc /mnt --password EnterYourPassword1! --pim 0 --keyfiles "" --protect-hidden no --slot 1 --verbose
Erklärung der Optionen:
Erwartete Ausgabe:
Volume /home/example_user/dir1/vctest.vc has been mounted.
Wechslet ins eingehängte Verzeichnis, um auf die verschlüsselten Daten zuzugreifen:
cd /mnt
Ihr könnt nun Dateien in diesem geschützten Verzeichnis lesen und schreiben.
Liste der aktuell gemounteten VeraCrypt-Volumes anzeigen:
veracrypt --list
Erwartete Ausgabe:
1: /home/linuxuser/vctest.vc /dev/mapper/veracrypt1 /mnt
Wechselt zunächst zurück in dein Home-Verzeichnis:
cd
Volume anhand des Dateinamens aushängen:
sudo veracrypt --dismount vctest.vc
Oder anhand des Mount-Pfades:
sudo veracrypt --dismount /mnt
Oder über den Slot:
sudo veracrypt --text --dismount --slot 1
Alle aktiven Volumes auf einmal aushängen:
sudo veracrypt --dismount
Abschließend prüfen, ob keine Volumes mehr eingebunden sind:
veracrypt --list
Erwartete Ausgabe:
Error: No volumes mounted.
Jetzt habt ihr gelernt, wie ihr verschlüsselte Container über die Kommandozeile erstellt, nun zeigen wir natürlich auch die Variante über die integrierte GUI Oberfläche von Veracrypt. Diese Methode ist besonders benutzerfreundlich und verzichtet vollständig auf Befehle in der Konsole. Die folgenden Schritte zeigen euch, wie ihr mit der GUI verschlüsselte Container erstellt.
MyData ein und klickt auf Save.0 (entspricht 458 Iterationen).Nun seht ihr einen Eintrag in der Liste auf der VC Oberfläche. Mit einem Doppelklick, öffnet sich auch gleich das Volumen. Danach habt ihr den Ordner wie ein zusätzliches Laufwerk zur Verfügung und könnt darin Datein, Bilder, Dokumente und sonstwas ableben:
Der Ablauf ist genau der gleiche, ausser dass ihr keine Datei erstellt, sondern eine Partition, oder ein Laufwerk komplett verschlüsselt. Bei dem Schritt wo ihr eine Datei erstellt, wählt ihr einfach ein freies, leeres Laufwerk aus!
Bitte stellt stellt ihr 100% Sicher, dass ihr nicht ausversehen das falsche Laufwerk verschlüsselt, den das Laufwerk wird vorher komplett bereinigt und gelöscht!
Anschliessend wählt ihr anstatt Datei, einfach den Datenträger aus, der eingehängt werden soll.
Ihr könnt nun einfach die verschlüsselte Containerdatei via USB Stick auf einem anderen Rechner mit Veracrypt öffnen, indem ihr die Datei auswählt, und wieder entsprechend einhängt.
Wenn ihr VeraCrypt nicht mehr benötigt, könnt ihr es mit den folgenden Schritten von deinem Ubuntu-System entfernen:
sudo apt autoremove veracrypt -y
sudo add-apt-repository --remove ppa:unit193/encryption -y
sudo apt update
Damit habt ihr VeraCrypt erfolgreich unter Ubuntu 24.04 installiert und die grundlegende Handhabung kennengelernt – sowohl per Kommandozeile als auch über die grafische Benutzeroberfläche. Die Software bietet euch eine solide Möglichkeit, sensible Daten auf Datei-, Ordner- oder Laufwerksebene zu verschlüsseln. Wer tiefer einsteigen möchte, findet in der offiziellen VeraCrypt-Dokumentation weitere Optionen wie versteckte Volumes oder die Nutzung von Keyfiles.
Veracrypt stellt eine gute Alternative dar, falls das Homeverzeichnis nicht Standardmässig verschlüsselt habt, und ihr bestimmte Daten zusätzlich absichern wollt.
The post VeraCrypt unter Linux installieren und nutzen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Nostr – Das freie, zensurresistente soziale Netzwerk appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Im Kern geht es bei Nostr darum, Kommunikation – egal ob kurze Posts, Chats, Zahlungen oder News – dezentral, zensurresistent und offen zu gestalten. Ein nachträgliches Löschen, vom Betreiber, wie es z.B aus den Twitter Files bekannt geworden ist, ist nicht möglich, da es keinen zentralen Betreiber gibt.
Anstatt eines zentralen Servers, auf dem alle Daten gespeichert werden (wie bei Twitter oder X), funktioniert Nostr über ein Netzwerk aus sogenannten Relays.
Jeder Nutzer besitzt ein Kryptoschlüsselpaar:
Damit ist die Authentifizierung vollständig ohne Passwort, ohne zentrale Datenbank und ohne Plattformkonto möglich.
Ein Nostr Schlüsselpaar sieht in der Regel so aus:
Privater Schlüssel (nsec…): nsec1x5yq3t7hd2u9a6g9j3p2q9ld0z3w7mxyz…
Öffentlicher Schlüssel (npub…): npub1w9r3v5q9j8t5u2c4n8z9s7g4l6d3v8kxyz…
Diese beiden Schlüssel sind das Fundament Eurer Identität im gesamten Nostr-Netzwerk. Der private Schlüssel ist Euer persönlicher Zugang – er funktioniert wie ein Passwort, mit dem Ihr alle Eure Nachrichten digital unterschreibt (das passiert automatisch im Hintergrund). Der öffentliche Schlüssel dagegen ist Euer Benutzername, über den Euch andere Nutzer finden, folgen oder Euch Nachrichten senden könnt.
Wenn Ihr Euch bei einem Nostr-Client anmeldet (z. B. Damus, Primal, Snort, Amethyst oder Iris), läuft das im Gegensatz zu herkömmlichen Plattformen völlig anders ab.
Es gibt keine Registrierung, keine E-Mail-Adresse, kein Passwort. Stattdessen wird einfach Euer Schlüsselpaar verwendet.
Der Ablauf sieht so aus:
So entsteht eine selbstsouveräne Authentifizierung, die keiner Plattform gehört. Dein Account ist universell gültig – Ihr könnt Euch mit denselben Schlüsseln in jedem beliebigen Nostr-Client anmelden, und Euer Profil, Eure Posts und Kontakte bleiben erhalten.
Geht z.B. auf primal.net, und klickt in der rechten Leiste unten auf Get Started. Es öffnet sich ein Fenster. Hier wählt Ihr Create Account aus.

Im Nächsten Schritt, wählt Ihr einen Username und einen Displayname (dieser wird öffentlich angezeigt).

Danach könnt Ihr ein paar Account Details eingeben, einen Avatar festlegen, eine kurze Beschreibung über Euch festlegen, Eure Webseite, oder eine LN-Adresse angeben, falls ihr eine habt:

Im nächsten Schritt werden Euch ein paar Accounts angezeigt, denen Ihr folgen könnt. Müsst Ihr aber nicht, ihr könnt unten einfach auf den Finish Button klicken.
Für das Login könnt ihr einen PIN festlegen, welchen euren Schlüssel zusätzlich absichert (nur für den jeweiligen Client und nicht universel gültig!).
Damit Ihr Euren Zugang niemals verliert, solltet Ihr Euch nun euren Privaten Schlüssel extrahieren. Damit könnt ihr später AlbyHub (die externe Schlüsselverwaltung) verknüpfen, oder Euch auf anderen Clients einloggen. Geht dafür auf die Settings, und dann auf Account:

Hier unbedingt den Private Key kopieren, und z.B in einem Passwortmanager sichern. Der Key gehört am besten nicht irgendwo als Klartext in einer Datei auf Eurem Rechner gespeichert. Mit dem PrivateKey hat jeder vollständigen Zugriff auf Euer Profil!
Mit dem Privatekey könnt Ihr Euch dann auch in anderen Nostr Clients anmelden. Auf Iris.to geht ihr dann Beispielsweise einfach auf Login, und wählt als Loginmethode Paste Privatekey or Public Key.
Der private Schlüssel ist extrem sensibel – wer ihn besitzt, kontrolliert Euren Account vollständig. Es gibt kein „Passwort zurücksetzen“ oder Support-Team, das ihn wiederherstellt. Deshalb ist ein sicherer Umgang entscheidend:
Viele moderne Nostr-Clients nutzen bereits NIP-07, eine standardisierte Schnittstelle für Browsererweiterungen (z. B. Alby, nos2x, Blockcore Vault). Diese Erweiterungen fungieren wie eine Nostr-Wallet und verhindern, dass Ihr Euren privaten Schlüssel direkt eingeben musst.
Damit ähnelt das Ganze dem Login mit einer Bitcoin-Wallet:
Der Client fordert eine Signatur an, Ihr bestätigst sie über Eure Schlüsselverwaltung, und der Login ist abgeschlossen – ohne dass Euer Schlüssel jemals das Gerät verlässt.
| Merkmal | Klassische Plattform (z. B. Twitter) | Nostr |
|---|---|---|
| Anmeldung | E-Mail + Passwort | Kryptografisches Schlüsselpaar |
| Accountbesitz | Firma (z. B. X Corp) | Vollständig beim Nutzer |
| Wiederherstellung | Passwort-Reset über E-Mail | Nur über den privaten Schlüssel |
| Datenspeicherung | Zentralisiert | Auf beliebigen Relays verteilt |
| Vertrauensmodell | Vertrauen in Betreiber | Vertrauen in eigene Kryptografie |
Die Bedienung von Nostr ist im Grunde ganz vertraut: Ihr postet kurze Nachrichten, könnt anderen folgen, Beiträge liken, teilen oder kommentieren – genau wie auf Twitter oder anderen sozialen Netzwerken. Der Hauptunterschied liegt eher unter der Haube: Eure Daten liegen nicht bei einer Firma, sondern auf offenen Relays, und Euer Login läuft über Euren Schlüssel, nicht über ein Passwort. Für den Nutzer fühlt sich das aber kaum anders an – moderne Clients wie Damus, Snort oder Primal sind so aufgebaut, dass sie sich intuitiv wie jede andere Social-Media-App bedienen lassen.
Es gibt mittlerweile eine ganze Reihe an Nostr-Clients, also Anwendungen, mit denen man das Protokoll nutzen kann. Für iOS ist der bekannteste Damus, auf Android Amethyst, und im Browser greifen viele zu Snort, Primal, oder Iris. Sie alle basieren auf denselben Nostr-Grundlagen, unterscheiden sich aber in Bedienung, Design und Zusatzfunktionen – etwa bei der Darstellung von Feeds, Chat-Funktionen oder der Integration von Lightning-Zahlungen über „Zaps“.

Damit Ihr Euch nicht jedes Mal mit deinem privaten Schlüssel einloggen musst, gibt es wie gesagt Browser-Erweiterungen wie Alby bzw. Alby Hub. Diese Erweiterung dient als sicherer Signer für Nostr und Lightning zugleich.
Statt den privaten Schlüssel direkt in einem Client einzugeben (was riskant wäre), speichert Alby ihn verschlüsselt lokal und signiert Anfragen nur dann, wenn Ihr sie aktiv bestätigt.
Das Prinzip funktioniert ähnlich wie eine Krypto-Wallet:

Mit Alby Hub könnt Ihr außerdem mehrere Identitäten verwalten, Relays konfigurieren und sogar Lightning-Zahlungen direkt aus der Erweiterung heraus abwickeln. Damit ist Alby eine Art Schaltzentrale für alle Eurer Nostr- und Lightning-Aktivitäten – bequem, sicher und komplett selbstbestimmt. Wie wir AlbyHub einrichten, beschreiben wir in einem weiteren Beitrag demnächst.
a) Zensurresistenz
Da jeder einen Relay betreiben kann, lässt sich niemand wirklich aussperren. Selbst wenn ein Relay Eure Beiträge blockiert, könnt Ihr sie einfach über andere Relays verbreiten. Diese Offenheit macht Nostr besonders attraktiv für Menschen in Ländern mit eingeschränkter Meinungsfreiheit.
b) Kein zentraler Eigentümer
Es gibt keine Firma, die entscheidet, was erlaubt ist, wie der Algorithmus funktioniert oder wessen Account gesperrt wird. Das Netzwerk gehört allen – oder besser gesagt: niemandem. Nostr ist dezentraler als Mastodon, da hier zum Beispiel einfach der jeweilige Mastodon Server offlinen genommen werden könnte, und alle Accounts die sich auf dieser Mastodon Instanz befinden, wären weg vom Fenster.
c) Kryptografische Identität
Deine Identität hängt nicht von einer Plattform ab. Wenn Ihr Euren öffentlichen Schlüssel habt, könnt Ihr ihn in jedem beliebigen Client (z. B. Damus, Amethyst, Snort, Primal oder Iris) nutzen und seit sofort wieder „Ihr“. Kein Reset, kein Login über E-Mail, keine Datenweitergabe.
d) Offene Standards und Erweiterbarkeit
Nostr ist modular aufgebaut. Neue Funktionen wie Gruppen, Chats, Zahlungen oder Reaktionen werden durch sogenannte NIPs (Nostr Improvement Proposals) standardisiert – ähnlich wie bei Bitcoin oder dem Internet selbst. So wächst das Ökosystem kontinuierlich.
e) Bitcoin-Integration
Viele Nostr-Clients unterstützen Lightning-Zahlungen über zaps – das sind Mikrotransaktionen, mit denen Nutzer sich gegenseitig belohnen können. Diese enge Verbindung zwischen sozialer Interaktion und Bitcoin ist einzigartig und ermöglicht ein völlig neues Modell für Inhalte im Netz.
| Aspekt | Twitter / X | Mastodon | Nostr |
|---|---|---|---|
| Struktur | Zentrale Plattform | Föderiertes Netzwerk (Serververbund) | Offenes Protokoll mit beliebigen Relays |
| Kontrolle / Eigentum | Eine Firma (Elon Musk) | Betreiber der Instanzen | Niemand – vollständig dezentral |
| Zensur | Hoch, nach Regeln der Plattform | Abhängig von Instanzregeln | Praktisch unmöglich |
| Accountbindung | Plattformabhängig | Instanzabhängig | Schlüsselpaarbasiert |
| Finanzierung | Werbung, Premium-Modelle | Spenden / Instanzkosten | Keine zentrale Finanzierung |
| Interoperabilität | Geschlossen | Eingeschränkt über ActivityPub | Offen, mit standardisierten Events |
| Beispiel-Clients | Twitter-App | Mastodon, Pleroma | Damus, Primal, Amethyst, Iris |
Nostr stellt die digitale Souveränität wieder her. In einer Zeit, in der Plattformen den Informationsfluss kontrollieren und Algorithmen Meinungen formen, bietet Nostr einen radikal anderen Ansatz:
Damit wird Nostr zu einer Art digitalem Rückgrat für freie Kommunikation – offen wie das Internet in seinen Anfangstagen, aber mit moderner Kryptografie und optionaler Bitcoin-Integration.
Natürlich ist Nostr nicht perfekt:
Trotzdem schreitet die Entwicklung schnell voran – es gibt bereits Chatfunktionen, verschlüsselte Direktnachrichten, Suchdienste, Content-Feeds, Musikplattformen und sogar komplette Marktplätze (wie z. B. Satoshis Kleinanzeigen) auf Basis von Nostr.
Nostr ist mehr als nur eine Alternative zu Twitter – es ist ein völlig neues Paradigma für soziale Kommunikation im Internet.
Anstatt Nutzer in zentralisierten Plattformen einzusperren, gibt Nostr ihnen die volle Kontrolle über Identität, Inhalte und Interaktion zurück.
Wer die Vision des freien Internets teilt, findet in Nostr ein Werkzeug, das diesen Geist wiederbelebt – unabhängig, offen, global und unzensierbar.
The post Nostr – Das freie, zensurresistente soziale Netzwerk appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post GrapheneOS bald für andere Smartphones? appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Nun steht ein bedeutender Wandel bevor: Das GrapheneOS-Team arbeitet aktiv mit einem großen Smartphone-Hersteller zusammen, um erstmals auch Nicht-Pixel-Geräte zu unterstützen. Damit wird die bisherige Abhängigkeit von Googles Hardwarestrategie Schritt für Schritt aufgelöst.

Google hat sich dazu entschieden, ab dem Pixel 10, keine Firmwareblobs für die Geräte in ihren Device-Tree mehr auszuliefern angeblich der Effizienz wegen, und um den Code der Releases schlank zu halten. Ein entscheidender Punkt, der oft übersehen wird, ist, wie sehr diese neuen Hürden Googles die Geschwindigkeit von Projekten wie GrapheneOS ausbremsen. GrapheneOS ist bekannt dafür, sehr schnell nach einem neuen Android-Release eine stabile, gehärtete Version für Pixel-Geräte bereitzustellen. Diese schnelle Taktung war bislang überhaupt nur möglich, weil Google die nötigen Bausteine – also Device-Trees, Kernel-Quellen und Treiber-Binaries – zeitnah veröffentlicht hat.
Genau diese Grundlagen fehlen jetzt.
Anstatt die neue Android-Version „einfach“ wie gewohnt in ihr eigenes Sicherheits-Framework einzubauen, müssen die Entwickler nun zuerst versuchen, veraltete Device-Trees aus der vorherigen Version anzupassen, Treiber aus Binärblobs mühselig zu reverse engineeren oder im schlimmsten Fall die gesamte Gerätebeschreibung komplett neu zu schreiben. Das bedeutet:
Für ein Projekt wie GrapheneOS, das höchsten Sicherheitsansprüchen gerecht werden will und keinerlei Kompromisse bei der Systemintegrität eingeht, ist das ein echter Klotz am Bein.
Andere Custom-ROMs können an manchen Stellen pragmatischer arbeiten, etwa indem sie provisorische Treiber einbauen oder Teile des Systems nur oberflächlich anpassen. GrapheneOS hingegen arbeitet auf Kernel- und Hardwaresicherheitsniveau. Das bedeutet, jeder fehlende oder fehlerhafte Baustein muss sauber und sicher ersetzt werden – sonst wird nicht veröffentlicht.
Und genau das erklärt auch, warum GrapheneOS nicht mehr so schnell neue Versionen herausbringen kann wie früher. Diese künstlichen Barrieren sind kein kleines Hindernis, sondern ein echter Bremsklotz, der die gesamte Entwicklungsdynamik des Projekts verändert hat.
Aus diesem Grund ist auch der Schritt zur Zusammenarbeit mit einem OEM so logisch: Wenn der Hersteller selbst die nötigen Ressourcen bereitstellt, müssen die Entwickler nicht mehr monatelang im Dunkeln stochern, sondern können wieder mit kalkulierbaren Entwicklungszeiten arbeiten – und damit ihre Releases wieder zeitnah und stabil liefern.
Laut Aussagen eines GrapheneOS-Moderators im offiziellen Subreddit arbeitet das Projekt derzeit mit einem großen OEM (Original Equipment Manufacturer) zusammen. Das Ziel: ein Smartphone auf Basis bereits bestehender High-End-Hardware mit einer offiziellen GrapheneOS-Unterstützung.
Konkret soll das Gerät mit dem aktuellen Snapdragon 8 Elite Gen 5 ausgestattet sein. Dieser wurde erst Ende September vorgestellt und liefert sowohl bei CPU- als auch bei GPU-Leistung spürbar mehr Performance als aktuelle Pixel-Modelle. Die Snapdragon-Plattform bringt außerdem erstklassige Hardware-Komponenten mit:
Preislich soll das neue Gerät in der gleichen Liga wie die Pixel-Modelle spielen und breit verfügbar sein – also nicht nur in einzelnen Regionen, sondern in mehreren Märkten weltweit.
In einem weiteren Statement erklärte das Projektteam, dass die derzeit am Markt verfügbaren Geräte des Partners zwar noch nicht die extrem hohen Sicherheitsanforderungen von GrapheneOS erfüllen, aber eine kommende Geräteserie diese Anforderungen explizit erfüllen wird.
Damit entsteht für das Projekt zum ersten Mal eine vollwertige Alternative zur Pixel-Reihe, die bislang die einzige Basis für die offizielle Firmware war.
Diese strategische Öffnung hat mehrere Vorteile:
Das Projekt bestätigte parallel, dass es weiterhin Unterstützung für die kommende Pixel 10-Serie geben wird. Allerdings ist die Anpassung an die neue Android-Version QPR1 deutlich aufwendiger als in den Vorjahren. Einen genauen Zeitplan für die Veröffentlichung gibt es deshalb nicht.
Langfristig ist aber klar erkennbar: Sobald das neue Partnergerät stabil läuft, wird GrapheneOS seine Entwicklung zunehmend auf diese Plattform fokussieren. Ob und in welchem Umfang neue Pixel-Modelle wie Pixel 11 noch unterstützt werden, ist offen.
Ein offizieller Release des neuen GrapheneOS-Smartphones wird nicht vor dem dritten Quartal 2026 erwartet. Das passt zum Zeitfenster, in dem Google traditionell neue Pixel-Geräte vorstellt.
Google veröffentlicht zwar weiterhin den Android-Quellcode über das Android Open Source Project (AOSP), aber entscheidende Bestandteile wie Gerätetrees, Treiberpakete und Kernel-Commit-Historien sind nicht mehr öffentlich verfügbar.
Das bedeutet:
Für GrapheneOS, das besonders auf Integrität, reproduzierbare Builds und strenge Sicherheitsmaßnahmen setzt, war diese Entwicklung ein echter Bremsklotz. Die Partnerschaft mit einem Hersteller ist daher ein logischer und strategisch sinnvoller Ausweg.
Die Situation erinnert an die Zusammenarbeit zwischen OnePlus und CyanogenMod vor rund einem Jahrzehnt. Damals brachte OnePlus das OnePlus One direkt mit CyanogenMod auf den Markt. Auch dort profitierte ein Custom-ROM enorm von einer offiziellen Partnerschaft mit einem Hardwarehersteller.
Diese Kooperation endete zwar, als OnePlus auf OxygenOS umstieg, doch sie zeigte, wie stark ein Open-Source-Projekt durch direkten Hardwarezugang profitieren kann. GrapheneOS versucht nun, einen ähnlichen, aber stabileren und langfristigeren Weg zu gehen.

Der geplante Wechsel von der Pixel-Exklusivität hin zu einer offiziellen Kooperation mit einem großen OEM ist ein Meilenstein für GrapheneOS. Er bedeutet:
Für sicherheitsbewusste Nutzer ist das eine sehr gute Nachricht: Statt sich auf Googles Launen verlassen zu müssen, steht künftig ein dediziertes High-Security-Smartphone zur Verfügung, das direkt auf GrapheneOS abgestimmt ist.
Wenn alles nach Plan läuft, könnte das Projekt damit endgültig den Sprung aus der Nische schaffen – und einen neuen Standard für sichere Android-Geräte setzen.
The post GrapheneOS bald für andere Smartphones? appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post KDE Linux – das neue Mint? appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Für erfahrene Nutzer sind das Routineaufgaben. Für Einsteiger kann es jedoch unnötig abschrecken – obwohl Linux technisch meist nicht das Problem, sondern nur anders organisiert ist.
Genau hier will KDE Linux ansetzen – und das klassische Desktop-Linux radikal vereinfachen, ohne seine Offenheit und Flexibilität zu verlieren.



Das Herzstück von KDE Linux ist KDE Plasma – eine der modernsten und beliebtesten Desktop-Oberflächen für Linux.
KDE Plasma bietet:
Typische Desktop-Elemente:
KDE Plasma ist seit Jahren für seine Kombination aus Eleganz, Leistung und Anpassbarkeit bekannt.
Mit KDE Linux bekommt es erstmals ein Betriebssystem, das genau auf diese Oberfläche zugeschnitten ist – nicht umgekehrt.
Das eigentliche Revolutionäre an KDE Linux ist der Aufbau des Systems selbst.
Im Gegensatz zu klassischen Distributionen basiert es auf einem immutablen System. Das bedeutet:
👉 Das Basissystem ist schreibgeschützt – es kann nicht einfach „aus Versehen“ verändert oder beschädigt werden.
👉 Updates erfolgen atomar, also als Ganzes. Wenn etwas schiefgeht, wird einfach auf die vorherige Version zurückgerollt.
👉 Das System bleibt konsistent – ganz egal, wie viele Programme Ihr installiert oder wie lange Ihr es nutzt.
Praktischer Nutzen für Einsteiger:
KDE Linux trennt klar zwischen dem System und deinen Apps.
Programme werden nicht klassisch „ins System installiert“, sondern laufen isoliert in Containern (z. B. via Flatpak).
Das bringt gleich mehrere Vorteile:
Das fühlt sich ähnlich an wie bei Smartphones oder Konsolen – ein stabiles Fundament mit flexibler App-Ebene.
Wer ein Smartphone oder Tablet nutzt, kennt das Prinzip:
Systemupdates laufen im Hintergrund – und entweder funktionieren sie oder sie werden automatisch rückgängig gemacht.
Genau das bringt KDE Linux auf den Desktop:
Damit fällt einer der größten Stolpersteine für Linux-Einsteiger weg.
Viele Neulinge fragen sich:
„Welche Linux-Distro soll ich nehmen?“
„Ubuntu, Fedora, Manjaro oder Arch?“
KDE Linux macht Schluss mit dieser Zersplitterung.
Die KDE-Community liefert:
So müsst Ihr Euch nicht mehr durch Foren und Vergleichstabellen kämpfen – Ihr bekommt ein perfekt abgestimmtes Gesamtpaket.
KDE Linux richtet sich bewusst an Einsteiger, die weg von Windows wollen ohne sie einzuschränken:
Das ist nicht „Linux light“ – das ist Linux neu gedacht.
Ein Punkt, den man bei all dem Lob für KDE Linux fairerweise erwähnen sollte:
Das System ist bewusst restriktiver aufgebaut als klassische Linux-Distributionen.
Weil das Basissystem unveränderbar (immutable) ist, können fortgeschrittene Nutzer:
Das ist kein Bug, sondern Absicht: KDE Linux will eine zuverlässige, einheitliche Plattform für die große Mehrheit der Nutzer bieten – Menschen, die einfach ein stabiles, sicheres System möchten, das „einfach läuft“.
👉 Und genau diese Mehrheit macht realistisch rund 90 % der Linux-Anwender aus.
Die meisten Nutzer wollen:
Für die verbleibenden Power-User oder Linux-Enthusiasten, die das System bis ins letzte Detail selbst gestalten wollen, gibt es natürlich weiterhin Alternativen.
Beispielsweise:
Damit wird klar: KDE Linux ersetzt nicht die Freiheit klassischer Distros – es ergänzt sie.
Power-User bekommen weiterhin volle Kontrolle, Einsteiger dagegen ein System, das sie nicht überfordert.
Klar: KDE Linux befindet sich noch in der Alpha-Phase.
Nicht alles ist fertig – Secure Boot, erweiterte Partitionierung oder spezielle Hardwareunterstützung sind noch in Arbeit.
Aber das Konzept ist klar, durchdacht und vielversprechend.
Wenn das Projekt stabil wird, könnte es für Einsteiger die erste Linux-Distribution werden, die sich anfühlt wie ein Smartphone – nur mächtiger und freier, ohne Microsoft im Hintergrund die stündlich protokollieren wie Ihr Euren Rechner verwendet.
KDE Linux ist kein weiteres „Bastelprojekt“, sondern eine klare Vision für ein modernes Desktop-Linux:
Für alle, die bisher gezögert haben, weil ihnen Linux „zu technisch“ erschien, könnte KDE Linux genau der Durchbruch sein, auf den viele gewartet haben.
👉 Ein Linux, das einfach funktioniert, aber offen und mächtig bleibt.
👉 Ein System, das Neulingen den Einstieg leicht macht – und Profis trotzdem nicht ausbremst.
The post KDE Linux – das neue Mint? appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Sind QR Codes wirklich böse appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>QR-Codes sind technisch gesehen nur eine Weiterentwicklung des klassischen Barcodes und keine inhärente Bedrohung. Der QR-Code (englisch Quick Response – „schnelle Antwort“) ist ein zweidimensionaler Code aus schwarzen und weißen Quadraten, der Daten speichert (iqual.chkrone.at). Im Prinzip funktioniert er wie der Strichcode auf Produktverpackungen im Supermarkt – nur dass ein QR-Code viel mehr Informationen fasst und speziell fürs Auslesen mit Kameras (z. B. im Smartphone) entwickelt wurde. Man kann also sagen: Ein QR-Code ist das Äquivalent des Barcodes für Smartphones.

Ein QR-Code besteht aus einem Muster kleiner Quadrate, das von Scannern oder Smartphone-Kameras gelesen werden kann. Während herkömmliche Barcodes nur in einer Richtung Information durch unterschiedlich breite Striche codieren, nutzen QR-Codes eine zweidimensionale Matrix aus Pixeln. Dieses Design erlaubt es, deutlich mehr Daten auf kleinem Raum zu speichern – zum Beispiel Text, Webseiten-Adressen (URLs), Kontaktdaten (vCards), WLAN-Zugangsdaten oder andere kurze Informationen. Beim Scannen entschlüsselt die QR-Code-Software das Muster mithilfe eines Algorithmus und wandelt es zurück in lesbaren Text bzw. einen Link.
Besondere Muster im Code sorgen für schnelle Erkennbarkeit und Fehlertoleranz: Die drei markanten Quadrate in den Ecken eines QR-Codes dienen z. B. als Positionsmuster zur Orientierung für den Scanner. Zusätzlich enthält der Code Bereiche für Synchronisation und Fehlerkorrektur. Dank dieser Fehlerkorrektur können QR-Codes sogar dann noch gelesen werden, wenn Teile beschädigt oder verdeckt sind – ein Vorteil gegenüber einfachen Strichcodes. Das erklärt, warum man QR-Codes in der Praxis oft trotz Kratzern oder ungünstigen Winkeln noch scannen kann.
Zum Auslesen genügt heute meist ein Smartphone. Moderne Smartphones erkennen QR-Codes direkt über die eingebaute Kamera-App – man richtet die Kamera einfach auf den Code und erhält eine Meldung mit dem entschlüsselten Inhalt (z. B. eine URL zum Antippen). Alternativ gibt es spezialisierte QR-Scanner-Apps und sogar Online-Tools oder Browser-Erweiterungen, mit denen man einen QR-Code aus einem Bild heraus auslesen kann. In jedem Fall sollte die Scanner-App den gefundenen Text oder Link anzeigen, bevor man ihn öffnet. Gute Scanner bieten genau diese Vorschau an, sodass die Ziel-Internetadresse zunächst sichtbar ist und man den Vorgang abbrechen kann, falls einem die Adresse verdächtig vorkommt.
QR-Codes sind heute äußerst praktisch und effizient, was ihren Siegeszug im Alltag erklärt (ncsc.admin.ch). Man begegnet ihnen in den unterschiedlichsten Bereichen: auf Plakaten, Flyern oder Produktverpackungen, wo sie als Brücke vom echten in das virtuelle Leben dienen. Statt eine lange Webadresse abzutippen, scannt man einfach den Code und gelangt in Sekundenschnelle zur gewünschten Webseite. Unternehmen nutzen das z. B. in der Werbung – ein Scan liefert mehr Infos zum Produkt oder führt direkt zur Bestellseite.

Tickets und Zugangskarten funktionieren inzwischen oft per QR-Code. Ob Bordkarte am Flughafen, Bahn- und Konzertticket oder der Impf- bzw. Testnachweis – all diese enthalten einen QR-Code, der beim Einlass oder Check-In einfach gescannt wird. Für Nutzer ist das bequem, und den Veranstaltern ermöglicht es eine schnelle, automatisierte Prüfung. Reisende können so ihre Tickets digital vorzeigen und verifizierentest.de, ohne Papier zu benötigen.

Bezahlen und Bankgeschäfte sind ein weiteres Feld: In der Schweiz findet man z. B. auf Rechnungen einen QR-Code (die QR-Rechnung), den man mit der Banking-App scannt, um alle Überweisungsdaten automatisch einzulesen – kein mühsames Eintippen von IBAN mehr. Ähnlich wird in anderen Ländern per QR-Code bezahlt, etwa mit Bezahldiensten oder Wallet-Apps im Laden. An Parkscheinautomaten kann man per QR-Code zu einer Bezahlseite gelangen (ncsc.admin.ch), und Restaurants bieten seit der Pandemie oft digitale Speisekarten via QR-Code an Tischaufstellern an. Selbst für den schnellen Austausch von Kontaktinfos oder WLAN-Zugang gibt es QR-Codes: So kann ein Visitenkartencode das lästige Abtippen ersparen, und ein WLAN-QR-Code loggt Gäste mit einem Scan ins Netzwerk ein. Kurzum – QR-Codes sind vielseitige Helfer, die Prozesse beschleunigen und Fehler vermeiden helfen.
Beispiel: Zwei Besucher scannen im J.N. “Ding” Darling National Wildlife Refuge (Florida) einen QR-Code mit dem Smartphone, um vor Ort mehr über die Natur zu erfahren (commons.wikimedia.org). QR-Codes auf Informationstafeln verbinden Ausflügler schnell mit weiterführenden Inhalten, ohne lange Links abtippen zu müssen.
Auch wenn QR-Codes uns den Alltag erleichtern, empfinden manche Menschen sie als unheimlich. Das liegt vor allem daran, dass wir mit bloßem Auge nicht erkennen können, was in einem QR-Code steckt. Wo ein normaler Text oder Link für uns lesbar wäre, sehen wir bei QR-Codes nur ein wirres Muster. Dieses Unwissen schafft Unsicherheit – und bietet Raum für wilde Spekulationen. So ranken sich tatsächlich einige Verschwörungstheorien um Strich- und QR-Codes . Manche selbsternannten „Aufklärer“ behaupten zum Beispiel, QR-Codes seien Werkzeuge einer totalen Überwachung oder ein Bestandteil finsterer Kontrollagenden. Besonders im Zusammenhang mit COVID-Impfzertifikaten und Einlass-Systemen wurde von solcher Seite suggeriert, hinter den Codes stecke ein Plan zur globalen Kontrolle.. Fakt ist jedoch: Ein QR-Code enthält meist nur einen Verweis – etwa auf eine Website oder auf einen verschlüsselten Datensatz – nicht die eigentliche persönliche Information selbst. Die Daten liegen auf dem Server, der durch den Code aufgerufen wird, und Zugriffe lassen sich dort normalerweise nachvollziehen. Mit anderen Worten: Ein QR-Code ist letztlich nur ein Träger von Informationen, kein geheimnisvolles Senderchen.
Andere krude Mythen behaupten gar, QR-Codes seien gesundheitsschädlich oder „strahlten etwas aus“. In esoterischen Kreisen gibt es z. B. Leute, die glauben, das Scannen von Strichcodes oder QR-Codes setze negative Energien oder gefährliche Strahlung frei – und sie versuchen dann, durch Durchstreichen oder Symbole die angebliche Strahlung zu „entstören“ (channelpartner.de). Dafür gibt es keinerlei wissenschaftlichen Beleg. Scanner lesen lediglich Hell-Dunkel-Kontraste – keine Frequenzen, keine Strahlen. Ebenso unbegründet sind Behauptungen, QR-Codes hätten irgendeinen satanischen Hintergrund oder gar außerirdischen Ursprung – all das entbehrt jeder Grundlage und entspringt einer übersteigerten Fantasie.
Ein besonders absurdes Beispiel kursierte während der Pandemie: Da wurde ernsthaft behauptet, geimpfte Menschen hätten unsichtbare QR-Codes unter der Haut und man könne diese per Smartphone auslesen (channelpartner.de). Ein im Netz verbreitetes „Beweisvideo“ dafür war natürlich eine plumpe Fälschung. QR-Codes bestehen aus gedruckten Kontrasten auf Oberflächen, nicht aus irgendwelchen versteckten Implantaten – man kann keinen QR-Code aus einem Arm herausleuchten, das ist technisch unmöglich (channelpartner.de). Solche Geschichten mögen spektakulär klingen, sind aber blanker Unsinn.
Abgesehen von verrückten Mythen gibt es reale Gefahren im Umgang mit QR-Codes, über die man sachlich Bescheid wissen sollte. Wichtig ist dabei zu verstehen: Nicht der QR-Code selbst ist die Bedrohung, sondern was er beinhalten kann. Ein QR-Code kann zum Beispiel eine Webadresse enthalten – und wie jeder Link im Internet kann diese Adresse auf etwas Schädliches zeigen. Der Code an sich kann Eurem Smartphone keinen Schaden zufügen (test.de). Aber hinter einem QR-Code können sich eben auch Links zu betrügerischen Webseiten verstecken (test.de). Öffnet man eine solche Seite arglos, könnte sie versuchen, Schadsoftware (etwa einen Trojaner) aufs Gerät zu schleusen oder persönliche Daten abzugreifen (test.de). Kurz gesagt: QR-Codes haben keine inhärenten gefährlichen Eigenschaften – wohl aber können sie von Betrügern missbraucht werden, um Sie auf gefährliche Inhalte zu lotsen, genau wie ein manipulativer E-Mail-Link das könnte. Genauso wie ihr also auf gefälschte Email Links hereinfallen können, kann man also auch auf bösartiges Inhalte in QR Codes reinfallen.
Und tatsächlich nutzen Kriminelle diese Methode immer häufiger aus. Das Phänomen wird auch “Quishing” genannt – eine Wortmischung aus QR und Phishing. Betrüger erzeugen eigene QR-Codes, die auf ihre Fallen-Seiten führen, und platzieren sie dort, wo ahnungslose Nutzer sie scannen. Da immer mehr Menschen gegenüber dubiosen E-Mails misstrauisch geworden sind, weichen Betrüger auf QR-Codes aus, die z. B. im öffentlichen Raum aufgehängt oder aufgeklebt werden – das wirkt auf den ersten Blick vertrauenswürdiger (ncsc.admin.ch). Ein typisches Beispiel sind gefälschte QR-Codes an Parkautomaten: Hier kleben Täter einfach einen Aufkleber mit ihrem QR-Code über den echten Code der Parkuhr. Scannt ein Autofahrer diesen, landet er auf einer Phishing-Webseite, die täuschend echt vorgibt, eine Online-Bezahlseite für das Parkticket zu sein. Gibt man dort seine Kreditkartendaten ein, wird sofort ein hoher Betrag abgebucht – und da die echte Parkgebühr nie bezahlt wurde, bekommt man obendrein noch eine Strafgebühr wegen Falschparkens (ncsc.admin.ch). Solche Betrugsmaschen sind perfide, aber mit etwas Wachsamkeit durchschaubar und vermeidbar. In der Schweiz zum Beispiel würde Parkingpay niemals Kreditkartendaten abfragen! Im nächsten Abschnitt daher einige Tipps, wie man QR-Codes sicher nutzt.
Wie gezeigt, liegt die potenzielle Gefahr bei QR-Codes in böswilligen Inhalten. Mit den folgenden einfachen Vorsichtsmaßnahmen Könnt Ihr diese Risiken minimieren, ohne auf die nützlichen Vorteile verzichten zu müssen:

Befolgt man diese Tipps, ist das Risiko durch QR-Codes verschwindend gering. Millionenfach am Tag werden QR-Codes völlig problemlos genutzt – beim Bezahlen, beim Einchecken, beim Abrufen von Infos. Lasst Euch also nicht von unbegründeter Panikmache verunsichern: Ein QR-Code ist erstmal nichts weiter als ein moderner, Barcode. Er kann Euch das Leben vereinfachen, wenn Ihr ihn mit gesundem Menschenverstand einsetzt. Scannt bewusst und achtsam, wie Ihr auch auf einen Link im Internet nur mit Bedacht klicken würdet. Dann sind QR-Codes keine Bedrohung, sondern ein praktischer Helfer in unserer digital vernetzten Welt – schnell, effizient und an sich völlig harmlos.
The post Sind QR Codes wirklich böse appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Nextcloud-Apps installieren und aktuell halten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Nach dem Login als Admin klickt man oben rechts auf das Profilbild und wählt „Apps“ (in manchen Versionen heißt der Punkt „Apps & Integrationen“).
Links finden sich Kategorien wie Office, Sicherheit oder Multimedia. Mit einem Klick auf „Download und aktivieren“ wird die gewünschte App direkt aus dem offiziellen App-Store geladen und eingeschaltet.

Tipp: Manche Apps brauchen zusätzliche PHP-Module oder spezielle Servereinstellungen – diese Hinweise stehen in der jeweiligen App-Beschreibung und in der Administrationsübersicht:

Folgt den Dokumentationen der Hinweise zur Installation der zusätzlichen Servermodule oder fragt euren Managed Admin ob er dies für Euch tun kann.
Updates werden in der App-Übersicht unter „Aktualisierungen“ angezeigt. Ein Klick auf „Aktualisieren“ reicht, um die neue Version einzuspielen. Meist ist kein Neustart notwendig:

Manchmal kann es bei der "Alle aktualisieren" Funktionen bei vielen Apps dazu führen, dass nicht alle Apps aktualisiert werden. Schaut später kurz nochmals vorbei und aktualisiert gegebenfalls die verbliebenen Apps manuell.
Nicht mehr benötigte Apps könnt ihr auch einfach nur deaktivieren, ohne sie zu installieren. Geht dazu auf Aktive Apps und deaktiviert einzelenen Apps mit dem Deaktivieren Button.

Umgekehrt könnt ihr sie auch wieder aktivieren, indem ihr auf die Liste der Deaktivierten Apps geht, und sie dort wieder aktiviert.
Wer viele Instanzen verwaltet, spart Zeit mit dem OCC-Tool.
Alle Apps auf einmal aktualisieren:
sudo -u www-data php occ app:update --all
Einzelne Apps installieren:
sudo -u www-data php occ app:install
Kurz ins Admin-Log schauen (Einstellungen → Protokollierung), ob alles fehlerfrei lief. Bei größeren Versionssprüngen empfiehlt sich außerdem ein Backup vor dem Update.
Mit diesen Schritten bleiben die Nextcloud-Apps immer aktuell – bequem über die Oberfläche oder automatisiert über die Kommandozeile.
Für weitere Nextcloudartikel, schaut unbedingt hier vorbei:
The post Nextcloud-Apps installieren und aktuell halten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Safari-Adblocker im Vergleich: Funktionsweise, Risiken und Anbieter appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Werbeblocker sind ein zentrales Instrument für Sicherheit und Privatsphäre im Internet. Werbenetzwerke fungieren de facto als Datensammler: Sie analysieren Nutzerverhalten und erstellen umfangreiche Profile. Das Blockieren von Werbung schützt daher nicht nur vor aufdringlichen Anzeigen, sondern gilt als eine Form digitaler Selbstverteidigung. Zusätzlich sorgt es für ein schnelleres und ruhigeres Browsererlebnis.
Die Blocking-API hat jedoch funktionale Beschränkungen. Einige Lösungen – etwa AdGuard für Safari oder Wipr – installieren deshalb ergänzende Erweiterungen. Diese haben Zugriff auf den gesamten Browserverlauf, um die Limitierungen der API zu umgehen. Wird die Zusatz-Erweiterung deaktiviert, sinkt die Blockierleistung spürbar.
Ob die Anbieter tatsächlich Daten sammeln, lässt sich von außen nicht belegen. Rein technisch besteht aber das Risiko, dass der Browserverlauf erfasst werden könnte – ein besonders schützenswerter Bereich für viele Anwender.
Die Auswahl eines Adblockers ist somit immer auch eine Frage des Vertrauens. Ein Beispiel: AdGuard liefert seit Jahren gute Ergebnisse und ist kostenlos, die Firmenstruktur sorgt jedoch regelmäßig für Diskussionen. Das ursprünglich russische Entwicklerteam hat seinen Geschäftssitz im Zuge der Sanktionen gegen Russland nach Zypern verlegt – ein Standort, der häufig als Sitz für Briefkastenfirmen dient. Diese Umstände sind kein Beweis für Fehlverhalten, erhöhen aber die Notwendigkeit einer kritischen Abwägung.
Aktuell haben sich vier Safari-Adblocker als leistungsfähig etabliert:
Alle vier Lösungen setzen eine App-Installation voraus, die technisch den Browserverlauf mitschneiden könnte – auch wenn es dafür keine konkreten Belege gibt.
Für weitergehenden Schutz lässt sich netzwerkweite Überwachung und Filterung durch Tools wie Little Snitch oder Little Snitch Mini einsetzen. Diese Programme können Tracking auch außerhalb des Browsers, also in anderen Apps, blockieren.
Werbung kann auch mit bestimmten DNS Servern verhindert werden, welche Werbe oder Tracking Domains per se blockiert, ohne dass man sich Extensions installiert. Dafür nimmt man sich eines der folgenden DNS Server die von Haus aus Werbung und Tracking herausfiltern:
Mullvad DoT- und DoH-Server mit Werbe- und Trackingfilter: IPv4: 194.242.2.3
IPv6: 2a07:e340::3 Servername für DNS-over-TLS: adblock.dns.mullvad.net
Adresse für DNS-over-HTTPS: https://adblock.dns.mullvad.net/dns-query für iOS 14+: DoT-Server-Konfiguration (signiert, von Mullvad)
Mullvad DoT- und DoH-Server mit Werbe-, Tracking- und Malwarefilter: IPv4: 194.242.2.4
IPv6: 2a07:e340::4 Servername für DNS-over-TLS: base.dns.mullvad.net
Adresse für DNS-over-HTTPS: https://base.dns.mullvad.net/dns-query für iOS 14+: DoT-Server-Konfiguration (signiert, von Mullvad)
Mullvad DoT- und DoH-Server mit Werbe-, Tracking-, Malware- und Socialmediafilter: IPv4: 194.242.2.5
IPv6: 2a07:e340::5 >Servername für DNS-over-TLS: extended.dns.mullvad.net
Adresse für DNS-over-HTTPS: https://extended.dns.mullvad.net/dns-query für iOS 14+: DoT-Server-Konfiguration (signiert, von Mullvad)
Mullvad Server mit Werbe-, Tracking-, Malware-, Socialmedia-, Porno- und Gamblingfilter: IPv4: 194.242.2.9
IPv6: 2a07:e340::9 Servername für DNS-over-TLS: all.dns.mullvad.net
Adresse für DNS-over-HTTPS: https://all.dns.mullvad.net/dns-query
1.1.1.1, 9.9.9.9).Hinweise:
Hier eine kurze Schritt-für-Schritt-Anleitung, um auf iOS den DNS-Server zu ändern:
Hinweis:
Bis heute erlaubt es Apple nicht, für seine iPhones die DNS Server Systemweit zu ändern (man möchte ja stets informiert sein, was die eigenen User im Netz so alles treiben). Die Einstellung gilt leider nur für dieses WLAN. Für jedes weitere Netzwerk müsst Ihr den DNS-Server separat anpassen. Mobile Daten (LTE/5G) lassen sich auf iOS nicht systemweit mit einem eigenen DNS konfigurieren – dafür wäre ein VPN notwendig.
Trotz Apples Blocking-API bleibt die Wahl des Safari-Adblockers ein Balanceakt zwischen Funktionsumfang, Kosten und Vertrauen. Nutzer sollten nicht nur auf die Effektivität der Filter achten, sondern auch auf die jeweilige Datenzugriffsarchitektur und die Seriosität des Anbieters.
The post Safari-Adblocker im Vergleich: Funktionsweise, Risiken und Anbieter appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Bitcoin Knots vs. Bitcoin Core – Unterschiede erklärt appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Dieser Streit spiegelt sich auch in der Software-Wahl wider: Die allermeisten Bitcoin-Node-Betreiber verwenden die Referenzsoftware Bitcoin Core, während eine wachsende Minderheit auf die alternative Implementation Bitcoin Knots umsteigt. Beide Clients sind im Kern kompatibel, verfolgen aber unterschiedliche Philosophien im Umgang mit solchen „Spam“-Transaktionen. In diesem Artikel schauen wir uns Bitcoin Core vs. Bitcoin Knots genauer an – mit etwas Geschichte, den Unterschieden in der Mempool-Politik, warum Daten-Spam technisch überhaupt möglich ist, welche Vor- und Nachteile Filtermechanismen haben (Stichwort Lightning⚡) und wie letztlich die Transaktionsgebühren ein natürlicher Schutz gegen On-Chain-Spam bieten.

Bitcoin Core ist die originale und meistgenutzte Bitcoin-Node-Software. Sie geht direkt auf Satoshi Nakamotos Ur-Client zurück und wird von einer großen Entwicklergemeinschaft gepflegt (thebitcoinway.com). Core setzt auf konservative Standards und Neutralität: Jeder gültige, regelkonforme Bitcoin-Transaction, die Gebühren zahlt, wird grundsätzlich akzeptiert und weiterverbreitet, ohne Bewertung ihres Inhalts.
Bitcoin Knots dagegen ist ein Fork (eine Abspaltung) von Bitcoin Core, der vom Entwickler Luke Dashjr betreut wird (reddit.com)(blog.bitfinex.com). Knots enthält fast den gesamten Code von Core, ergänzt aber einige erweiterte Einstellungen und strengere Richtlinien. Vor allem bietet Knots eingebaute Spam-Filter auf Mempool-Level – damit können Nodes z.B. Transaktionen aussortieren, die willentlich große Datenstücke ins Blockchain speichern (etwa via OP_RETURN) (blog.bitfinex.com). Knots gibt den Node-Betreibern also mehr Kontrolle, bestimmte „nicht-monetäre“ Transaktionen zu ignorieren, die sie für Verschwendung von Blockspace halten (blog.bitfinex.com). Außerdem aktiviert Knots standardmäßig Funktionen wie Replace-by-Fee (RBF) und andere Policy-Änderungen, die in Core teils nur optional sind (reddit.com).
Verbreitung: Bis vor kurzem war Knots ein Nischenclient – weniger als 5% der Nodes – doch 2025 ist seine Nutzung sprunghaft gestiegen (blog.bitfinex.com)(blog.bitfinex.com). Viele Umsteiger wollen ein Zeichen gegen „Datenmissbrauch“ setzen und sehen Knots als Möglichkeit, Bitcoin auf das Kerngeschäft „Peer-to-Peer Digital Cash“ zu fokussieren. Core-Befürworter hingegen pochen auf Offenheit und Kompatibilität – sie warnen davor, dass zu viele unterschiedliche Relay-Regeln das Netzwerk fragmentieren könnten. Wichtig zu betonen: Beide Programme folgen den gleichen Konsensregeln. Das heißt, ein Block der von einem Core-Knoten als gültig anerkannt wird, wird auch von einem Knots-Knoten anerkannt (und umgekehrt). Unterschiede bestehen nur in der Policy: also welche unbestätigten Transaktionen ein Node weiterleitet oder zurückweist. Diese feinen Unterschiede haben jedoch spürbare Auswirkungen für den Netzwerkbetrieb.
Jede Bitcoin-Node verfügt über einen Mempool, eine lokale “Warteschlange” für unbestätigte Transaktionen. Wenn eine gültige Transaktion ins Netzwerk gesendet wird, landet sie in den Mempools der Nodes, wird von dort an weitere Nodes relayed, und wartet auf Aufnahme in einen Block durch Miner. Allerdings gelten für die Aufnahme in den Mempool sogenannte Standardness-Policies: Regeln, die über die reinen Konsensregeln hinausgehen. Diese Policies können z.B. Transaktionen ablehnen, die zwar gültig, aber ungewöhnlich sind – etwa extrem große Transaktionen, sehr viele Signaturen oder Ausgaben, die als „Daten-Träger“ dienen.

Bitcoin Core verwendet hier recht neutrale Standardeinstellungen. Zum Beispiel erlaubt Core standardmäßig eine OP_RETURN-Ausgabe (eine spezielle Transaktionsausgabe, die willkürliche Daten enthalten kann) von bis zu 83 Bytes (thebitcoinway.com)(thebitcoinway.com). Das reicht für kurze Nachrichten oder Verweise, ist aber absichtlich niedrig gehalten, um Missbrauch einzudämmen. Alles darüber hinaus würde Core nicht an andere Nodes weiterleiten. Core ist der Ansicht: Solange eine Transaktion gültig und gebührenzahlend ist, soll sie behandelt werden wie jede andere – das Netzwerk ist zensorfrei und anwendungsneutral (blog.bitfinex.com)(thebitcoinway.com). So sollen auch neue Nutzungsfälle experimentieren können, solange sie die Konsensregeln einhalten.
Bitcoin Knots hingegen verschärft einige dieser Standardregeln gleich ab Werk. Ein zentraler Unterschied: Knots stellt den datacarrier-Parameter, der OP_RETURN-Daten steuert, auf 0 (aus) (reddit.com). Das bedeutet, ein Knots-Knoten lehnt grundsätzlich jede Transaktion ab, die eine extra Daten-Ausgabe enthält (z.B. OP_RETURN), selbst wenn es nur ein paar Bytes Text sind. Solche TX gelangen dann nicht in seinen Mempool und werden nicht weitergeleitet. Darüber hinaus bietet Knots weitere Filtermöglichkeiten, etwa gegen bestimmte Protokolle wie Ordinals, Stamps, Runes (alles Methoden, NFTs oder Token-Daten in BTC-Transaktionen unterzubringen) oder sogar gegen Privacy-Transaktionen wie CoinJoins (blog.bitfinex.com)(blog.bitfinex.com). Die Philosophie dahinter: Bitcoin-Mempools sollen sauber bleiben, frei nach dem Motto “nur Geld, kein Unsinn”. Node-Betreiber können so ihren Ressourcenverbrauch senken (weniger Bandbreite/Plattenplatz für Spam) und ein Statement setzen, dass sie Bitcoin rein als Geldsystem sehen möchten (blog.bitfinex.com)(blog.bitfinex.com).
Diese unterschiedlichen Policies führen dazu, dass Bitcoin-Knoten nicht alle das gleiche Transaktionsset im Speicher haben. Ein konkretes Beispiel: Eine Ordinals-Transaktion, die ein Bild auf die Blockchain schreibt, hat oft eine große Witness-Datenmenge (mehrere Kilobyte). Bitcoin Core-Nodes würden sie in der Regel weiterleiten und minen, sofern die Gebühren bezahlt sind. Ein Bitcoin Knots-Node würde sie ablehnen (gar nicht erst in seinen Mempool nehmen oder weitergeben). Somit propagieren solche TX etwas langsamer oder über Umwege durchs Netzwerk – nämlich nur über die Core-Nodes. Hier stellt sich natürlich die Gretchenfrage: Kann man durch genügend Filterknoten diese “Spam”-Transaktionen ganz aus dem Netzwerk drängen? 🤔
Die kurze Antwort lautet: Nein, nicht wirklich. Zwar kann ein Knots-Knoten für sich beschließen, bestimmte TX als Spam nicht zu relayen – aber das verhindert nicht, dass diese letztlich doch in die Blockchain gelangen. Warum? Weil am Ende die Miner entscheiden, was in einen Block kommt. Und Miner sind in der Regel wirtschaftlich motiviert, nicht ideologisch. Sie nehmen die Transaktionen mit dem höchsten Gebührenertrag, egal ob darin ein Zahlungsauftrag oder ein JPEG steckt. Solange eine Transaktion den Konsensregeln entspricht und Gebühren zahlt, findet sich fast immer ein Miner, der sie aufnimmt. Viele Miner bieten inzwischen sogar direkte Kanäle (sogenannte “Transaction Submission” APIs) an, damit Kunden ihnen Transaktionen direkt einreichen können – vorbei an den öffentlichen Mempools (blog.bitfinex.com)(blog.bitfinex.com). Zum Beispiel hat der US-Miningpool Marathon mit “Slipstream” so einen Dienst geschaffen (blog.bitfinex.com). Fazit: Selbst wenn Eure eigene Node dank Knots bestimmte “Datenmüll”-TX nicht annimmt, können diese TX an anderen Stellen ins Netzwerk gelangen und gemined werden (blog.bitfinex.com). Sobald sie in einem gültigen Block enthalten sind, müssen auch Knots-Nodes den Block akzeptieren – die Daten sind dann unwiderruflich in der Blockchain und somit auch auf Ihrer Festplatte gespeichert (thebitcoinway.com).
Ein Reddit-Nutzer brachte es sehr treffend auf den Punkt: “Knots verhindert keinen Spam – du kannst deinen Mempool manipulieren wie du willst, aber die Miner werden trotzdem Transaktionen in Blöcke packen, wenn die Gebühren stimmen. Es ist ihnen egal, ob es Spam ist oder nicht. Am Ende erreicht dich der Spam sowieso, egal ob du Knots oder Core nutzt.” (reddit.com). Mit anderen Worten: Mempool-Filterung ist eher eine lokale Optik- und Effizienzmaßnahme, aber kein effektiver Netzwerkschutz. Jede Node speichert letztlich alle bestätigten Daten – ob man sie mag oder nicht, “like it or not” (thebitcoinway.com).
Allerdings argumentieren Knots-Befürworter, dass es trotzdem sinnvoll sei: Zum einen spare man lokal Ressourcen (kein Weiterleiten/Speichern bis zur Bestätigung). Zum anderen hofft man, dass wenn genug Knoten und vielleicht Miner filtern, “Spam”-Transaktionen unattraktiver werden. Tatsächlich gibt es mindestens einen kleinen Miningpool (Ocean), der Knots-Filter einsetzt und bewusst z.B. Ordinals-Daten nicht in seine Blöcke nimmt (blog.bitfinex.com). Dieser Pool wird u.a. von Luke Dashjr selbst mitbetrieben, aber er ist die Ausnahme – die meisten anderen Miner “lassen keine Satoshis liegen” und nehmen mit, was Geld bringt (blog.bitfinex.com). Somit bleibt Knots-Filterung vor allem ein symbolischer Protest gegen die „Datenflut“. Viele sehen darin eine Art „Votum mit den Füßen“: Node-Betreiber drücken aus, dass Bitcoin aus ihrer Sicht kein Allzweck-Datenspeicher sein sollte (blog.bitfinex.com)(blog.bitfinex.com). Aber faktisch aufhalten lässt sich eine motivierte Spam-Attacke damit nicht. Die ungeliebten Transaktionen fließen dann eben über die Nodes, die Core (ohne Filter) fahren, ins System und werden letztlich doch bestätigt (blog.bitfinex.com).
Man könnte doch fragen: „Wenn die Bitcoin-Entwickler keine Bilder und Nachrichten auf der Blockchain wollen, wieso erlauben die Regeln sowas überhaupt?“ 🤷♀️ Die Wahrheit ist: Bitcoin war von Anfang an relativ offen gestaltet – es gibt Skriptbefehle und Funktionen, die missbraucht werden können, um beliebige Daten zu verewigen. Schon früh haben Leute kreative Wege gefunden, Botschaften in die Blockchain zu schreiben (sogar bevor OP_RETURN populär war, benutzte man z.B. sog. “bare multisig”-Outputs als Datenträger). Kuriositäten wie eine Heiratsantrag-Message oder die WikiLeaks-Nachricht 2016 wurden so ins Ledger gemeißelt (thebitcoinway.com)(thebitcoinway.com). Diese Gimmicks waren selten und klein (unter 80 Byte) – also kein echtes Problem.
Größere Spam-Wellen blieben lange aus, weil technische Limits und Kosten ein Hindernis waren. Beispielsweise wurde OP_RETURN 2014 eingeführt, aber mit striktem Limit (40 später 80 Bytes). Außerdem zählten solche Daten komplett zur 1 MB Blockgröße. Doch mit späteren Protokolländerungen hat Bitcoin ungewollt mehr Schlupflöcher für Datenspeicherung eröffnet:

Kurz gesagt: SegWit und Taproot haben Bitcoins Flexibilität und Kapazität erhöht – leider damit aber auch das Tor für mehr Daten-“Missbrauch” weiter geöffnet (tokeninsight.com). Dieses Zusammenspiel machte ab 2023 den massenhaften NFT-Spam auf Bitcoin (Ordinals, BRC-20 etc.) erst praktikabel. Die Community hat diese Nebenwirkung anfangs unterschätzt. Nun stehen wir vor der Frage: Akzeptieren wir Bitcoin als allgemeine “Immerwährende Datenbank”, oder halten wir strikt am Zahlungsnetzwerk-Charakter fest? Diese Kontroverse bildet den Kern von Core vs. Knots.
Damit jede Bitcoin-Node neue Transaktionen schnell prüfen kann, hält sie eine aktuelle „Bestandsliste“ aller noch nicht ausgegebenen Coins – das sogenannte UTXO-Set – permanent im Arbeitsspeicher. Je größer dieses Set wird, desto mehr RAM und Rechenleistung braucht eine Node, was den Betrieb verteuert und die Dezentralität schwächen kann.
Bevor 2014 OP_RETURN eingeführt wurde, versteckten manche Nutzer Daten in ganz normalen Ausgaben („bare multisig“). Solche Outputs sahen wie spendbare Coins aus und blieben daher dauerhaft im UTXO-Set, obwohl sie nur als Datenträger dienten. Das blähte die „Bestandsliste“ künstlich auf.
OP_RETURN löst genau dieses Problem: Ein Output mit diesem Skriptbefehl ist von vornherein nicht spendbar. Die Node weiß sofort, dass dieser Eintrag nicht ins UTXO-Set muss und kann ihn nach dem Empfang der Transaktion verwerfen. So bleibt das Set schlank, auch wenn Nutzer kleine Datenschnipsel in die Blockchain schreiben.
OP_RETURN ist eigentlich als Schutzmechaismus eingeführt wurden – Daten dürfen weiterhin on-chain gespeichert werden, ohne dass das UTXO-Set durch Datenspam aufgebläht wird.
Die Idee, auf Node-Ebene bestimmte Transaktionen zu filtern, klingt für manche verlockend – doch sie hat Nebenwirkungen. Ein großes Problem: Wer definiert, was „Spam“ ist? Knots setzt hier harte Kriterien (z.B. “alles über 0 Byte OP_RETURN ist Spam”). Aber es gibt legitime Anwendungsfälle, die von solchen Regeln getroffen werden könnten.
Beispiel: Einige Privacy-Protokolle wie BIP47 PayNyms oder Samourai Whirlpool nutzen kleine OP_RETURN-Felder, um Nutzern zu helfen, sich abzustimmen oder Zahlungsinfos privat zu übermitteln (thebitcoinway.com).

Ein Knots-Knoten würde solche Transaktionen pauschal wegfiltern, obwohl sie aus Nutzersicht sinnvoll und legitim sind (sie verletzen keine Konsensregeln, zahlen Gebühren und dienen der Privatsphäre). Tatsächlich kam es 2023 zum Eklat, als ein von Luke Dashjr betriebener Filter-Miningpool began, Whirlpool-CoinJoins wegen eines 46-Byte-OP_RETURN nicht mehr zu minen (blog.bitfinex.com). Die Privacy-Community war empört und sah darin Zensur legitimer Zahlungen, während Luke das als notwendigen Anti-Spam-Schritt verteidigte (blog.bitfinex.com). Dieser Vorfall zeigt: Filter können Fehlalarm schlagen und wichtige Funktionen beeinträchtigen, die man gar nicht als Spam einstufen würde – je nach Perspektive.
Noch gravierender könnten Filter auf Lightning-Netzwerk-Transaktionen wirken. Das Lightning Network ist ein Second-Layer fürs schnelle Bezahlen, der aber im Ernstfall auf On-Chain-Transaktionen zurückgreift (z.B. beim Öffnen/Schließen von Kanälen oder beim Schlichten von Betrugsversuchen). Lightning-Transaktionen sind zwar normale Bitcoin-Transaktionen, enthalten aber teils ungewöhnliche Outputs. Speziell seit Einführung der Anchor Outputs (kleine „Anker“-Outputs von 330 Satoshi) nutzen LN-Commitment-Transaktionen absichtlich winzige Ausgabebeträge, um später eine Child-Pays-for-Parent (CPFP)-Fee-Erhöhung zu ermöglichen (lightspark.com)(lightspark.com). Aus Sicht der standard Policy sind solche Miniausgaben Dust und würden eigentlich nicht relayed – das Lightning-Protokoll brauchte hier also explizite Anpassungen im Bitcoin-Core-Mempoolcode, um zuverlässig zu funktionieren (bitcoin.stackexchange.com)(bitcoin.stackexchange.com). So wurde kürzlich eine “Ephemeral Anchors” Policy eingeführt, die es erlaubt, ein 0-Sat-Output mit 0 Fee zu propagieren, solange es sofort per Kindtransaktion mit Fee ausgeglichen wird (bitcoin.stackexchange.com)(bitcoin.stackexchange.com). Dieser Kniff war nötig, weil zuvor ein LN-Knoten unter Umständen seine eigene (zu niedrig bepreiste) Kanal-Closing-Transaktion nicht ins Netzwerk bekam, wenn die Fees plötzlich anzogen – selbst CPFP half nicht immer, da die Eltern-Transaktion alleine vom Mempool zurückgewiesen wurde (bitcoin.stackexchange.com). Mit Package Relay (Paket-Weiterleitung) wurde dieses Problem entschärft: Node akzeptieren jetzt 2-Transaktionen-Pakete (Eltern+Kind) gemeinsam, falls ihre kombinierte Fee ausreicht (bitcoin.stackexchange.com)(bitcoin.stackexchange.com).
Warum dieser technische Exkurs? Er zeigt: Lightning ist auf verlässliche Relay-Regeln angewiesen. Zu strikte oder inkonsistente Filterpolitik kann die Funktionalität von Second-Layer-Lösungen beeinträchtigen. Wenn z.B. ein Teil des Netzwerks bestimmte LN-Transaktionen fälschlich als Spam behandeln würde, könnten Lightning-Nutzer im Extremfall Probleme bekommen, ihre Kanäle rechtzeitig zu schließen oder die richtige Fee durchzusetzen – was Sicherheitsrisiken birgt. Glücklicherweise sind Core-Entwickler eng am Ball, um das zu verhindern. Aber bei alternativen Implementationen wie Knots muss man sich fragen: Werden dort all diese feinen Ausnahmen mitgetragen? Oder könnte es sein, dass ein Knots-Node im Eifer des Spam-Filterns mal eine Lightning-Transaktion nicht weiterleitet, weil sie z.B. einen ungewöhnlichen Output enthält? Diese Gefahr ist zumindest denkbar, wenn Filterregeln eigenmächtig verändert werden.
Zusammengefasst: Mempool-Filterung schafft Uneinheitlichkeit, was für ein globales Netzwerk immer heikel ist. Unterschiedliche Sichtweisen der Nodes auf “was erlaubt ist” können im schlimmsten Fall zu Split-Brain-Szenarien führen, wo ein Teil des Netzwerks Transaktionen “A” nicht kennt, die der andere Teil aber schon kennt und vielleicht mined. Aktuell ist das kein dramatisches Problem (die meisten folgen Core-Policy, Knots ist noch in der Minderheit), aber je mehr Nodes abweichende Filter fahren, desto mehr könnten sich Relay-Inseln bilden. Außerdem entgeht dem Netzwerk als Ganzes durch herausgefilterte Transaktionen auch ein Teil der Fee-Einnahmen – was ironischerweise langfristig schlecht für die Sicherheit sein könnte (blog.bitfinex.com). Denn Bitcoin ist darauf angewiesen, dass in Zukunft Transaktionsgebühren den Minern genug Anreiz bieten, weiter zu schürfen (wenn die Block-Subsidy immer kleiner wird). Wenn man also valide, zahlungsbereite Transaktionen unterdrückt – seien es NFTs, CoinJoins oder andere – verzichtet man auch auf Gebühren, die sonst zur Absicherung des Netzwerks beigetragen hätten (blog.bitfinex.com). Man schneidet sich möglicherweise ins eigene Fleisch, um ideologische Reinheit zu wahren.
Wenn man sich bei einer Software auf eine einzige Person als Hauptentwickler verlassen muss, spielen deren Sicherheitspraxis und bisherige Historie eine große Rolle. Im Fall von Bitcoin Knots ist das Luke Dashjr. Zu öffentlich bekannten Vorfällen bei ihm gehören unter anderem:
Diese Ereignisse bedeuten nicht, dass Luke in böser Absicht gehandelt hätte. Aber sie zeigen Schwächen in Prozess- und Schlüsselmanagement, die gerade dann relevant sind, wenn genau diese Person der alleinige „Gatekeeper“ für einen Node-Client ist.
Die naheliegende Frage: Wenn jemand seine eigenen über 200 Bitcoin nicht in einer Hardware-Wallet abgesichert hat – also eine Entscheidung, die für das eigene Leben finanziell extrem wichtig ist – warum sollte man dann blind darauf vertrauen, dass dieselbe Person beim Betrieb der eigenen Node stets perfekte Sicherheitsprozesse einhält?
Im Bitcoin-Ökosystem stützt sich die Integrität von Software-Releases auf sorgfältiges Schlüssel-Handling, reproduzierbare Builds und die gemeinsame Überprüfung durch die Community. Wird der Maintainer-Key kompromittiert, gerät genau der Mechanismus ins Wanken, auf den sich die Nutzer verlassen, um sicherzugehen, dass sie auch wirklich die Version ausführen, die sie zu installieren glauben.
Es geht hier nicht um einen persönlichen Angriff, sondern um eine Risikoabwägung:
Wer Knots einsetzt, ohne selbst sehr gründlich zu verifizieren, bündelt viel Vertrauen in sehr wenige Hände – und genau das ist in einem dezentralen System wie Bitcoin immer ein potenzieller Schwachpunkt.
Gibt es abseits von Filtern und Regelwerken überhaupt einen Schutz gegen Spam auf Bitcoin? Ja – die Transaktionsgebühren! Bitcoins ökonomisches Design bringt automatisch eine Spam-Bremse mit sich: Jede Transaktion kostet Gebühren, und zwar umso mehr, je größer (datenlastiger) sie ist. Spammer zahlen also drauf. Will jemand z.B. 100 KB an Bilddaten ins Ledger schreiben, muss er entsprechend hohe Fees anbieten, um gegen normale Transaktionen zu konkurrieren (denn Miner priorisieren nach Gebührenrate). In Zeiten voller Blöcke wird das sehr teuer, sodass Spam finanziell unattraktiv wird (thebitcoinway.com).
Gebühren dienen somit als Marktmechanismus, der sicherstellt, dass Blockspace meist an die wirtschaftlich wichtigsten Transaktionen geht – alles andere wird herausgedrängt, außer der Spammer ist bereit, ein kleines Vermögen zu verbrennen (swissmoney.com). Wie bei E-Mail-Spam, wo Portokosten Spam verhindern würden, sorgt das Gebührenmodell dafür, dass man das Netzwerk nicht beliebig mit Nonsens fluten kann (swissmoney.com).

Bitcoin-Core-Entwickler argumentieren deshalb: Wenn eine Transaktion alle Konsensregeln einhält und die nötige Fee zahlt, dann ist sie per Definition kein Spam (thebitcoinway.com) – denn sie leistet ihren „Beitrag“ und verdrängt niemanden, der nicht mitbieten könnte. Sollte der Blockplatz durch unsinnige Daten belegt werden, werden echte Nutzer eben höhere Gebühren bieten, bis sich ein neues Gleichgewicht findet.
Diese Marktdynamik hat man 2017 bereits bei den Blocksize Wars gesehen: Blockspace ist ein begrenztes Gut, und Gebühren sind das Zuteilungsinstrument. Somit sind Transaktionsgebühren ein natürlicher Spam-Filter: Sie „stellen sicher, dass nur seriöse Transaktionen verarbeitet werden“, wie ein Guide es ausdrückt (swissmoney.com). Man könnte sagen: Wer für 4 MB Bilddaten pro Block dauerhaft zahlt, der subventioniert halt das Mining – und wenn es ihm das Wert ist, sei es drum. Sobald jedoch die Nachfrage für echte Finanztransfers steigt, werden solche Spielereien von selbst zurückgehen, da sie unerschwinglich werden.
Ein weiterer limitierender Faktor ist die Blockgrößenbegrenzung. Auch wenn durch SegWit/Taproot mehr Daten reinpassen, bleibt pro Block ein Hardlimit (~4 Mio Weight Units). Niemand kann das Netzwerk mit endlosen Daten zuspammen – pro 10 Minuten ist physisch Schluss. In dieser Zeit konkurrieren alle Transaktionen um den knappen Platz. Und genau hier greift wieder der Gebühren-Mechanismus: Unsinn landet nur drin, wenn kein sinnvollerer Nutzen diesen Platz haben wollte oder der Unsinnige mehr bezahlt als alle anderen. In beiden Fällen entsteht keine gratis Überflutung, sondern immer ein hoher Preis.
Die Diskussion Bitcoin Core vs. Bitcoin Knots zeigt, wie unterschiedlich die Sichtweisen auf Bitcoin sein können. Die eine Seite (Core) betont Offenheit und Neutralität: Bitcoin ist ein neutrales Protokoll, das nicht zwischen “guten” und “schlechten” Transaktionen unterscheidet, solange sie den Regeln folgen und Gebühren zahlen (blog.bitfinex.com)(thebitcoinway.com). Dieses Lager sieht Filter eher kritisch und verweist auf Marktmechanismen und Protokoll-Weiterentwicklungen, um mit Missbrauch umzugehen. Die andere Seite (Knots) betont Reinheit und Effizienz: Bitcoin soll primär ein Wertübertragungsnetzwerk bleiben, kein “Datenmüllplatz”. Sie sind bereit, auf Node-Ebene einzugreifen, um die ihrer Meinung nach ursprüngliche Vision (Bitcoin als Geld) zu verteidigen – notfalls auch mit harten Filterschemen, die technisch an Zensur grenzen (blog.bitfinex.com)(thebitcoinway.com). Beide Gruppen wollen letztlich Bitcoin schützen, nur auf unterschiedliche Weise: durch Maximierung der Freiheit vs. Wahrung eines Zwecks.
Für normale Bitcoin- und Lightning-Nutzer ändert sich durch diesen “Node War” unmittelbar wenig. Es besteht keine Gefahr für Eure Coins – egal ob die Node-Mehrheit Core oder Knots nutzt, die Konsensregeln bleiben gleich und Ihre Transaktionen werden bestätigt (vorausgesetzt, Ihr zahlt ausreichende Gebühren). Allerdings lohnt es sich, die Debatte zu verfolgen, denn sie könnte langfristig beeinflussen, wie sich Bitcoin weiterentwickelt. Im schlimmsten Fall könnten extreme Unstimmigkeiten sogar zu Protokolländerungen oder Abspaltungen führen, aber soweit ist es (noch) nicht – bislang handelt es sich um eine Policy-Differenz, die jeder Node-Betreiber für sich entscheiden kann.
Interessant ist, dass die Knots-Welle auch positive Effekte haben kann: Mehr Vielfalt bei den Node-Implementierungen könnte die Dominanz von Core verringern und das Netzwerk dezentraler und resilienter machen (blog.bitfinex.com). Solange die Konsensbasis gleich bleibt, ist ein gewisses Maß an Wettbewerb vielleicht gesund. Letztlich erinnert die Situation an die Blocksize-Debatte 2017: unterschiedliche Visionen prallen aufeinander, und durch aktives “Mitstimmen” der Nutzer (in dem Fall via Node-Auswahl) wird sich zeigen, wohin die Reise geht (blog.bitfinex.com)(blog.bitfinex.com). Bitcoin hat schon oft bewiesen, dass es in solchen Diskursen am Ende gestärkt hervorgehen kann.
Zusammengefasst: Bitcoin Core und Bitcoin Knots stehen stellvertretend für zwei Philosophien – Neutralität vs. Selektivität. Daten-Spam auf der Blockchain ist technisch möglich geworden (SegWit/Taproot), aber die Gebühren sorgen dafür, dass er nie überhandnimmt. Node-Filter wie in Knots können im kleinen Rahmen ein Zeichen setzen und lokalen Traffic verringern, doch sie sind kein Allheilmittel und bringen Trade-offs (von verpassten legitimen TX bis hin zu komplexerer Netzwerktopologie). Ob Bitcoin am Ende eher dem “Code is law”-Prinzip (jede gültige TX ist willkommen) folgt oder sich stärker als zweckgebundenes Finanzsystem definiert, wird die Zukunft zeigen. Für technisch interessierte Laien gilt jedenfalls: Man muss nicht in Panik verfallen (thebitcoinway.com). Eure selbst verwalteten Bitcoins sind sicher, egal ob gerade JPEGs oder andere Daten über die Chain gejagt werden. Die Blockchain ist groß genug für allerlei Kuriositäten – und mit Lightning haben wir ja zum Glück einen Weg, die wichtigen Zahlungen schnell und kostengünstig off-chain abzuwickeln, weitgehend unbehelligt vom Treiben auf der Base-Layer. In diesem Sinne: Keep calm and HODL on! 🧘♂️
The post Bitcoin Knots vs. Bitcoin Core – Unterschiede erklärt appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post RSS Feeds über Nextcloud synchronisieren appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
RSS-Feeds sind ein bewährtes Mittel, um Inhalte von Webseiten – etwa Nachrichtenportalen, Blogs oder Podcasts – automatisch zu beziehen. Mit Nextcloud News hollt Ihr Euch diese Funktion direkt in Eure private Cloud. Dadurch entfällt die Nutzung externer Anbieter, die in puncto Datenschutz oft schlechter aufgestellt sind. Da es sich um freie Open-Source-Software handelt, gibt es weder Werbung noch kostenpflichtige Zusatzfunktionen.
Die App ist sowohl am Desktop als auch auf Smartphones nutzbar. Für Android findet Ihr sie im Google Play Store sowie bei F-Droid, die iOS-Variante ist im Apple App Store erhältlich.
Die News-App kombiniert einfache Bedienung mit allen Funktionen, die man von einem modernen RSS-Reader erwartet. Zu den wichtigsten Merkmalen zählen:
Wer eine eigene Nextcloud hostet, kann die App ganz einfach im Appstore der Nextcloud installieren:

Ein Konfiguration ist in dem Sinne nicht nötig, die App funktioniert out-of-the-box. Ihr benötigt zur Nutzung einfach einen Client.
In der Nextcloud-Oberfläche findet Ihr nach der Installation die App „News“ im oberen Menü.
Dort könnt Ihr:
So habt Ihr Eure Nachrichten, Blogs oder Podcasts direkt in der Nextcloud griffbereit – egal ob am PC oder über die mobile App.
Die REST-API gestattet es nun Euch, die News-App mit einer breiten Palette an Sync-Clients zu verbinden, um RSS-Clients zu synchronisieren. Darüber hinaus besteht über die Schnittstelle auch die Möglichkeit, eigene Anwendungen zu integrieren. Nextcloud News lässt sich mit folgenden Clients verbinden:
| Client | Plattform | Lizenz |
|---|---|---|
| RSS Guard | Windows, Linux, OS/2, macOS | GPL-3.0-Lizenz |
| Fluent Reader | Windows, Linux, macOS | BSD-3-Clause-Lizenz |
| Communique | Linux | LGPL-2.1-Lizenz |
| NewsFlash | Linux | GPL-3.0-Lizenz |
| Nextcloud News Reader | Android | GPL-3.0-Lizenz |
| OCReader | Android | GPL-3.0-Lizenz |
| Newsout | Android | Apache-2.0-Lizenz |
| Readrops | Android | GPL-3.0-Lizenz |
| CloudNews | iOS | BSD-2-Clause-Lizenz |
| Fiery Feeds | iOS, macOS | - |
| Nextnews | iOS | - |
| Newschecker | Google Chrome | - |
| FeedSpider | Firefox OS, webOS, LuneOS | MIT-Lizenz |
| py3status | i3wm | BSD-3-Clause-Lizenz |
| newsboat | Unix Terminal | MIT-Lizenz |
| Newsie | Ubuntu Touch | GPL-3.0-Lizenz |
| Fuoten | Sailfish OS | GPL-3.0-Lizenz |
Mit der Android App Feedrops könnt Ihr Euch ganz einfach mit der Nextcloud verbinden. Ladet Euch die App von F-Droid, oder einem Appstore Eurer Wahl herunter und installiert sie auf Eurem Smartphone. Beim starten der App werdet ihr gleich gefragt, ob Ihr ein lokales Konto erstellen wollt, oder ob Ihr Euch mit einem externen Konto verbinden wollt. Ihr nehmen wir natürlich Nextcloud News.


Meldet Euch normal mit eurem Nextcloud Username und Passwort an, und nehmt als Account URL die Adresse Eurer Nextcloud Instanz. Falls Ihr unser gratis Nextcloud verwendet, erstellt bitte in den Sicherheitseinstellungen ein App-Password, und verwendet dieses, anstelle Eures yourdevice Kontos.
Die Anwendung der Apps ist relativ simpel und selbsterklärend. Ihr habt nun Eure Feeds, die Ihr in der Nextcloud abonniert habt, automatisch auch auf Eurem Smartphone. Abonniert Ihr neue Feeds, werden die automatisch mit der Nextcloud synchronisiert, und steht dann mit anderen verbundenen Geräten zur Verfügung.
Beides sind gute RSS Reader, Fluentreader kommt jedoch ohne Ordner Unterstützung, ihr müsst die Feeds teilweise manuell in die entsprechenden Ordner schieben, bei Newsflash geschieht dass automatisch. Newsflash könnt ihr Euch schnell und einfach via Flatpak inststallieren:
https://flathub.org/apps/io.gitlab.news_flash.NewsFlash
Bei der Einrichtung werdet Ihr wie Readrops gefragt, was für ein Konto Ihr erstellen wollt. Nehmt hier natürlich auch Nextcloud News:

Loggt Euch anschliessend mit euren Nextcloud Credentials ein:

Danach befindet Ihr euch auf der Oberfläche von Newsflash. Rechts findet Ihr eure Ordner mit den Abos, in der Mitte den jeweiligen Newsfeed, und ganz rechts den Artikel selber. Die Ansicht kann natürlich in den Einstellungen angepasst werden. Auch hier werden Eure Änderungen direkt auf die Nextcloud gepusht. Ändert Ihr in Newsflash etwas, abonniert einen neuen Kanal, oder löscht Kanäle, werden sie auch auf dem Nextcloud Server gelöscht, was wiederrum heisst, dass die Änderungen auch auf die anderen Geräte übertragen werden. Eine Feine Sache um seine Feeds überall bereit zu haben.

Die Synchronisierung von Feeds mit Nextcloud News ist zuverlässig und komfortabel. Alle abonnierten Inhalte werden automatisch im Hintergrund aktualisiert und stehen so auf jedem Gerät, ob Desktop oder Smartphone, stets in gleicher Form bereit. Dank der REST-API lassen sich verschiedene Clients anbinden, sodass Artikel überall synchron gelesen oder als erledigt markiert werden können. Damit bietet Nextcloud News eine nahtlose und datenschutzfreundliche Lösung, um RSS-Feeds zentral zu verwalten. Datenschutz kann auch einfach gehen!
The post RSS Feeds über Nextcloud synchronisieren appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Google erschwert Custom-ROMs für Pixel-Geräte appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Mit der Veröffentlichung des Quellcodes von Android 16 hat Google erstmals auf wichtige Komponenten verzichtet:
Bisher war es üblich, dass Google diese Daten zusammen mit dem AOSP-Quellcode veröffentlichte, wodurch Pixel-Geräte zu den „Referenzmodellen“ für Custom-ROMs wurden.
Bislang hat Google der Community mit den Device-Trees, Treibern und Kernel-Quellen eine Art „Bauanleitung“ für Pixel-Smartphones mitgegeben. Entwickler konnten diese Daten nehmen, anpassen und relativ einfach eine neue Android-Version als Custom-ROM zum Laufen bringen.
Jetzt fehlen diese offiziellen Grundlagen. Das heißt:
Für die Community bedeutet das:
Kurz gesagt: Google hat die Spielregeln geändert. Anstatt den Entwicklern den Schlüssel in die Hand zu geben, müssen sie sich nun durchs Kellerfenster zwängen.ler.
Google hat Spekulationen über ein mögliches Ende des Android Open Source Project (AOSP) sofort dementiert. Seang Chau, Vice President und General Manager der Android-Plattform, stellte auf X klar: „AOSP wird NICHT verschwinden.“
Stattdessen sieht Google künftig Cuttlefish, ein virtuelles Android-Referenzgerät, als Standard für AOSP. Für Entwickler heißt das: weniger Abhängigkeit von realer Hardware, aber auch weniger Transparenz für Geräte wie die Pixel-Serie.
Offiziell begründet Google die Änderungen mit einer effizienteren internen Entwicklung und weniger Konflikten beim Code-Merging. Doch in der Community stellt sich die Frage:
Denn eines ist klar: Je mehr Hürden Google aufbaut, desto weniger Entwickler werden sich die Mühe machen, eigene ROMs für Pixel-Smartphones zu pflegen. Für ein Unternehmen, das seine Geräte stärker in ein eigenes Ökosystem bindet, wäre das kein Nachteil.
Auf den ersten Blick wirkt Googles Entscheidung auch rein technisch begründet – weniger Code-Zweige, effizientere Entwicklungsprozesse, einheitliche Referenzplattform (Cuttlefish). Doch wenn man etwas genauer hinschaut kann man auch folgendes daraus ableiten:
Die Schlagzeilen vom „Ende der Custom-ROMs“ sind übertrieben – Custom-ROMs werden nicht verschwinden. Aber: Google hat mit dieser Entscheidung die Weichen gestellt, die Entwicklung zumindest deutlich mühsamer zu machen.
Ob dies nur eine Folge interner Umstrukturierungen ist oder ein gezielter Versuch, die Community auszubremsen, bleibt offen. Fakt ist: Die Custom-ROM-Szene wird überleben – aber sie wird härter kämpfen müssen als bisher.
The post Google erschwert Custom-ROMs für Pixel-Geräte appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post CalyxOS: Android-Custom-ROM legt Entwicklung auf Eis appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Laut der Bekanntmachung hat Nicholas Merrill, Präsident und Gründer des Calyx Institute, die Organisation verlassen, um sich neuen Projekten zu widmen.
Auch Chirayu Desai, technischer Leiter von CalyxOS, hat seinen Abschied bekanntgegeben. In einem Reddit-Post schrieb er:
„Android verändert sich – also dachte ich, es ist Zeit, dass ich mich auch verändere.“
Der Weggang der beiden hinterlässt eine deutliche Lücke. Das verbleibende Team kündigt eine Übergangsphase an, in der es sich intern neu organisieren will – unter Beibehaltung der bisherigen Sicherheitsprozesse. Ziel sei es, Transparenz und Sicherheit durch besseres Design, optimierte Kommunikation und modernisierte Infrastruktur zu steigern.
Geplante Maßnahmen sind unter anderem:
Nach eigenen Schätzungen wird dieser Prozess vier bis sechs Monate dauern. Erst danach soll wieder das angestrebte Sicherheitsniveau erreicht werden.
Während dieser Umstrukturierung passiert etwas Kritisches:
CalyxOS stellt den Signier- und Verifikationsprozess auf neue Signaturschlüssel um.
Das hat zur Folge:
Das Team warnt ausdrücklich, dass in dieser Phase keine aktuellen Sicherheitspatches des Android Open Source Project (AOSP) oder der Gerätehersteller eingespielt werden.
Man verstehe, wenn Nutzer in der Zwischenzeit zu einer anderen Android-Distribution wechseln, die weiterhin regelmäßige Updates liefert.
Durch den geplanten Wechsel der Signaturschlüssel ist ein direktes OTA-Update von der aktuell installierten CalyxOS-Version auf die kommende, „gesicherte“ Version nicht möglich.
Alle bestehenden Installationen – ebenso wie Neuinstallationen während der Übergangsphase – müssen später komplett neu geflasht werden, sobald die neue Version verfügbar ist.
Dabei werden alle Daten gelöscht, weshalb ein vollständiges Backup (z. B. mit Seedvault) vorab unbedingt empfohlen wird.
CalyxOS erhält in der Übergangsphase vier bis sechs Monate lang keine Sicherheitsupdates.
In dieser Zeit bleiben bekannte und unbekannte Sicherheitslücken in Android und den Gerätetreibern offen.
Die Gefahr steigt, je älter die Software wird, da monatlich neue Schwachstellen veröffentlicht und oft aktiv ausgenutzt werden.
Wer keine besonders sensiblen Daten auf dem Gerät hat und vorsichtig mit Internet & Apps umgeht, kann CalyxOS noch einige Monate nutzen – sollte sich aber bewusst sein, dass das Risiko mit jedem Monat ohne Updates steigt.
Für sicherheitsbewusste Nutzer ist ein sofortiger Wechsel die bessere Wahl.
Für Nutzer, die CalyxOS dennoch deinstallieren möchten, kündigt das Team Unterstützung an:
Es gibt man Anleitung zur Sicherung und Wiederherstellung von Smartphones mit Seedvault veröffentlichen – sowohl für den Umstieg auf Standard-Android als auch auf andere Custom-ROMs oder auf die neue CalyxOS Version nach der Übergangsphase
https://calyxos.org/docs/guide/apps/seedvault
Diese Anleitung hilft aber herzlich wenig, wenn man z.B. auf GrapheneOS umsteigen will, den damit es die Seedvault Version von CalyxOS nicht vollständig kompatibel.
Auch wir von yourdevice.ch bitten aktive Hilfe beim Wechsel auf GrapheneOS an. Kunden können manuelle Backups Zuhause machen und das Telefon danach einsenden. Wir spielen dann GrapheneOS für alle Kunden auf, die sich ein Phone mit CalyxOS bei uns gekauft haben und erhalten einen persönlichen Rabatt und zahlen nur 49CHF anstatt 79CHF für die Installation für GrapheneOS. Bitte dazu Email an: [email protected]
Nützliche Links für manuelle Backups auf GrapheneOS:
https://yourdevice.ch/daten-auf-customrom-mit-calyxos-grapheneos-uebertragen/
https://yourdevice.ch/android-backup-mit-nextcloud/
https://yourdevice.ch/nextcloud-kalender-mit-android-synchronisieren/
https://yourdevice.ch/kontakte-synchronisieren-mit-nextcloud-android-und-thunderbird/
CalyxOS befindet sich aktuell in einer kritischen Übergangsphase, in der keine Sicherheitsupdates bereitgestellt werden.
Der Wechsel der Signaturschlüssel bedeutet, dass bestehende Installationen später nicht per OTA aktualisiert werden können – ein kompletter Neu-Flash mit anschließendem Daten-Import (z. B. via Seedvault) wird zwingend nötig sein.
Für Nutzer stellt sich jetzt die Frage: bleiben oder wechseln?
Wer sein Gerät nur privat nutzt, vorsichtig mit Apps und Internet umgeht und keine hochsensiblen Daten speichert, kann CalyxOS vorübergehend weiterverwenden – sollte sich aber der wachsenden Risiken bewusst sein und zum Release der neuen Version vorbereitet sein.
Wer dagegen beruflich oder mit sensiblen Informationen arbeitet oder maximale Sicherheit benötigt, sollte sofort auf eine aktiv gepflegte Android-Distribution wie GrapheneOS.
Egal für welchen Weg man sich entscheidet: Ein vollständiges Backup ist sinnvoll – nur so lässt sich später ein reibungsloser Wechsel sicherstellen.
Man kann das ganze auch positiv sehen, und es als Gelegenheit wahrnehmen, endlich auf das deutlich sicherere GrapheneOS umzusteigen.
The post CalyxOS: Android-Custom-ROM legt Entwicklung auf Eis appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Google Fonts und die heimliche Datensammlung mit Schriftarten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Google Fonts ist ein beliebtes Tool, das Webentwicklern kostenlos eine Vielzahl von Schriftarten bietet. Die Benutzerfreundlichkeit und die große Auswahl an Schriftarten haben es zu einem Standard in der Webentwicklung gemacht. Aber wie bei vielen kostenlosen Diensten stellt sich oft die Frage: „Wenn man nicht für das Produkt bezahlt, ist man vielleicht das Produkt selbst?“ In Bezug auf Google Fonts geht es um die Datensammlung.
Die Hauptproblematik liegt hierbei nicht unbedingt in der Datensammlung selbst – schließlich sammeln viele Dienste Daten, um ihre Angebote zu optimieren. Es ist jedoch die fehlende Transparenz und Aufklärung, die hier kritisch betrachtet werden muss. Viele User sind sich überhaupt nicht bewusst, dass ihre Daten durch den bloßen Besuch einer Website, die Google Fonts verwendet, erfasst werden. Die Datensammlung geschieht still und heimlich im Hintergrund, und die meisten User werden niemals davon erfahren.
Wenn eine Webseite Google Fonts verwendet, muss sie in der Regel einen Verweis zu Googles Servern herstellen, um die gewünschte Schriftart zu laden. Dies geschieht durch das Einfügen eines speziellen Links in den HTML-Code der Seite, der auf eine CSS-Datei auf Googles Servern zeigt. Diese CSS-Datei enthält Anweisungen zum Laden der Schriftart.
Wann immer ein Benutzer eine Webseite besucht, die Google Fonts verwendet, sendet sein Browser eine Anfrage an Googles Server, um die Schriftart herunterzuladen. Bei dieser Anfrage werden verschiedene Daten übermittelt:
Diese Daten können potenziell dazu verwendet werden, um Nutzerprofile zu erstellen, insbesondere wenn sie mit anderen Daten kombiniert werden, die Google durch seine zahlreichen Dienste sammelt.
Warum ist das problematisch
Die Sammlung von Daten durch Google Fonts mag auf den ersten Blick harmlos erscheinen, insbesondere im Vergleich zu den weitreichenderen Datensammlungspraktiken, die in anderen Teilen des Internets vorkommen. Aber es gibt einige Bedenken:
Einbindung auf Websites
Webentwickler binden Google Fonts typischerweise so ein:
<link href="proxy.php?url=https://fonts.googleapis.com/css?family=Roboto" rel="stylesheet">
Diese CSS-Datei verweist wiederum auf weitere Dateien (die eigentlichen Schriftarten im WOFF2-, WOFF- oder TTF-Format), ebenfalls von Googles Servern.
Ablauf beim Seitenaufruf
fonts.googleapis.com auf (CSS-Datei)fonts.gstatic.com (Font-Datei)Besonderheit
Selbst wenn die Fonts im Browser-Cache liegen, kann der erste Abruf einer Seite bereits Tracking ermöglichen.
Die heimliche Datensammlung durch Google Fonts ist ein weiteres Beispiel dafür ist, wie große Technologieunternehmen oft im Verborgenen agieren. Es ist essenziell, dass sowohl User als auch Web-Entwickler sich der Risiken bewusst sind und aktiv Maßnahmen ergreifen, um den Datenschutz zu gewährleisten.
Google wurde für dieses Verhalten jedoch nicht belangt. Geschädigt sind die Benutzer die Abmahnungen von Geldgierigen erhielten, die diesen Fall ausnutzten.
fonts.googleapis.com und fonts.gstatic.com blockieren.öffnet die Datei:
sudo nano /etc/hosts
und tragt folgendes in die Datei ein wie im Screenshot zu sehen:
127.0.0.1 fonts.googleapis.com
127.0.0.1 fonts.gstatic.com
Eine Versuch Eures Systems fonts.googleapis.com aufzurufen läuft damit ins Leere:
3. DNS-Filter nutzen:
Pi-hole, AdGuard Home oder NextDNS – blockiert Google Fonts auf allen Geräten im Netzwerk.
Auf Android könnt Ihr Euch gegen das Nachladen von Google Fonts ähnlich wie am PC schützen, aber die Methoden unterscheiden sich, weil Ihr keinen direkten Zugriff auf /etc/hosts habt und viele Browser-Apps eigene Regeln verwenden.
Hier sind die praktischsten Ansätze – von „einfach“ bis „technisch fortgeschritten“:
fonts.googleapis.com direkt blockieren.fonts.googleapis.com und fonts.gstatic.com blockieren.Einstellungen → Schutz → Erweitert zusätzlich die Blockierung von Drittanbieter-Ressourcen aktivieren.Mit einem DNS-Filter könnt Ihr Google Fonts auf dem ganzen Gerät blockieren – unabhängig von der App.
fonts.googleapis.com sowie fonts.gstatic.com blockieren.Wie man auf Android einen Systemweiten DNS aktiviert, erfahrt ihr hier und hier.
Kurz gesagt benutzt ihr dafür spezielle DNS Server die solche Tracker blockieren:Einstellungen → Netzwerk & Internet → Privates DNS aktivieren und die gewünschte DNS-Server-Adresse eintragen.
Google Fonts sind bequem, aber datenschutzrechtlich problematisch, wenn sie direkt von Googles Servern geladen werden. Wer Wert auf Privatsphäre legt – ob als Website-Betreiber oder als Nutzer – sollte Fonts lokal einbinden oder blockieren. So bleibt nicht nur die Kontrolle über die Daten erhalten, sondern man reduziert auch unnötige externe Abhängigkeiten.
Quellen:
https://www.hubit.de/google-tracking-von-admins-und-web-besuchern-mit-google-fonts/
The post Google Fonts und die heimliche Datensammlung mit Schriftarten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Was ist Pruning und welche Vor- und Nachteile gibt es appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Eine pruned Node ist also eine Bitcoin-Fullnode, die nicht die gesamte Blockchain speichert, sondern nur die aktuellen und relevanten Daten, die sie für die Validierung neuer Blöcke und Transaktionen benötigt.

prune=
#setzt man hier z.B. prune=100000, werden nur die letzten 100GB an Blockdaten gespeichert.
bitcoin.conf. Die Zahl gibt die Größe des Speichers in MB an, den die Node maximal für Blöcke verwenden darf.Wichtig: Nur Blöcke können gepruned werden. Der UTXO-Set, also die Menge aller noch nicht ausgegebenen Coins, muss immer vollständig vorhanden sein.

Ein Stratum Server für das Bitcoin Mining kommt hiermit nur 550MB an Blöcken aus, mehr braucht er nicht, da er Blocktemplates immer nur anhand des neusten Blockes zur Verfügung stellt, mehr nicht.
| Vorteil | Erklärung |
|---|---|
| 💾 Weniger Speicherverbrauch | Anstatt >500 GB Blockchain zu speichern, reichen z. B. 2–5 GB. |
| 🧩 Volle Validierung | Auch pruned Nodes validieren alle Blöcke vollständig – also kein Light Client! |
| 🚀 Ideal für kleine Server & Raspi-Projekte | Pruning macht Bitcoin-Nodes auch auf Geräten mit kleiner SSD praktikabel. |
| 🔒 Datenschutz | Man betreibt seine eigene Node und muss sich nicht auf Drittanbieter verlassen. |
| Nachteil | Erklärung |
|---|---|
| 📉 Kein Zugriff auf alte Transaktionen | Man kann z. B. keine vollständige Wallet-Historie oder Explorerdienste bereitstellen. |
| ❌ Nicht mit Indexern kompatibel | Dienste wie ElectrumX, Electrs, Fulcrum oder Blockexplorer erfordern Zugriff auf alle Blöcke. |
| 🔄 Kein Rescan alter Adressen möglich | Wenn man eine alte Wallet importiert, fehlen die Blöcke für den Scan. |
| ⚠️ Kein Service für Dritte | Möchte man z. B. anderen Wallets über Electrum Schnittstellen bereitstellen, reicht eine pruned Node nicht. |
Pruning eignet sich perfekt für:
Nicht geeignet ist es für:
Bitcoin Core erlaubt es, den prune-Wert (z.B. prune=100000, was ~100 GB entspricht) auch nach einem vollständigen Blockchain-Sync zu setzen, ohne dass ein Reindex durchgeführt werden muss. Beim nächsten Start mit aktiviertem Pruning beginnt der Node automatisch damit, alte Blöcke zu löschen, bis der Speicherverbrauch unter dem angegebenen Zielwert liegt (bitcoin.stackexchange.com). Es ist also keine erneute Synchronisation der gesamten Blockchain nötig – im Gegenteil, durch das Pruning wird Festplattenplatz freigegeben. (Nur wenn man später von einem geprunten Node zurück zu einem ungeprunten wechseln möchte, wäre ein erneutes Herunterladen/Reindexieren der Blockchain erforderlich (bitcoincore.org.)
Beispielsweise beträgt der minimale zulässige Prune-Wert 550 MB, was sicherstellt, dass mindestens die letzten 288 Blöcke (ca. 2 Tage) aufbewahrt werden (bitcoincore.org). Dieser Mindestwert wurde gewählt, um kurzfristige Reorganisationen oder Wallet-Rescans zu ermöglichen. Höhere Werte wie prune=100000 bedeuten entsprechend mehr aufbewahrte Blöcke (100 GB entspricht grob den letzten ~1–2 Jahren an Blöcken, je nach Blockgröße). Die Umstellung von einem vollständigen Node auf einen geprunten Node erfolgt nahtlos: Bitcoin Core erkennt die vorhandenen Blockdaten und entfernt ältere Blöcke, bis das Speicherlimit erreicht ist. Ein Reindex oder Neu-Download ist dafür nicht erforderlich (bitcoin.stackexchange.com). Es empfiehlt sich allerdings, vor dem Pruning ein Backup der Wallet anzulegen und sicherzustellen, dass kein Wallet-Rescan nötig ist, der in pruned Mode mangels alter Blöcke fehlschlagen würde (siehe nächste Sektion zur Wallet-/Lightning-Problematik).
Sobald Ihr in Eurer bitcoin.conf z. B. prune=10000 gesetzt habt, betreibt Bitcoin Core Eure Node im sogenannten Pruned Mode. Das bedeutet:
Wenn Ihr nun nach einiger Zeit entscheidet, dass Ihr doch alle Blöcke behalten möchtet – z. B. für einen Blockexplorer, Electrum-Server oder zur Archivierung –, reicht es nicht, einfach den prune-Eintrag zu entfernen oder auf prune=0 zu setzen.
Eine geprunte Node hat nur einen Teil der Blockchain auf der Festplatte – z. B. nur die letzten 10 GB (≈1 Jahr Blockchain-Historie). Wenn Ihr jetzt prune=0 in die bitcoin.conf schreibt:
Die einzige Möglichkeit, wieder eine vollständige Node zu betreiben, ist:
bitcoind -reindex
Oder Ihr löscht das komplette .bitcoin/blocks und .bitcoin/chainstate Verzeichnis (bzw. Euer entsprechendes datadir) und startet den Sync komplett neu – diesmal ohne prune=….
Für den Betrieb von Lightning-Nodes (LND oder Core Lightning) auf einem geprunten Bitcoin-Core-Backend gelten besondere Anforderungen an die Blockverfügbarkeit. Zwar können beide Lightning-Implementierungen grundsätzlich mit einem geprunten Full Node funktionieren (bitcoin.stackexchange.com), jedoch dürfen keine für Lightning relevanten Blöcke gelöscht werden, da sonst die Lightning-Software wichtige on-chain Ereignisse nicht nachverfolgen kann. In der Praxis bedeutet das:
bitcoind einen Block bereits geprunt hat, den Core Lightning noch nicht verarbeitet hat (etwa weil der Lightning-Daemon länger offline war), kann Core Lightning sich nicht mehr synchronisieren und bleibt stecken (docs.corelightning.org). Ähnliches gilt für LND – es ist möglich, dass LND beim Aufholen der Blockchain eine benötigte bestätigte Transaktion (z.B. eine Channel-Schließung) nicht mehr über RPC abrufen kann, wenn der betreffende Block inzwischen gelöscht wurde. In solchen Fällen kann LND aus dem Sync fallen (zeigt z.B. synced_to_chain = false) und benötigt einen manuellen Eingriff oder Neustart (github.com).Angesichts dieser Anforderungen ist die minimal mögliche Prune-Größe von 550 MB (≈288 Blöcke) für zuverlässigen Lightning-Betrieb meist nicht ausreichend. 288 Blöcke entsprechen nur zwei Tagen: Würde der Lightning-Node z.B. eine Woche offline sein, wären die fehlenden ~1008 Blöcke bereits nicht mehr alle auf der Disk vorhanden, was zu Synchronisationsproblemen führt. Zudem bleiben Lightning-Channels oft deutlich länger als zwei Tage offen – die Blöcke der Channel-Eröffnungen würden bei aggressivem Pruning irgendwann entfernt. Ein Lightning-Node prüft jedoch beim Start typischerweise den Status seiner Funding-Transaktionen (und gegebenenfalls deren Bestätigungen) in der Blockchain. Wenn diese ursprünglichen Funding-Blöcke geprunt sind, kann es zu Fehlern oder hängenden Channels kommen (ein früher c-lightning-Bug zeigte z.B., dass bei prune=550 Lightning beim Start ~96 Blöcke hinterherhinkte, da ein benötigter Block “Block not available (pruned data)” wargithub.com).
Praktisch bewährte Empfehlung: Verwende einen deutlich höheren Prune-Wert, um einen ausreichenden Puffer an Blöcken vorzuhalten. Häufig genannte Werte sind mindestens 5–10 GB statt nur 550 MB. Beispielsweise empfiehlt ein Entwickler des Node Launcher (LND-Launcher) mindestens prune=10000 (≈10 GB) oder mehr freien Speicher, damit das Pruning nicht zu aggressiv ausfällt (github.com). Auch Anwenderberichte zeigen, dass stärkeres Pruning die Stabilität von LND beeinträchtigen kann („je aggressiver man prunet, desto häufiger verliert LND die Synchronisation mit der Chain“(github.com). Mit ~10 GB Pruning-Limit bleiben grob die letzten 1–2 Monate an Blöcken erhalten, was kurze Offline-Zeiten problemlos überbrückt. Wer sicherstellen will, dass auch sehr alte Channels (z.B. seit 2018) abgedeckt sind, müsste entsprechend einen viel größeren Wert oder gar kein Pruning einstellen – einige Routing-Node-Betreiber verzichten daher auf aggressives Pruning zugunsten der Zuverlässigkeit (docs.lightning.engineering). Zusammengefasst sollte die Prune-Größe so gewählt werden, dass die ältesten relevanten Blöcke für Ihre Lightning-Channels nicht gelöscht werden.
Beide Lightning-Implementierungen haben grundsätzlich dieselbe Herausforderung: Sie benötigen Zugriff auf bestimmte Blockchain-Daten (Blocks/Transactions), um Channel-Funding und -Closing sowie on-chain HTLC-Timeouts etc. überwachen zu können. Allerdings gibt es leichte Unterschiede in der offiziellen Haltung und Handhabung:
txindex (es kann fehlende Transaktionen notfalls über das P2P-Netz laden), aber wenn ein benötigter Block fehlt, gerät LND ins Hintertreffen. In der Praxis zeigt sich, dass LND bei sehr knappem Pruning gelegentlich den Sync verliert und manuell neu gestartet werden muss (github.com). Die Entwickler arbeiten zwar an Verbesserungen (z.B. Unterstützung von BIP157/158 Blockfiltern und manueller Prune-Steuerung(github.comgithub.com), dennoch sollte man LND mit Vorsicht prunen.bitcoind und verwendet JSON-RPC (kein txindex nötig) (docs.corelightning.orgdocs.corelightning.org). Allerdings warnt auch CLN: Wenn der Bitcoin-Core einen Block schon gelöscht hat, bevor Core Lightning ihn verarbeiten konnte (etwa wegen längerer Downtime von CLN), kann CLN nicht mehr aufholenn (docs.corelightning.org). Daher empfiehlt man, die Differenz zwischen der von CLN verarbeiteten Blockhöhe und der aktuellen bitcoind-Höhe im Auge zu behalten und notfalls einzugreifen, bevor die Lücke zu groß wird (docs.corelightning.org). Insgesamt wird Core Lightning als etwas robuster gegenüber Pruning gesehen, weil es z.B. bei Bedarf einzelne TXOs direkt über RPC (gettxout) prüfen kann, ohne ganze Blöcke laden zu müssen. Auch BTCPay Server empfiehlt bei Nutzung eines geprunten Bitcoin-Nodes eher Core Lightning, da diese Implementation offiziell pruned Nodes unterstützt und damit zuverlässiger läuft (docs.btcpayserver.org). LND kann zwar ebenfalls mit Pruning funktionieren, erfordert aber sorgfältigere Konfiguration und Überwachung.Beide Lightning-Implementierungen können mit einem geprunten Bitcoin Core betrieben werden, jedoch sollte man großzügig prunen (lieber einige Dutzend GB statt das Minimum), um eine zuverlässige Funktion sicherzustellen. Core Lightning wird von vielen als die bessere Wahl erachtet, falls man mit starkem Pruning arbeiten muss: (docs.btcpayserver.org), während LND bei knapper Blockhistorie eher zu Synchronisationsproblemen neigt (github.com). In jedem Fall sind offizielle Dokumentationen und Warnhinweise zu beachten, und man sollte im Zweifel eher mehr Blockchain-Daten vorhalten, insbesondere wenn der Lightning-Node nicht durchgängig online ist.
Pruning ist eine smarte Möglichkeit, eine vollwertige Bitcoin-Node zu betreiben, ohne mehrere Hundert Gigabyte Speicher zu verbrauchen. Für viele Nutzer reicht die reduzierte Funktionalität vollkommen aus, solange man keine tiefergehenden Dienste wie Adress-Indexierung oder historische Analysen benötigt.
Wer jedoch Blockexplorer, Lightning-Dienste oder Electrum-Server betreiben möchte, muss auf eine vollständige, ungeprunete Node mit vollem Blockchain-Archiv setzen.
The post Was ist Pruning und welche Vor- und Nachteile gibt es appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Passkeys - Vor und Nachteile appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Passkeys sind eine moderne Authentifizierungsmethode, die klassische Passwörter ablösen soll. Technisch beruhen sie auf einem Verfahren namens Public-Key Cryptography (asymmetrische Kryptographie), konkret der WebAuthn- und FIDO2-Standards.
Statt ein Passwort einzugeben, erzeugt Euer Gerät ein Schlüsselpaar:
Beim Einloggen:
Dadurch kann kein Passwort abgefischt oder in einem Leak ausgespäht werden.
Passkeys werden oft mit Geräten verknüpft:
Hohe Sicherheit
Benutzerfreundlich
Schneller Login
Kommen wir zu den Nachteilen von Passkeys, den da gibt es aktuell noch jede Menge. Wir schauen uns die parallele Nutung von Passkeys und Passwörtern an, die Uneinheitliche Implementierung und das Vendor Lock-in Problem von BigTech, die Passkeys nutzen, um ihre Nutzer weiter an ihr Ökosystem zu binden.
Ein weitverbreitetes Missverständnis ist, dass Passkeys automatisch alle Sicherheitsprobleme lösen, nur weil sie hinzugefügt wurden. In der Praxis sieht es aber oft so aus:
Das bedeutet konkret:
Solange Euer Passwort weiter aktiv ist, ändert sich an der Gefährdungslage wenig. Angreifer können immer noch versuchen, sich mit dem Passwort einzuloggen – Passkeys verhindern das nur dann, wenn Ihr komplett auf „Passkey only“ umstellt und die Passwörter deaktiviert oder löscht.
Viele Plattformen machen es aber schwer, diesen Schritt konsequent zu gehen:
Wichtiger Hinweis:
Der große Sicherheitsgewinn entsteht erst dann, wenn Ihr das Passwort als Fallback abschaltet. Nur so entzieht Ihr Angreifern die Chance, über alte oder geleakte Passwörter auf Euer Konto zuzugreifen.
Falls ein Dienst kein „Passkey only“-Login unterstützt, könnt Ihr überlegen, ob Ihr dort entweder:
Kurz gesagt:
Wer Passkeys nur als „Zusatz“ verwendet, hat zwar Bequemlichkeit gewonnen – die alten Risiken bleiben aber weitgehend bestehen.
Erst die vollständige Abkehr von Passwörtern bringt den vollen Sicherheitsvorteil.
Hier kommen wir zu einem weiteren kritischen Teil:
Viele große Anbieter verknüpfen Passkeys mit ihren eigenen Ökosystemen, zum Beispiel:

Das führt zu einer Bindung an den Anbieter!
Ihr werdet de facto an das Ökosystem gebunden, da ein Wechsel schwieriger ist als bei klassischen Passwörtern oder Passwortmanagern.
Beispiele:
Ein Nutzer erstellt einen Passkey für seinen Google-Account mit Chrome. Dieser Passkey wird automatisch im Google Password Manager hinterlegt.
Später möchte er auf Firefox oder Safari wechseln, oder komplett Google verlassen – dann ist der Passkey ohne Migrationsschritt nicht verfügbar.
Es gibt noch kein standardisiertes, leicht nutzbares Export-/Importverfahren zwischen allen Plattformen.
Das ist einer der Hauptkritikpunkte an Passkeys derzeit:
Ein Punkt, der viele Nutzer schnell durcheinanderbringt, ist die Frage:
Wo genau liegt mein Passkey – und wie finde ich ihn wieder?
Im Gegensatz zu Passwörtern, die Ihr bewusst eintippt oder in einem Passwortmanager seht, werden Passkeys meist unsichtbar im Hintergrund erstellt und in Eurem Gerät oder Eurem Benutzerkonto gespeichert. Das kann je nach Betriebssystem, Browser und Endgerät sehr unterschiedlich sein:
Das führt leicht zu Verwirrung:
Viele Nutzer stellen sich nach ein paar Monaten die Frage:
„Moment mal – habe ich meinen Passkey jetzt bei Google, Apple oder nur lokal auf dem Gerät?“
Wichtig: Es gibt bislang keinen einheitlichen, leicht verständlichen Standard, der immer anzeigt, wo der Passkey gespeichert wird und wie man ihn exportiert. Manche Dienste zeigen zwar den registrierten Authenticator an („iPhone von Max“ oder „YubiKey“), aber nicht jeder erklärt das so transparent.
Tipp:
Behalte immer im Blick:
So vermeidet Ihr später unangenehme Überraschungen, wenn Ihr ein Gerät verliert oder wechseln wollt.
Wenn Ihr Passkeys nutzen wollt, ohne Euch an Apple, Google oder Microsoft zu binden, könnt Ihr auf einen Hardware Key a la Yubikey oder auf unabhängige Passwortmanager setzen. Online-Lösungen wie Bitwarden, 1Password oder Proton Pass bieten mittlerweile Unterstützung für Passkeys an – und helfen Euch, den Überblick zu behalten.
Vorteile dieser Strategie:
Zentrale Verwaltung
Alle Passkeys liegen in einem einzigen Tresor, statt verstreut in iCloud, Google Password Manager oder Windows Hello. Ihr seht jederzeit, welche Schlüssel Ihr angelegt habt.
Plattformunabhängigkeit
Egal ob Windows, macOS, Linux, Android oder iOS – Ihr könnt Deine Passkeys überall nutzen, ohne an einen Hersteller gebunden zu sein.
Browser-Erweiterungen
Fast alle modernen Passwortmanager haben Erweiterungen für:
Damit könnt Ihr Passkeys direkt beim Login vom Hardwarekey oder vom Browser Plugin automatisch ausfüllen und verwalten.
Apps für alle Geräte
Ob Smartphone, Tablet oder Desktop-PC: Ihr könnt Eure Passkeys komfortabel in der jeweiligen App abrufen, sichern und synchronisieren.
Synchronisation mit Zero-Knowledge-Prinzip
Seriöse Anbieter verschlüsseln alle Daten clientseitig, bevor sie synchronisiert werden. So kann der Betreiber (z.B. Bitwarden oder Proton) Eure Passkeys nicht sehen.
Beispielablauf:
Warum ist das sinnvoll?
Kurz gesagt:
Der Hardwareschlüssel oder ein moderner Passwortmanager wird zur Schaltzentrale Eurer Online-Identitäten. Ihr reduziert Verwirrung, behaltet die volle Kontrolle und müsst Euch nicht auf einen einzelnen Tech-Konzern verlassen der Euch nicht erlaubt, Eure Passkeys auf anderen Plattformen zu nutzen.
Auch wenn Passkeys viele Probleme klassischer Passwörter lösen, gibt es weitere wichtige Punkte, die Ihr bedenken solltet:
Tipp: Immer mindestens zwei Passkeys bzw. Geräte registrieren!
Passkeys sind ein enormer Fortschritt im Bereich Authentifizierung: sicherer, bequemer, moderner.
Aber sie sind nicht neutral: Die Art, wie sie implementiert werden, spielt Konzernen wie Apple, Google oder Microsoft in die Hände, indem sie Nutzer in die eigenen Dienste hineinziehen und dort halten.
Wichtige Empfehlungen:
The post Passkeys - Vor und Nachteile appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Balena Etcher jetzt ohne Spyware appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
BalenaEtcher (früher einfach „Etcher“ genannt) ist ein Open-Source-Programm, mit dem sich Betriebssystem-Images unkompliziert auf SD-Karten, USB-Sticks und andere Speichermedien schreiben lassen. Die Software erschien vor über zehn Jahren, als das Unternehmen noch Resin hieß, und wurde 2018 zusammen mit der Umbenennung der Firma in balena ebenfalls umbenannt.
Ziel war von Anfang an, eine simple und plattformübergreifende Lösung zu schaffen, um bootfähige Datenträger zu erzeugen – insbesondere für Raspberry Pi und andere Embedded-Geräte. Das Programm ist bis heute wegen seiner klaren Benutzeroberfläche und der zuverlässigen Funktion sehr beliebt.
Wenn Ihr balenaEtcher mit dem Raspberry Pi Imager oder anderen Tools wie Win32 Disk Imager oder dd vergleicht, fallen ein paar Punkte sofort auf:
balenaEtcher ist wirklich von Anfang an so gestaltet worden, dass absolut jeder – auch ohne Vorkenntnisse – ein Image auf eine Karte oder einen Stick schreiben kann. Die Oberfläche ist extrem reduziert:

Der Raspberry Pi Imager hat zwar auch ein simples Design, ist aber stärker auf Raspbian (heute Raspberry Pi OS) ausgelegt und bringt direkt eine Vorauswahl von offiziellen Images mit. Wenn du andere Systeme flashen willst (Ubuntu, LibreELEC, exotische Images), ist balenaEtcher oft flexibler.
Win32 Disk Imager dagegen wirkt eher wie ein klassisches Windows-Tool – funktional, aber nicht gerade schön oder narrensicher. Für Linux-Anfänger ist es weniger intuitiv.
Und dd (unter Linux) ist zwar mächtig, aber definitiv nichts für Einsteiger:
sudo dd if=raspbian.img of=/dev/sdX bs=4M
Ein falscher Buchstabe – und Eure Festplatte ist futsch.
balenaEtcher läuft gleich gut auf Windows, macOS und Linux, ohne dass man herumfrickeln muss. Der Raspberry Pi Imager deckt auch alle drei Plattformen ab, ist aber manchmal etwas hakelig, z.B. bei älteren Linux-Distributionen.
Gerade wer das erste Mal ein Image flashen will, fährt mit balenaEtcher am besten:
Das gibt vor allem Anfängern Sicherheit – man sieht auf einen Blick, ob alles funktioniert hat.
Schon früh begann Balena, anonyme Telemetriedaten aus Etcher zu sammeln. Hintergrund war, dass die Qualität und Zuverlässigkeit von SD-Karten damals extrem schwankte und man auf diese Weise wertvolle Informationen über Fehlerursachen und Kompatibilität gewinnen wollte.
Auch wenn die Daten tatsächlich zur Weiterentwicklung beitrugen – etwa um Probleme mit Dateisystemen zu erkennen oder alte Linux-Distributionen nicht mehr zu unterstützen – sorgte die Datenerhebung bei vielen Nutzern für Kritik und Skepsis. Zwar konnte man in den Einstellungen jederzeit deaktivieren, dass Nutzungsdaten geteilt wurden, doch vielen war das nicht transparent oder konsequent genug.
Nun hat Balena ein klares Zeichen gesetzt: Ab Version 2.1.2 ist sämtlicher Analytics-Code aus balenaEtcher entfernt. Lediglich anonyme Absturzberichte können – wenn man möchte – weiterhin geteilt werden, worauf das Programm beim ersten Start nun deutlich hinweist.
Damit reagiert Balena auf die lange bestehenden Vorwürfe und unterstreicht, dass man die eigenen Werte – Enablement, Openness, Transparency, Reliability und First Principles Thinking – wieder stärker in den Mittelpunkt stellen will.
Wer Etcher also aus Sorge um die Privatsphäre gemieden hat, kann die aktuelle Version bedenkenlos nutzen: Es werden nun keine Daten mehr getrackt.
Balena Etcher könnt ihr hier auf Github downloaden:
https://github.com/balena-io/etcher/releases
The post Balena Etcher jetzt ohne Spyware appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Lightning TipBot und Wallet für Matrix appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Das Projekt orientiert sich konzeptionell an dem bekannten LightningTipBot für Telegram, erweitert es aber für den Einsatz auf Matrix, einer dezentralen Kommunikationsplattform. Die ursprüngliche Initiative stammt von @AE9999, der den Grundstein gelegt hat. Die Arbeit wurde aber von ursprünglichen Entwickler nicht mehr fortgesetzt und hat auch nicht mehr zuverlässig funktioniert. Meine Arbeit besteht darin, den Bot aktiv weiterzuentwickeln, zu warten und um neue Features zu ergänzen.
Das Projekt befindet sich nach wie vor im Beta-Stadium. Deshalb gilt der ausdrückliche Hinweis: Nutzer sollten nur so viele Mittel einzahlen, wie sie auch bereit sind zu verlieren. Falls ihr Lust habt, könnt ihr den Bot gerne auf unserem Matrix Server ausprobieren! Wer selber hosten will, und nen eigenen Matrix und LNBits Server betreibt, der kann der Anleitung unten folgen!

Zuerst könnt ihr mein Github Repo erkunden und euch mal durchsehen was der Bot so macht. Der Bot ist Open Source und funktioniert zusammen mit Matrix-Synapse und LNBits als Lightning Accounting System.
https://github.com/warioishere/matrix-lightning-tip-bot
Der Bot kann auf zwei Weisen verwendet werden:
/users/api/v1/user) bereitstellt. Auf LNBits muss natürlich ein Lightning Backend eingerichtet sein.Der Funktionsumfang ist bereits jetzt bemerkenswert breit. Zu den wichtigsten Kommandos gehören:
!help!help-boltz-swaps!tip <Betrag> [<Notiz>]!generate-ln-address <dein Adressname>!show-ln-addresses!balance!send <Betrag> <@Benutzer> oder <@Benutzer:domain.com> oder <[email protected]> [<Notiz>]!invoice <Betrag> [<Notiz>]!pay <Rechnung>!transactions!link-to-zeus-wallet!donate <Betrag>!party!fiat-to-sats <Betrag> <Währung (USD, EUR, CHF)>!sats-to-fiat <Betrag> <Währung (USD, EUR, CHF)>!boltz-onchain-to-offchain <Betrag> <Refund-Adresse>!boltz-offchain-to-onchain <Betrag> <Onchain-Adresse>!refund <swap_id>!versionIn privaten Direktnachrichten können alle Befehle ohne führendes ! eingegeben werden.

Wer MLTB selbst betreiben möchte, findet eine detaillierte Schritt-für-Schritt-Anleitung:
Ladet das Repo in einen Ordner eurer Wahl herunter. Es empfiehlt sich für Programme immer einen eigenständigen Nutzer zu verwenden und nicht als root zu arbeiten.
openjdk-17-jdk und libsqlite3-dev auf dem Server bereitstellen../gradlew buildDocker erstellen.diesel_cli für SQLite mit cargo install diesel_cli --no-default-features --features sqlite installieren.diesel migration run erzeugen.config.conf)--matrix-server=https://matrix.my-matrixserver.org
--matrix-username=bot-user
--matrix-password=geheim
--lnbits-url=https://meine-lnbits.com
--lnbits-bearer-token=<BEARER-TOKEN>
--lnbits-api-key=<API-KEY>
--database-url=/data/db/tipbot.db
--allowed-matrix-server=https://matrix.my-matrixserver.org
Container starten
Beispiel:
docker run -d \
--name matrix-tipbot \
--restart always \
-v /opt/lntipbot/data/config/config.conf:/data/config/config.conf \
-v /opt/lntipbot/data/db/tipbot.db:/data/db/tipbot.db \
matrix-lightning-tip-bot matrix-lightning-tip-bot @/data/config/config.conf
Alternativ lässt sich ein docker-compose Setup nutzen. Hierzu wird eine .env-Datei benötigt, die die relevanten Verzeichnisse definiert.
Einige wichtige Meilensteine sind bereits erfolgreich umgesetzt worden, andere stehen noch an:
✅ Boltz Swaps direkt über den Bot laufen lassen um seine Wallet aufzuladen
✅ Unterstützung für eigene Lightning-Adressen per Befehl
✅ Information bei Bezahlung erstellter Rechnungen
✅ Einschränkung auf spezifische Matrix-Instanzen
✅ Benachrichtigungen bei Spenden
✅ Fiat-/Sats-Währungsumrechner
✅ Direktes Senden an Lightning-Adressen
✅ Transaktionsübersicht
✅ Anzeige der eigenen Lightning-Adresse
✅ Verknüpfung mit der Zeus-Wallet-App
Für Support und Austausch gibt es einen öffentlichen Matrix-Raum:
https://matrix.to/#/#bitcoin:matrix.yourdevice.ch
BTC-Spenden sind ebenfalls willkommen. Die Lightning-Adresse lautet:
Mit MLTB ist es mir gelungen, eine einfach nutzbare und flexible Lösung für Bitcoin-Lightning-Tipps in Matrix zu schaffen. Dank der Docker- und LNbits-Anbindung bleibt die Einrichtung trotz der Komplexität des Themas für technisch versierte Betreiber gut machbar. Das Projekt verfolgt konsequent das Ziel, Lightning-Zahlungen breiter nutzbar zu machen und nahtlos in dezentrale Kommunikationsplattformen zu integrieren.
Der Bot ist ein praktisches Werkzeug für Communities, die Wert auf digitale Souveränität und unkomplizierte Mikrozahlungen legen – und ein spannender Beleg dafür, wie Open-Source-Ökosysteme zusammenwachsen können.
The post Lightning TipBot und Wallet für Matrix appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Sicheres Löschen von Daten unter Linux und Windows appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>rm zu löschen. Wer denkt, eine Datei sei nach dem Löschen wirklich „weg“, irrt – in vielen Fällen lassen sich Daten mit den richtigen Tools und ein wenig Know-how problemlos wiederherstellen. Das kann zum Problem werden, besonders wenn es sich um sensible Informationen, alte Passwörter, persönliche Fotos oder geschäftliche Daten handelt.
In diesem Beitrag zeigen wir Euch, wie Ihr unter Linux (Debian & Co.) und Windows Daten so sicher löschen könnt, dass sie selbst für einen erfahrenen IT-Forensiker entweder nicht mehr oder nur mit unverhältnismäßigem Aufwand wiederherstellbar sind – inklusive SSD-spezifischer Besonderheiten und Tools für ganze Laufwerke.

Viele glauben, dass eine Datei nach dem Löschen – ob per „Entf“-Taste, Papierkorb oder rm-Befehl – für immer verschwunden ist. Doch das ist ein gefährlicher Irrglaube.
Wenn Ihr eine Datei auf Eurem Computer löscht, passiert folgendes:
Das System entfernt nur den Verweis auf die Datei, also den Eintrag im Inhaltsverzeichnis der Festplatte (vergleichbar mit dem Entfernen eines Kapitels aus dem Inhaltsverzeichnis eines Buchs). Die eigentlichen Daten – also der „Text“ auf den Seiten – bleiben vollständig erhalten, bis sie durch etwas Neues überschrieben werden.
Das bedeutet:
Solange der Speicherbereich nicht mit neuen Daten überschrieben wurde, kann er mit frei zugänglicher Software (wie z. B. PhotoRec, Recuva oder TestDisk) problemlos wiederhergestellt werden. Und das selbst Wochen oder Monate später.
Ein Beispiel:
Stellt Euch vor, Ihr reißt ein Etikett von einem Aktenordner ab – der Ordner selbst und alle Dokumente darin bleiben aber im Regal stehen. Jeder, der weiß, wo er suchen muss, kann den Ordner öffnen und alles lesen.
Je nach Dateisystem (z. B. NTFS, ext4, APFS) und Speichermedium (HDD oder SSD) gibt es sogar Situationen, in denen selbst nach mehrfacher Formatierung noch Datenfragmente erhalten bleiben – besonders kritisch bei alten Festplatten, externen Speichersticks oder beim Verkauf gebrauchter Geräte.
Normales Löschen entfernt nur die Oberfläche – nicht den Inhalt. Wer sensible Daten wirklich vernichten will, muss sie gezielt überschreiben oder physisch zerstören. Alles andere ist bloß Kosmetik.
Normales Löschen (rm datei.txt) entfernt nur die Dateireferenz – die Daten bleiben auf der Platte.
Lösung: shred
shred -u -z -n 3 datei.txt
-u: Löscht die Datei nach dem Überschreiben.
-z: Überschreibt am Ende mit Nullen (macht das Ergebnis "sauberer").
-n 3: Überschreibt 3-mal (Ich empfehle mind. 3 Durchgänge).
❗ Funktioniert nur auf Dateisystemen, die Überschreiben wirklich durchführen (z. B. ext3, ext4 ohne Journaling). Auf SSDs und journalenden Systemen (Btrfs, ZFS) nicht verlässlich!
Alternative: wipe oder secure-delete
sudo apt install secure-delete
danach löschen mit:
srm -vz datei.txt
Das hilft, gelöschte Dateien nachträglich unlesbar zu machen.
sudo apt install secure-delete
Danach ordnerweise mit:
sfill -v /home
Lösung: dd mit Zufallsdaten
sudo dd if=/dev/urandom of=/dev/sdX bs=4M status=progress
/dev/sdX.❗ SSDs: Das funktioniert nicht verlässlich, da der Controller Daten selbstständig neu verteilt (Wear Leveling). Stattdessen:
Lösung: nvme oder hdparm
sudo hdparm --user-master u --security-set-pass Eins /dev/sdX
sudo hdparm --security-erase Eins /dev/sdX
Bei NVMe SSD's:
sudo nvme format /dev/nvme0n1 --ses=1
⚠️ Diese Befehle führen einen Secure Erase durch, der vom Controller der SSD unterstützt werden muss.
Lösung: Eraser (GUI)
Kostenloses Open-Source-Tool:
https://eraser.heidi.ie/
Alternativ per Kommandozeile:
cipher /w:C:
Das überschreibt freien Speicher auf Laufwerk C:. Bestehende Dateien bleiben erhalten!
Die meisten SSD-Hersteller bieten eigene Tools welche in den allermeisten Fällen zu bevorzugen sind. Billig SSD Hersteller wie Intenso bieten keine solcher Tools an. Diese Tools führen Erase Befehle durch, die technisch von der SSD direkt unterstützt werden:
Diese Tools führen Firmware-gesteuerte Secure-Erase-Befehle durch – ideal für SSDs.
Vor dem Weiterverkauf oder der Entsorgung:
DBAN (Darik's Boot and Nuke)Parted Magicrm, del, Papierkorb oder einfache bzw. schnelle Formatierungen verwenden → leicht wiederherstellbardd oder shred behandeln → ineffektiv wegen Wear Leveling| Ziel | Linux (Debian) | Windows |
|---|---|---|
| Einzelne Datei | shred, srm | Eraser (GUI), cipher /w: |
| Freier Speicher | sfill | cipher /w: |
| HDD komplett | dd if=/dev/urandom, DBAN | DBAN |
| SSD komplett | hdparm, nvme, Parted Magic | Herstellertools, Parted Magic |
Wenn es wirklich sicher sein muss:
Auch wenn viele der hier vorgestellten Methoden Daten auf logischer Ebene sehr effektiv vernichten, gilt grundsätzlich: Absolute Sicherheit gibt es nicht, besonders bei SSDs mit Wear-Leveling, komplexen Dateisystemen oder fehlerhaften Implementierungen von „Secure Erase“. Wer ganz sicher gehen will, sollte zusätzlich zur Softwarelösung immer auch eine physische Zerstörung des Datenträgers in Betracht ziehen.
Dennoch: Mit den hier vorgestellten Tools und Methoden seid Ihr auf einem sehr soliden Level unterwegs – weit mehr als der Durchschnittsnutzer. Ob Ihr nun Euren alten Rechner verkaufen, ein paar peinliche Dateien endgültig loswerden oder einfach auf Nummer sicher gehen willst: Jetzt wisst Ihr, wie es richtig geht.
The post Sicheres Löschen von Daten unter Linux und Windows appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Oniux - Kernel-Level Tor Isolation für jede Linux App appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Deshalb freut sich das Tor-Projekt riesig, oniux vorzustellen: ein kleines Kommandozeilen-Tool, das Netzwerk-Isolierung über das Tor-Netzwerk für Drittanbieter-Programme mithilfe von Linux-Namespaces ermöglicht. Aufgebaut auf Arti und onionmasq, kapselt oniux jedes Linux-Programm in einem eigenen Netzwerk-Namespace und leitet den gesamten Verkehr durch Tor – so wird das Risiko von Datenlecks effektiv ausgeschlossen. Wenn Eure Arbeit, Eurer Aktivismus oder Eurer Forschung absolut zuverlässige Verkehrstrennung erfordert, liefert oniux genau das.
Stellt Euch vor, Euer Computer ist wie ein großes Haus. In diesem Haus leben viele Programme – wie Mitbewohner, die sich Küche, Bad und Wohnzimmer teilen. Ohne Namespaces können alle Programme (also Mitbewohner) alles sehen: was die anderen tun, welche Dateien sie benutzen, welche Internetverbindungen bestehen, usw. Es gibt kaum Privatsphäre.
Jetzt kommt Linux Namespaces ins Spiel: Sie sorgen dafür, dass jeder Mitbewohner sein eigenes kleines Apartment bekommt – mit eigener Küche, eigenem WLAN-Router, eigenen Schlüsseln. Damit kann er unabhängig von den anderen leben, ohne zu sehen, was sie tun – und umgekehrt.
Namespaces sind eine Funktion des Linux-Kernels (quasi das Herzstück des Systems), die dafür sorgt, dass bestimmte Systembereiche abgeschottet werden können – so, als ob jedes Programm in einem eigenen kleinen "Mini-Linux" lebt.
Es gibt verschiedene Arten von Namespaces, z. B.:
Weil es Sicherheit und Kontrolle bietet. Wenn Ihr eine App oder einen Dienst habt, der auf keinen Fall versehentlich Daten ins offene Internet schicken soll – z. B. weil Ihr mit Tor arbeitet – könnt Ihr ihn mit einem Netzwerk-Namespace isolieren. Selbst wenn in der App ein Fehler steckt, kommt sie nicht raus aus ihrem Käfig.
Und genau das macht das neue Tool oniux:
Es startet Euer Programm in so einem abgeschotteten Netzwerk-Raum – und leitet alle Daten zwangsweise durch das Tor-Netzwerk. Selbst wenn Ihr Euch vertippt oder deine App Mist baut: Es kann gar nichts durchsickern.
Namespaces sind also wie virtuelle Wände im Betriebssystem. Sie sorgen dafür, dass Programme getrennt voneinander leben und nicht aus Versehen oder absichtlich in Bereiche schnüffeln oder funken, wo sie nichts zu suchen haben. Das ist besonders wichtig, wenn Ihr Privatsphäre braucht – z. B. für Tor, Aktivismus oder sensible Recherchen.
Wie oben beschrieben, sind Namespaces eine leistungsstarke Funktion, die es uns ermöglicht, den Tor-Netzwerkzugang einer beliebigen Anwendung zu isolieren. Wir platzieren jede Anwendung in einem Netzwerk-Namespace, der keinen Zugriff auf systemweite Netzwerkschnittstellen (wie z. B. eth0) bietet, sondern stattdessen eine eigene, benutzerdefinierte Netzwerkschnittstelle namens onion0 bereitstellt.
Dadurch können wir eine beliebige Anwendung auf die sicherste denkbare Weise softwareseitig über Tor isolieren – nämlich indem wir uns auf ein Sicherheitsprinzip verlassen, das direkt vom Betriebssystemkernel bereitgestellt wird. Im Gegensatz zu SOCKS kann die Anwendung dabei nicht versehentlich Datenlecks verursachen, indem sie Verbindungen außerhalb der konfigurierten SOCKS-Schnittstelle herstellt – was durch einen Fehler des Entwicklers passieren könnte.
Ihr habt vielleicht auch schon von einem Werkzeug mit ähnlichem Ziel gehört – torsocks. Dieses Tool funktioniert, indem es alle netzwerkbezogenen Funktionen der Standard-C-Bibliothek (libc) überschreibt, sodass der gesamte Datenverkehr über einen von Tor bereitgestellten SOCKS-Proxy geleitet wird.
Auch wenn dieser Ansatz etwas plattformübergreifender ist, hat er einen entscheidenden Nachteil:
Programme, die Netzwerkverbindungen nicht über die dynamisch eingebundene libc herstellen – sei es aus böswilliger Absicht oder einfach technisch bedingt – umgehen torsocks und senden Daten ungefiltert ins Netz.
Besonders problematisch ist das bei:
Vergleich: oniux vs. torsocks:
| oniux | torsocks |
|---|
| Eigenständige Anwendung | Benötigt laufenden Tor-Daemon |
| Verwendet Linux-Namespaces | Verwendet einen ld.so-Preload-Trick |
| Funktioniert mit allen Anwendungen | Funktioniert nur mit Anwendungen, die Systemaufrufe über libc machen |
| Bösartige Anwendungen können nicht ausbrechen | Bösartige Anwendungen können ausbrechen, indem sie Systemaufrufe direkt in Assembler schreiben |
| Nur für Linux | Plattformübergreifend |
| Neu und experimentell | Seit über 15 Jahren im Einsatz und bewährt |
| Nutzt Arti als Tor-Engine | Nutzt CTor (klassischer Tor-Daemon) als Engine |
| In Rust geschrieben | In C geschrieben |
Damit Ihr oniux installieren könnt, braucht Ihr ein Linux-System mit:
Rust-Toolchain installiert (das ist der Compiler + Paketmanager cargo)
einem modernen Linux-Kernel (z. B. Ubuntu, Debian, Arch, Fedora...)
Öffnet Euer Terminal und gebt folgendes ein:
curl https://sh.rustup.rs -sSf | sh
Folge den Anweisungen (einfach mit 1 bestätigen). Danach: Terminal neu starten (wichtig!) oder einmal dies ausführen:
source $HOME/.cargo/env
Testen ob's geklappt hat:
cargo --version
Wenn Ihr eine Versionsnummer seht: ✅ fertig!
Jetzt könnt Ihr oniux direkt von Gitlab installieren:
cargo install --git https://gitlab.torproject.org/tpo/core/oniux --tag v0.5.0 oniux
Das dauert ein bisschen, weil es den Code aus dem Internet lädt und kompiliert. Wenn alles klappt, könnt Ihr es mit oniux --help testen.
Falls die Installation mit einer Fehlermeldung nicht startet, besucht das aktuelle Projekt auf Gitlab, und ersetzt 0.5.0 mit der aktuellsten Version:
https://gitlab.torproject.org/tpo/core/oniux

Ersetzt die Versionsnummer mit der neueren und benutzt die Option --force
cargo install --git https://gitlab.torproject.org/tpo/core/oniux --tag v0.6.0 --force
Habt Ihr kein Bock mehr auf Oniux, könnt ihr es so deinstallieren:
cargo uninstall oniux
1. Eure aktuelle Tor-IP anzeigen:
oniux curl https://icanhazip.com
→ Ihr seht eine IP-Adresse, die nicht Eure echte ist, sondern eine Tor-Ausgangsadresse
2. Mit IPv6 über Tor:
oniux curl -6 https://ipv6.icanhazip.com
3. Onion-Services aufrufen:
oniux curl http://2gzyxa5ihm7nsggfxnu52rck2vv4rvmdlkiu3zzui5du4xyclen53wid.onion/
4. Ganze Shell durch Tor leiten: Ihr wollt alle Befehle ab sofort nur noch über Tor senden? Kein Problem:
oniux bash
Jetzt ist Eure komplette Shell in einem Tor-Namespace. Ihr könnt einfach Programme wie gewohnt ausführen.
5. Grafische Programme isolieren (wenn Ihr z. B. im KDE/Gnome-Desktop seid):
oniux signal-desktop
Funktioniert z. B. auch mit Firefox, Chromium, Thunderbird – aber beachte: Nicht alle Programme funktionieren problemlos in einem isolierten Netzwerk (z. B. solche mit systemd-abhängigen Diensten oder Wayland-Komponenten).
oniux funktioniert, indem es sofort einen Kindprozess mithilfe des Systemaufrufs clone(2) erzeugt, der in einem eigenen Netzwerk-, Mount-, PID- und User-Namespace isoliert ist. Dieser Prozess mountet dann eine eigene Kopie von /proc, gefolgt von UID- und GID-Zuordnungen zur entsprechenden UID und GID des Elternprozesses.
Anschließend erstellt er eine temporäre Datei mit Nameserver-Einträgen, die dann mittels Bind-Mount auf /etc/resolv.conf gemountet wird, sodass Anwendungen innerhalb des Prozesses einen benutzerdefinierten Namensauflöser verwenden, der die Namensauflösung über Tor unterstützt.
Danach verwendet der Kindprozess onionmasq, um eine TUN-Schnittstelle mit dem Namen onion0 zu erstellen, gefolgt von einigen rtnetlink(7)-Operationen, die erforderlich sind, um die Schnittstelle einzurichten, wie z. B. das Zuweisen von IP-Adressen.
Dann sendet der Kindprozess den Dateideskriptor der TUN-Schnittstelle über einen Unix-Domain-Socket an den Elternprozess, der seit der Ausführung des ursprünglichen clone(2)-Aufrufs auf diese Nachricht wartet.
Sobald dies abgeschlossen ist, verwirft der Kindprozess alle Fähigkeiten (Capabilities), die er im Rahmen des Root-Prozesses im User-Namespace erworben hat.
Schließlich wird der vom Benutzer übergebene Befehl unter Verwendung der Funktionen der Rust-Standardbibliothek ausgeführt.
torsocksIhr versucht vielleicht so etwas wie:
torsocks signal-desktop
Und was passiert?
➡️ Entweder Signal startet gar nicht,
➡️ oder es startet, aber der Netzwerkverkehr geht trotzdem nicht über Tor.
Warum?
torsocks funktioniert nur, wenn Programme Netzwerkverbindungen über die dynamische libc aufbauen.torsocks aktiv ist.oniuxIhr startet Signal so:
oniux signal-desktop
Und was passiert?
➡️ Signal wird in einem komplett isolierten Netzwerkbereich (Namespace) gestartet.
➡️ Es hat keinen Zugang zu deinem normalen Internet (kein eth0, kein WLAN).
➡️ Es gibt nur eine Schnittstelle: onion0 → durch Tor!
Ergebnis:
Aktuell funktioniert oniux nicht auf Systemen mit aktiviertem Secure Boot, da wichtige Kernelfunktionen wie clone() und mount() innerhalb von User-Namespaces durch AppArmor eingeschränkt werden. Selbst bei deaktiviertem AppArmor-Dienst bleibt die Blockade aktiv, solange Secure Boot aktiv ist.
➡️ Eine Nutzung von oniux ist derzeit nur möglich, wenn Secure Boot deaktiviert oder in einer entsprechend konfigurierten virtuellen Maschine gearbeitet wird.
Auch wenn Euch dieser Abschnitt nicht davon abhalten soll, oniux zu benutzen, solltet Ihr im Hinterkopf behalten, dass es sich hierbei um eine relativ neue Technologie handelt, die auf moderner Tor-Software wie Arti und onionmasq basiert.
Aktuell funktioniert bereits alles wie erwartet, aber: Werkzeuge wie torsocks existieren seit über 15 Jahren und haben sich in zahllosen realen Einsätzen bewährt.
Das Ziel ist es jedoch, mit oniux einen ähnlichen Reifegrad zu erreichen – also probiert es gerne aus und gebt es eine Chance! 🧅
Vielen Dank an alle Entwicklerinnen und Entwickler beim Tor-Projekt, die mit oniux, Arti und onionmasq neue Wege gehen, um Netzwerk-Isolation über Tor sicherer und robuster zu machen.
Eure Arbeit an oniux ist ein großer Schritt in Richtung moderner, kernel-basierter Verkehrskontrolle – ganz ohne die Risiken klassischer SOCKS-Proxies. Die Kombination aus Namespaces, TUN-Interfaces und einem minimalistischen Design ist elegant, durchdacht und technisch beeindruckend.
Danke, dass ihr Privatsphäre und Sicherheit nicht nur denkt, sondern wirklich lebt – und dafür Werkzeuge schafft, die Menschen auf der ganzen Welt schützen können.
Bitte macht weiter so. Eure Arbeit ist wichtiger denn je.
Quelle: https://blog.torproject.org/introducing-oniux-tor-isolation-using-linux-namespaces/
The post Oniux - Kernel-Level Tor Isolation für jede Linux App appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Anleitung: RaspiBlitz auf die neueste Version aktualisieren appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>⚠️ Wichtig: Dieses Update-Verfahren setzt voraus, dass Ihr die SD-Karte physisch entfernt und das Image neu schreibt. Deine Blockchain und LND-Daten bleiben erhalten, da sie auf der SSD gespeichert sind.

ddDer Raspiblitz wird in den Updatemodus gesetzt, und danach heruntergefahren. Loggt Euch via SSH ein, und gebt menu in die Konsole ein. Bestätigt mit Enter.
Geht in die UPDATE Einstellungen und wählt danach RELEASE aus:


Bestätigt mit Start Update. Der Raspiblitz wird sauber herunterfahren und erwartet danach eine frisch geflashte SD Karte. Jetzt gehts weiter mit dem Entfernen der SD Karte!
Version 1 Fullnode:
https://yourdevice.ch/shop/btc-nodes-zubehoer/raspberry-5-2tb-ssd-bitcoin-full-node/
Legt das Gerät auf den Deckel so dass sich die Vorderseite rechts von euch befindet. Entfernt die 4 Schrauben wie auf dem Bild markiert:

Danach klappt ihr den Boden vorsichtig und langsam nach rechts. Zieht den Deckel bitte nicht nach oben, den Der Boden ist über ein sehr dünnes PCI-E Kabel mit dem Raspiblitz verbunden. Danach habt Ihr das Gerät offen vor Euch liegen:

Jetzt könnt ihr die rote SD Karte auf dem Raspiboard langsam entfernen. Die SD Karte müsst ihr anschliessend in ein SD Karten Lesegerät platzieren.
Version 2 Fullnode Mini:
https://yourdevice.ch/shop/btc-nodes-zubehoer/raspberry-5-2tb-ssd-bitcoin-full-node-mini-edition/
Deckt das Gerät auf den Deckel vor Euch. Die Anschlüsse zeigen nach links aussen, die Vorderseite ist rechts!
Hier ebenso die 4 markierten Schrauben lösen:

Danach wieder vorsichtig das Gerät nach rechts umklappen und nicht nach oben ziehen. Das Gerät liegt dann aufgeklappt vor Euch. Entfernt die rote SD Karte, und platziert sie in ein Kartenlesegerät Eurer Wahl.

raspiblitz-fat-v1.11.4-2024-12-24.img.gz) herunter.Option A: Mit Balena Etcher (GUI)
Balena Etcher ist ein Tool zum erstellen von bootfähigen Laufwerken oder das schreiben von Systemimages auf Medien wie SD Karten oder SSDs. Balena stand lang in der Kritik wegen dem sammeln von Benutzerdaten, hat diese Praktiken jedoch jetzt vollständig entfernt und transparent gemacht. Da der Etcher so einfach zu bedienen ist, können wir diesen auch wieder bedingungslos empfehlen.
Balena Etcher könnt Ihr hier für Eures Betriebssystem herunterladen.
.img.gz Image aus
Option B: Mit dem Terminal (dd) für Linux oder Mac.
gunzip raspiblitz-*.img.gz
sudo dd if=raspiblitz-*.img of=/dev/sdX bs=4M status=progress conv=fsync
Ersetzt /dev/sdX mit dem Pfad deiner SD-Karte – nicht Eure Systemplatte!
Steckt die frisch beschriebene SD-Karte wieder in den Slot Eures yourdevice-RaspiBlitz-Geräts. Achte auf die richtige Richtung! Klappt das Gerät wieder vorsichtig zu und bringt die 4 Schrauben wieder an. Nur handfest anziehen!
🔐 Eure Channels, Funds und Settings bleiben erhalten, da sie auf der SSD liegen und automatisch eingebunden werden.
Prüfe die Version mit:
status

Prüft Services wie RTL, ThunderHub oder andere Plugins auf ihre Funktion.
Ihr habt nun euren Raspiblitz erfolgreich geupdated. Dies ist von Zeit zu Zeit wichtig, da neue Versionen mit Verbesserungen und neuen Funktionen kommen. Ausserdem wird das System auf den neusten Stand gebracht. Es empfiehlt sich nicht mehr wie neuere 3 Versionen auszulassen.
The post Anleitung: RaspiBlitz auf die neueste Version aktualisieren appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Unterwegs sicher und stabil arbeiten mit SSHFS appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Zu Hause im eigenen Netzwerk ist NFS oft die erste Wahl: Es arbeitet effizient, bringt wenig Overhead mit, hat geringe Latenzen und ist besonders schnell beim Zugriff auf große und viele kleine Dateien.
Unterwegs hingegen ist NFS weniger geeignet – es reagiert empfindlich auf hohe Latenzen, wechselnde IPs und selbst kurze Verbindungsabbrüche können dazu führen, dass das Dateisystem nicht mehr reagiert oder sogar blockiert. Hier kommt SSHFS in Spiel, ein Protokoll das Euch als Roadwarrior das Leben um einiges leichter machen wird.

SSHFS (SSH File System) erlaubt es, ein Verzeichnis auf einem Remote-Server über eine bestehende SSH-Verbindung ins lokale Dateisystem einzubinden – und das verschlüsselt, firewallfreundlich und benutzerbasiert. Das funktioniert sogar, ohne root-Rechte auf dem Server oder dem Client zu benötigen.
Ihr braucht nur:
sshfs-Software lokal installiertEin simples Beispiel für einen Connect mit einem Client.
sshfs -o reconnect,ServerAliveInterval=15,ServerAliveCountMax=3,compression=yes [email protected]:/pfad/auf/dem/server /mnt/lokaler_ordner
SSH nutzt Port 22 – und der ist fast überall offen. NFS hingegen benötigt mehrere Ports (111, 2049, dynamische RPC-Ports), die in Hotels, Firmenfirewalls oder Mobilfunknetzen blockiert sind. Selbst mit Workarounds wie Port-Forwarding wird NFS schnell zur Frickelei.
NFS ist sehr empfindlich bei Verbindungsabbrüchen. Wenn die Verbindung einmal kurz hängt, frieren Prozesse ein, es entstehen I/O-Fehler, und schlimmstenfalls geht gar nichts mehr – besonders bei NFSv3. SSHFS hingegen erkennt einen Verbindungsverlust meist sauber und kann (wenn richtig konfiguriert) automatisch wieder verbinden.
Deshalb in der Praxis extrem wichtig:
-o reconnect,ServerAliveInterval=15,ServerAliveCountMax=3
Das sorgt dafür, dass SSH regelmäßig prüft, ob die Verbindung noch lebt, und automatisch neu verbindet, falls sie verloren geht.
NFSv3 überträgt alles im Klartext. NFSv4 kann mit Kerberos abgesichert werden, aber das ist kompliziert und auf mobilen Geräten kaum praxistauglich. NFS sollte also IMMER über einen VPN Tunnel genutzt werden, falls der Server nicht im eigenen Netzwerk liegt. SSHFS hingegen nutzt die starke Verschlüsselung von OpenSSH – inklusive moderner Schlüsselverfahren (z. B. ed25519) und Zwei-Faktor-Authentifizierung.
Ein typischer SSHFS-Mount dauert Sekunden – kein Serverkonfig, kein Exportfile, keine UID-Mapping-Probleme. Ihr mountet einfach, was Ihr braucht, und fertig. Für Roadwarriors, die flexibel bleiben wollen, ist das ein echter Vorteil.
SSH funktioniert auch durch NAT, mit Jump Hosts, über Bastion-Server oder über Port 443 getunnelt. NFS hingegen erwartet ein offenes, vertrauenswürdiges Netzwerk. In der realen Welt von mobilen Hotspots und Hotel-WLANs ist das einfach nicht praktikabel.
Hier sind zwei vollständige SSHFS-Setupbeispiele mit Public-Key-Authentifizierung – eines über WireGuard, das andere über das öffentliche Internet via Port 22 und NAT.
Beide Varianten sind ideal für Roadwarriors, aber unterscheiden sich im Hinblick auf Sicherheit, Geschwindigkeit und Komplexität.
Ziel: Sicherer Zugriff auf einen entfernten Server über ein privates VPN-Netzwerk. SSHFS wird über WireGuard getunnelt. Ihr braucht keine offenen SSH Ports nach außen – perfekt für Heimserver oder Officeserver hinter NAT.
wg0-Interface vorhanden)./mnt/lokaler_ordner, kann aber auch /home/benutzername/storage_server sein oder ähnliches.# 1. Stellt sicher, dass WireGuard aktiv ist
sudo wg-quick up wg0
# 2. SSHFS-Mount
sshfs -o reconnect,ServerAliveInterval=15,ServerAliveCountMax=3,compression=yes,follow_symlinks \
user@server_ip:/pfad/auf/eurem/server /mnt/lokaler_ordner
server_ip: am besten immer die lokale Netzwerk IP des Servers und nicht die Wireguard Interface IP, ansonsten klappt der Zugriff dann im eigenen LAN Netzwerk dann zuhause nicht mehr. /mnt/lokaler_mnt_ordner: Lokales Mount-ZielZiel: Direktzugriff auf den Server über das Internet. Ideal für VPS oder Heimserver mit Portweiterleitung (z. B. WAN:22 → LAN:22). Kein VPN Overhead.
22 auf 192.168.1.100:22 (Server-IP)/mnt/lokaler_ordner, kann aber auch /home/benutzername/storage_server sein oder ähnliches.sshfs -o reconnect,ServerAliveInterval=15,ServerAliveCountMax=3,compression=yes,follow_symlinks \ [email protected]:/pfad/auf/dem/server /mnt/lokaler_ordner
yourdomain.dyndns.org: DDNS-Hostname oder feste IPFalls noch nicht geschehen:
sudo nano /etc/ssh/sshd_config Folgendes sicherstellen: PasswordAuthentication no PubkeyAuthentication yes Danach: sudo systemctl restart sshvia ssh-copy-idHier muss das Benutzerverzeichnis der Benutzer zuerst aktiviert werden, damit ihr euch mit Public-Keys authentifizieren könnt. Danach könnt ihr wie im Artikel beschrieben, für die jeweiligen Nutzer eure Public-Keys hinterlegen.
Ausserdem empfiehlt es sich auch bei der Synology keine Passwörter zu akzeptieren, falls ihr auf diese ohne Wireguard bzw. ohne VPN zugreift:
Server-Konfig anpassen: sudo nano /etc/ssh/sshd_config Folgendes sicherstellen: PasswordAuthentication no PubkeyAuthentication yes
Danach: sudo synoservicectl --reload sshd
Die Befehle in den Beispielen sind manuelle Befehle um die Verbindung einzuleiten. Wer nicht jedesmal die Verbindung einleiten will, trägt sich die Mount Points in die /etc/fstab ein. Öffnet diese mit sudo nano /etc/fstab und tragt folgenden Befehl ein:
[email protected]:/pfad/auf/dem/remote-server /mnt/lokaler_ordner fuse.sshfs noauto,x-systemd.automount,_netdev,reconnect,ServerAliveInterval=15,ServerAliveCountMax=3,compression=yes,follow_symlinks 0 0
Ihr könnt eine DynDNS Domain, oder auch eine Fixe IP verwenden. Der user ist natürlich der User auf dem Server, mit dem ihr euch einloggen wollt.
| Option(en) | Bedeutung |
|---|---|
fuse.sshfs | Dateisystemtyp für SSHFS |
noauto | Wird nicht direkt beim Booten gemountet |
x-systemd.automount | Erst gemountet bei Zugriff auf den Pfad (/mnt/lokaler_ordner) |
_netdev | Sagt dem System: „Braucht Netzwerk“ (wartet also auf Netz) |
IdentityFile=… | Optional: Pfad zum privaten SSH-Schlüssel |
port=2222 | Optional: Wenn Ihr SSH über einen anderen Port erreichen wollt. |
reconnect | Verbindet sich neu, wenn Verbindung verloren geht |
ServerAliveInterval=15 | Halteverbindung: alle 15 Sekunden ein Ping |
ServerAliveCountMax=3 | Nach 3 fehlgeschlagenen Pings: Verbindung wird geschlossen |
compression=yes | Spart Bandbreite bei schwachen Leitungen |
follow_symlinks | Erlaubt symbolische Links auf dem Server |
0 0 | Kein Backup, kein fsck erforderlich |
Falls die Clients noch nicht mit dem Server verbunden waren, empfiehlt es sich, vorher den Server in die known_hosts einzutragen:
ssh-keyscan -H server_oder_nas_ip >> ~/.ssh/known_hosts
Ansonsten funktioniert der fstab Eintrag nicht, da bei jeder neuen SSH Verbindung dem remote_server ja zuerst vertraut werden muss.
Wenn Ihr Wert auf maximale Sicherheit und Performance legt, ist WireGuard + SSHFS die beste Lösung:
Falls Ihr aber keine Möglichkeit habt, ein VPN zu nutzen, ist der direkte Zugriff via SSHFS über NAT absolut solide – vor allem mit einem abgesicherten SSH-Setup (z. B. Fail2Ban, Public-Key-only, restriktive Firewall).
Wenn Ihr oft unterwegs seid und aus wechselnden Netzen heraus sicher auf deine Serverdateien zugreifen wollt, ist SSHFS die bessere Wahl. NFS ist ein Arbeitstier im LAN – aber im wilden Westen der mobilen Netzwerke ist SSHFS stabiler, sicherer und deutlich angenehmer in der Praxis. Wir hoffen der Beitrag "Sicher und überall stabil arbeiten mit SSHFS" hat euch gefallen und Euch Euren Road Warrio Alltag etwas leichter gemacht!
The post Unterwegs sicher und stabil arbeiten mit SSHFS appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Google Konto auf Linux Mint, hat Google zugriff auf meine Daten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>„Wenn ich mein Google-Konto auf dem System einbinde – sieht Google dann meine privaten Mails oder Kalender?“
Die Antwort lautet:
Nein – sofern Ihr einige Grundregeln beachtet.

In den Systemeinstellungen → Online-Konten, der Kalender App oder Thunderbird kann man unter Linux Mint (insbesondere mit Cinnamon oder GNOME) ein Google-Konto hinzufügen. Das ermöglicht:
Aber wichtig: Ihr gebt dem System Zugriff auf diese Google-Dienste – nicht umgekehrt!
Nein.
Nein.
Google kann nur das sehen, was Ihr aktiv mit dem Google-Konto synchronisiert. Konkrete Fälle, in denen Ihr versehentlich Daten preisgeben würdet:
| Aktion | Was passiert |
|---|---|
| Einen Termin im falschen Kalender eintragen | Wenn Ihr z. B. aus Versehen den Google-Kalender auswählt statt „Lokal“, wird der Termin mit Google synchronisiert. |
Lokale Kalender per Tool (z. B. vdirsyncer) mit Google verbinden | Damit gebt Ihr aktiv Daten an Google weiter. |
| Thunderbird-Weiterleitungen oder Add-ons nutzen, die Daten an Google senden | Manuell eingerichtete Weiterleitungen können Mails zwischen Konten übertragen. |
Aber: Standardmäßig passiert nichts davon.
Wenn Ihr sicherstellen wollt, dass Eure beruflichen Google-Daten und Eure privaten Daten sauber getrennt bleiben:
google.com und posteo.de.| Dienst | Hat Google Zugriff auf lokale Daten? | Voraussetzung für Zugriff |
|---|---|---|
| Kalender-App unter Linux Mint | ❌ Nein | Nur wenn Ihr Daten aktiv im Google-Kalender speichert |
| Thunderbird | ❌ Nein | Nur auf das Google-Konto, das Ihr eingerichtet habt |
| Kontakte | ❌ Nein | Nur bei expliziter Synchronisation mit Google |
| Drive-Dateien | ❌ Nein | Lokale Dateien bleiben lokal, außer Ihr ladet sie selbst hoch |
Auch wenn Ihr keine Inhalte teilt, kann Google metadatenbasiert folgende Informationen erfassen:
Wichtig:
Google erhält keinen Zugriff auf Eure lokalen Dateien, privaten Kalender oder Mails – aber es kann trotzdem ein Profil Eures Verhaltens und Eurer Zugriffe erstellt werden – rein aus Metadaten.
Wenn Ihr das einschränken wollt: Nutzt vertrauenswürdige VPNs (schützt nur die IP Adresse, die anderen Metadaten werden trotzdem übertragen), minimalen OAuth-Zugriff (nur Kalender z. B.), und meide automatische Sync-Dienste.
Auch wenn Ihr beruflich mit Google arbeiten müsst:
Eure privaten Daten bleiben sicher – solange Ihr sie nicht selbst ins Google-Ökosystem überträgt.
Mit etwas Achtsamkeit und der richtigen Konfiguration könnt Ihr Google nur so viel geben, wie unbedingt nötig – und kein Byte mehr. Wir hoffen der Beitrag "Google Konto auf Linux Mint, hat Google zugriff auf meine Daten" hat Euch gefallen und etwas mit Unklarheiten aufgeräumt.
The post Google Konto auf Linux Mint, hat Google zugriff auf meine Daten appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Twitter / X ohne Account nutzen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Doch das ist nicht das einzige Problem!
Kurz: Twitter ist kein öffentlich zugänglicher Informationskanal mehr, sondern ein geschlossener Werbemoloch, mit Loginpflicht und Permatrackern!
Gerade für Menschen, die nur lesen oder Informationen verfolgen wollen – etwa Journalistinnen, Open-Source-Interessierte oder Aktivistinnen – wird das zunehmend frustrierend.
Doch es gibt eine Lösung: Nitter.
Nitter ist ein datenschutzfreundliches Frontend für Twitter, das es ermöglicht, öffentliche Tweets zu lesen ohne JavaScript, ohne Werbung und ohne Account. Es fungiert quasi als eine Art Proxy, der Twitter-Inhalte abrufbar macht, ohne dass Ihr dabei von Twitter selbst getrackt werdet.
Beachted aber: Nitter ist ein reines Lesefrontend. Tweets und Kommentare könnt ihr weiterhin nicht absetzen.
Die Vorteile von Nitter im Überblick:
Nitter zeigt zwar Twitter-Profile, aber es gibt keine Möglichkeit, dort eine Liste an abonnierten Nutzern zu pflegen wie auf Twitter selbst.
Da jede Nitter-Seite auch einen RSS-Feed bereitstellt, könnt Ihr ganz einfach euren bevorzugten RSS-Reader verwenden, um Twitter-Nutzer „zu abonnieren“ – ohne Twitter oder die App selbst zu benutzen.
Verwendet am besten eine zuverlässige Nitter-Instanz. Zum Beispiel:
Beispiel:
Der Twitter-Nutzer jack →
https://nitter.yourdevice.ch/jack
Einfach an die URL rss anhängen:
📡 https://nitter.yourdevice.ch/jack/rss
oder den Link des RSS Buttons kopieren mit einem Rechtsklick darauf:

Wichtig: RSS funktioniert nur, wenn das Profil öffentlich ist.
Auf dem Desktop:
📚 Fluent Reader
(Open Source, für Windows, macOS, Linux – sehr modern)
Auf Android:
📱 Feeder
(Open Source, keine Werbung, Feed-Import möglich)
Einfach einen neuen Feed abonnonieren und den Nitter-RSS-Link einfügen – fertig. Ab sofort bekommt Ihr neue Tweets im Reader angezeigt.
Beispielanwendung: @coinfinity abonnieren
Damit ihr eure Twitter Feeds sauber und übersichtlich von den anderen trennen könnt und die Abo Funktion nachahmen könnt, empfiehlt es sich eine eigene Twitter Kategorie zu erstellen und alle Twitter Abos da rein zu packen. Exemplarisch mit Fluent Reader:
Feed Hinzufügen und danach im Tab Gruppen in die Grupper Twitter / X einfügen:

Danach habt ihr Eure Twitter Abos an einer Stelle:

Die Zeiten, in denen man Twitter einfach wie eine öffentliche Nachrichtenplattform nutzen konnte, sind vorbei. Heute braucht Ihr einen Account, werdet getrackt, mit Werbung bombardiert und durch JavaScript und App-Zwang zunehmend eingeschränkt.
Doch mit Nitter in Kombination mit einem RSS-Reader Eurer Wahl könnt ihr dir die ursprüngliche Stärke von Twitter zurückholen – nämlich öffentliche Kurznachrichten in Echtzeit, ohne Schnickschnack und ohne wilden Algos die Euch "vorschlagen" was ihr lesen sollt.
Ihr könnt:
Ob Ihr anonymer Leser, Journalist, Entwickler, Aktivist oder einfach nur datenschutzbewusst seid – mit dieser Lösung bekommt ihr die Inhalte ohne die Plattform, und genau das ist heute ein wertvoller digitaler Luxus.
Mein Tipp: Erstellt Euch in Eurem RSS-Reader ein eigenes Twitter-Dashboard aus deinen Lieblingsprofilen – und genieße die Ruhe eines werbefreien, nicht manipulativen Feeds.
So wird aus dem Chaos von "X" wieder ein nützlicher Informationskanal – auf Eure Bedingungen.
Habt ihr interesse an weiteren privatfreundlichen Dienstleistungen, schaut mal hier vorbei:
https://yourdevice.ch/unsere-server-fuer-mehr-privatspaehre/
The post Twitter / X ohne Account nutzen appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Nitter Instanz appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Mit nitter.yourdevice.ch und dem Nitter Frontend bieten wir euch ab sofort eine datenschutzfreundliche Möglichkeit, Twitter Inhalte zu konsumieren – ganz ohne Anmeldung, Cookies, JavaScript, Werbung, Tracking oder Verbindung zu Twitter selbst. Nitter ist ein leichtgewichtiges, quelloffenes Frontend für Twitter, das alle Inhalte anonym über unseren Server lädt. Das beste daran? ihr benötigt keinen Account um auf die Inhalte zugreifen zu können!
Es ist unmöglich, Twitter ohne aktiviertes JavaScript zu nutzen – und seit 2024 ist sogar eine Anmeldung erforderlich. Für datenschutzbewusste Nutzer ist es jedoch wichtig, sich vor JavaScript-Analysen und IP-basiertem Tracking zu schützen. Abgesehen von VPNs und Tools wie uBlock oder uMatrix ist das kaum möglich. Selbst mit VPN und aggressiven Werbeblockern kann man über den Browser-Fingerabdruck ziemlich genau verfolgt werden – ganz ohne JavaScript.
Gerade seitdem Twitter die Möglichkeit entfernt hat, selbst zu entscheiden, ob Nutzerdaten an Werbetreibende übermittelt werden, ist Datenschutz noch schwieriger geworden.
Durch die Nutzung einer Nitter-Instanz (z. B. gehostet auf einem eigenen VPS) kannst du Twitter komplett ohne JavaScript durchsuchen – und dabei deine Privatsphäre wahren. Neben dem Schutz deiner Daten ist Nitter im Schnitt etwa 15-mal ressourcenschonender als Twitter und lädt Seiten, insbesondere Timelines, in der Regel 2–4 Mal schneller.
In Zukunft soll ein einfaches Account-System eingeführt werden, das es dir erlaubt, Twitter-Nutzern zu folgen – für eine saubere, chronologische Timeline, ganz ohne Twitter-Account.
Wenn du möchtest, dass alle Twitter-Links automatisch auf Nitter umgeleitet werden, kannst du eine Browser-Erweiterung nutzen:
Einmal installiert, wirst du beim Klick auf einen Twitter-Link automatisch zu nitter.yourdevice.ch weitergeleitet – ganz ohne Umdenken. Legt einfach nitter.yourdevice.ch in der Browser Extention unter Twitter/X fest:

📍 Probiere es gleich aus:
➡️ nitter.yourdevice.ch
Verfolge Inhalte, ohne verfolgt zu werden – mit Nitter von yourdevice.ch.
Gefällt euch der Service? Schaut hier vorbei für weitere gratis Dienstleistung.
The post Nitter Instanz appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Linkwarden appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Wir freuen uns, euch mit Linkwarden einen weiteren freien und selbst gehosteten Dienst auf yourdevice.ch anbieten zu können – perfekt für alle, die ihre Online-Ressourcen dauerhaft, organisiert und vor allem privat speichern möchten.
Linkwarden ist ein leistungsstarkes, quelloffenes Tool zur Verwaltung und Archivierung von Bookmarks (Lesezeichen). Im Gegensatz zu browserbasierten Favoriten oder Cloud-Diensten wie Google Bookmarks oder Pocket bleibt bei Linkwarden alles unter deiner Kontrolle – ohne Tracking, Werbung oder Datenweitergabe.
Mit wenigen Klicks kannst du Webseiten als Bookmark speichern, automatisch eine dauerhafte Kopie der Inhalte anlegen und deine Links sauber in Ordner und Kategorien sortieren. Ideal für Recherche, Projektarbeit, Blogging oder einfach zum Merken interessanter Artikel.
Besonders praktisch: Mit der offiziellen Browser-Erweiterung für Firefox und Chromium kannst du beim Surfen jederzeit per Klick Webseiten speichern – inklusive Titel, Screenshot und optionaler Notizen. Ideal für Recherchen, Projekte und alle, die die Kontrolle über ihre Links behalten wollen.
Unser Linkwarden läuft auf einem eigenen Server in der Schweiz und unterliegt somit strengen Datenschutzbestimmungen. Keine Anbindung an US-Clouds, keine Drittanbieter-Skripte, kein Google Analytics.
🔗 Teste Linkwarden jetzt auf linkwarden.yourdevice.ch – melde dich an und sichere dir deine persönliche Lesezeichenzentrale!
Findest du "Linkwarden, die datenschutzfreundliche Lösung zur Lesezeichen Verwaltung" cool? Weitere Free Services findest du hier!
The post Linkwarden appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Android: Die Fassade der Offenheit bröckelt appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>
Ursprünglich galt Android als das Gegenstück zu Apples geschlossenem iOS-Ökosystem. Der Quellcode war über das Android Open Source Project (AOSP) öffentlich einsehbar, was Entwicklern und Moddern weltweit die Möglichkeit gab, eigene Varianten zu erstellen – sei es in Form von Custom ROMs wie LineageOS, /e/OS oder später GrapheneOS, das sich auf Sicherheit und Privatsphäre spezialisiert hat.
Die Realität sah aber schon immer anders aus: AOSP bildet zwar den technischen Kern von Android, doch entscheidende Komponenten – insbesondere jene, die für den normalen Betrieb eines modernen Smartphones unerlässlich sind – wurden frühzeitig ausgegliedert und durch proprietäre Google-Software ersetzt. Dazu gehören vor allem die Google Play Services, die tief in die Funktionsweise des Systems eingreifen: Standortdienste, Push-Benachrichtigungen, App-Kompatibilität – all das hängt zunehmend von dieser Blackbox ab.
Damit ist Android längst kein „offenes Betriebssystem“ im eigentlichen Sinne mehr, sondern ein durch Google kontrolliertes Softwarepaket mit einer offenen Hülle. Ohne die Google-Dienste ist ein Großteil der Apps im Play Store nicht funktionsfähig. AOSP selbst ist im Prinzip nur noch ein minimalistischer Baukasten, der von Projekten wie GrapheneOS oder CalyxOS mühselig zu einem nutzbaren System ergänzt werden muss – oft mit erheblichem Aufwand.
Das Android Open Source Project (AOSP) ist der öffentlich zugängliche Quellcode von Android. Es bildet das technische Fundament des Betriebssystems – bestehend aus dem Linux-Kernel, Systembibliotheken, grundlegenden Android-Diensten und einer Oberfläche. Der Gedanke dahinter war, Herstellern und Entwicklern eine freie, flexible Plattform zu bieten, auf der sie eigene Android-Varianten aufbauen können.

Doch AOSP enthält nicht alles: Es fehlen sämtliche Google-Apps (Gmail, Maps, Play Store usw.) sowie die tief integrierten Google Play Services, die heute für Push-Benachrichtigungen, Standortdienste, App-Kompatibilität und viele Sicherheitsfunktionen entscheidend sind. Dadurch ist AOSP für den Endnutzer nur ein Gerüst – funktional, aber stark eingeschränkt. Projekte wie LineageOS, CalyxOS oder GrapheneOS bauen auf AOSP auf und ergänzen es mit eigenen oder freien Alternativen, doch der Aufwand ist groß.
Auch der Entwicklungsprozess war nie wirklich offen. Zwar wurde der Quellcode regelmäßig aktualisiert, doch echte Mitgestaltung war für Außenstehende nicht vorgesehen. Die „Open Handset Alliance“, unter deren Dach Android ursprünglich entstand, klingt zwar wie ein pluralistisches Gremium, war aber von Beginn an fest in Googles Hand. Wer dort mitarbeiten wollte, musste sich strikten Bedingungen unterwerfen – etwa dem Verzicht auf alternative Android-Forks.
Bisher war wenigstens der Code selbst nach Fertigstellung verfügbar – mit etwas Verzögerung zwar, aber doch offen einsehbar. Doch das wird sich nun ändern: Wie kürzlich bekannt wurde, will Google künftig den Entwicklungsprozess von Android weitgehend hinter verschlossenen Türen abwickeln. Das bedeutet: Die Community sieht nicht mehr, wie Android entsteht, sondern erhält nur noch das fertige Produkt, wenn es „ausentwickelt“ ist.
Begründet wird dieser Schritt mit angeblicher Effizienzsteigerung. In Wahrheit ist es wohl ein weiterer Versuch, Kontrolle zu sichern – vor allem darüber, welche Komponenten Android wirklich ausmachen und welche Alternativen es (nicht mehr) geben soll.
Ein interessanter Vergleich ist Apples macOS: Der technische Unterbau namens Darwin ist ebenfalls Open Source – doch er ist ohne Apples proprietäre Bestandteile nicht benutzbar. Kein Fenster-Manager, keine Apps, kein App Store. Nur ein fragmentiertes Skelett, mit dem man wenig anfangen kann. Google scheint mit Android denselben Weg zu gehen: AOSP wird langfristig ebenfalls zu einer Art „Darwin für Smartphones“ – nutzlos ohne die firmeneigenen Zusatzdienste.
Die mobile Plattform ist ein hart umkämpftes Feld, das schnelle Entwicklungszyklen, Gerätevielfalt und hohe Nutzererwartungen mit sich bringt. Die Linux-Community, die sich durch Dezentralität, Freiwilligenarbeit und häufige Forks auszeichnet, ist dieser Dynamik strukturell kaum gewachsen. Die Energie, die in Parallelentwicklungen und inkompatible Ansätze fließt, fehlt oft bei der Schaffung einer schlagkräftigen gemeinsamen Plattform.

Projekte wie Plasma Mobile oder PostmarketOS zeigen zwar, dass Linux prinzipiell auch auf mobilen Geräten lauffähig sein kann – doch sie kommen über einen experimentellen Status kaum hinaus. Und da die Treiber meist nur als Binärblobs vom jeweiligen Hersteller bereitgestellt werden, ist selbst der Linux-Kernel auf Mobilgeräten selten wirklich frei.
Bleibt die Hoffnung, dass Projekte wie GrapheneOS oder CalyxOS weiterhin in der Lage sind, die Lücken zu füllen, die Google mit jeder weiteren Schließung des Android-Ökosystems aufreißt. Ihre Entwickler sind auf ständige Reverse Engineering-Arbeit angewiesen und müssen oft reaktiv auf Änderungen reagieren, ohne echte Einblicke in die geplanten Schritte Googles zu haben.
Der offene Quellcode ist – noch – einsehbar. Doch wie lange das noch der Fall ist, lässt sich nicht abschätzen. Die Richtung ist klar: mehr Kontrolle, weniger Transparenz. Für die Nutzer wird damit die Frage drängender, ob sie dem „offenen Android“ weiterhin vertrauen können – oder ob sie sich nach echten Alternativen umsehen sollten, auch wenn diese unbequem und experimentell erscheinen.
The post Android: Die Fassade der Offenheit bröckelt appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Sicher downloaden auf Github mit ASC Verifizierung appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>Genau dafür gibt es ASC-Signaturen.
Wenn Ihr sicherstellen wollt, dass eine Datei tatsächlich vom Entwickler stammt und unterwegs nicht von irgendwem verändert wurde, führt kein Weg an der ASC-Verifizierung vorbei.
Und das Schöne: Unter Linux ist das gar kein großer Aufwand – und sogar auf Android gibt’s Möglichkeiten, falls man wirklich ganz sicher gehen will.
Im Beitrag "Sicher downloaden auf Github mit ASC Verifizierung" schauen wir uns an:
Keine trockene Theorie, sondern praxisnah und direkt anwendbar – damit Ihr beim nächsten Download auf GitHub wirklich auf der sicheren Seite seid.

Eine .asc-Datei ist nichts anderes als eine digitale Signaturdatei, die mit GPG (GnuPG, GNU Privacy Guard) erstellt wurde.
Kurz gesagt:
Das bedeutet: Mit einer ASC-Signatur stellt Ihr sicher, dass die Datei echt und unverändert ist.
Kein Hacker hat sich dazwischengehängt, keine Malware wurde eingeschleust.
Kurzform:
🔒 ASC = Digitale Echtheits- und Integritätsprüfung für Dateien.
Ganz einfach:
Gerade bei wichtigen Tools (z.B. Wallets, VPN-Software, Sicherheitsanwendungen, Crypto-Tools) sollte man immer die Signaturen prüfen!
Wir schauen uns 2 Varianten an:
publickey.asc oder im Profil verlinkt).gpg --import publickey.asc
Oder von einem Keyserver:
gpg --keyserver keyserver.ubuntu.com --recv-keys
(Die Schlüssel-ID ist eine lange Hex-Zeichenkette wie 0x1234ABCD5678EF90.)

Nehmen wir an, Ihr wollt programm.tar.gz herunterladen.
Oft gibt es dann zusätzlich programm.tar.gz.asc.
wget https://github.com/benutzer/projekt/releases/download/v1.0.0/programm.tar.gz
wget https://github.com/benutzer/projekt/releases/download/v1.0.0/programm.tar.gz.asc
Jetzt prüft Ihr die Datei mit:
gpg --verify programm.tar.gz.asc programm.tar.gz
Wenn alles passt, zeigt GPG eine Meldung an wie:
gpg: Signatur vom Fr 26 Apr 2025 14:00:00 CEST
gpg: mittels RSA-Schlüssel 1234ABCD5678EF90
gpg: Gute Signatur von "Entwicklername [email protected]"
Wenn etwas nicht stimmt (z.B. Datei verändert oder falscher Schlüssel), bekommt Ihr eine fette Warnung.
Viele Projekte, zum Beispiel LND (Lightning Network Daemon), verifizieren nicht jede Datei einzeln, sondern ein komplettes Manifest.
Das Manifest listet die Dateien und ihre Prüfsummen auf – und dieses Manifest wird signiert.
Öffentlichen Schlüssel importieren:
curl https://raw.githubusercontent.com/lightningnetwork/lnd/master/scripts/keys/roasbeef.asc | gpg --import
Manifest und Manifest-Signatur herunterladen:
Hier ein Beispiel:
manifest-v0.19.0-beta.rc3.txt (das Manifest)manifest-roasbeef-v0.19.0-beta.rc3.sig (die Signatur des Manifests)
wget https://github.com/lightningnetwork/lnd/releases/download/v0.19.0-beta.rc3/manifest-v0.19.0-beta.rc3.txt
wget https://github.com/lightningnetwork/lnd/releases/download/v0.19.0-beta.rc3/manifest-roasbeef-v0.19.0-beta.rc3.sig
Manifest-Signatur verifizieren:
gpg --verify manifest-roasbeef-v0.19.0-beta.rc3.sig manifest-v0.19.0-beta.rc3.txt
Ausgabe prüfen:
Wenn alles passt, seht Ihr:
gpg: Signature made Thu Apr 24 13:37:59 2025 PDT
gpg: using EDDSA key 296212681AADF05656A2CDEE90525F7DEEE0AD86
gpg: Good signature from "Olaoluwa Osuntokun <[email protected]>" [ultimate]
Wichtig:
Damit habt Ihr nicht eine einzelne Datei, sondern gleich alle zugehörigen Dateien indirekt geprüft, weil sie im Manifest aufgelistet sind.
Die Integrität der gesamten Release (Binary, Checksums, Dokumentation) wird so mit einem einzigen Schritt abgesichert.
NICHT installieren!
Erst mal prüfen:
Jein.
Android selbst (also das System) bringt keine eingebaute GPG-Unterstützung mit.
Aber es gibt Apps, mit denen ihr GPG verwenden könnt:
gnupg, und Du hast quasi ein Mini-Linux auf dem Handy:pkg install gnupg
Damit könntest Du dann wie unter Linux vorgehen.
Das wäre der "saubere" Weg.
Praxis-Tipp:
Die meisten normalen Nutzer verifizieren Downloads lieber am PC oder Laptop, weil es komfortabler und sicherer ist.
Aber ja: Mit OpenKeychain oder Termux geht es auch auf Android.
Wenn Ihr noch einen Schritt weitergehen wollt und zusätzlich zur Signatur auch die Datei selbst überprüfen möchtet, dann schaut Euch unbedingt diesen Beitrag an.
Darin erkläre wir ganz genau, wie ihr Checksummen überprüft – also MD5, SHA256 und Co. – und warum das eine perfekte Ergänzung zur ASC- oder Manifest-Verifizierung ist.
ASC-Verifizierung ist ein einfacher, aber extrem wichtiger Schritt, um Eure Sicherheit beim Download von GitHub oder anderen Quellen massiv zu erhöhen.
Gerade auf Linux ist die Verifikation unkompliziert und sollte wirklich zur Routine gehören – genau wie das Prüfen von https-Zertifikaten beim Surfen.
Auf Android ist es möglich, aber nicht ganz so komfortabel. Hier lohnt sich Termux oder OpenKeychain, wenn man unterwegs ebenfalls auf Nummer sicher gehen will.
Merkt:
"Vertrauen ist gut, Verifizieren ist besser!"
Wir hoffen der Beitrag "Sicher downloaden auf Github mit ASC Verifizierung" hat euch gefallen, und hilft Euch, Eures Arbeiten Im Internet weiter abzusichern.
The post Sicher downloaden auf Github mit ASC Verifizierung appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>The post Sudo Befehle mit Yubikey unter Ubuntu, Mint und Debian absichern appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>sudo dienen. Damit wird verhindert, dass jemand mit reinem Passwort-Zugriff root-Rechte erhält – selbst wenn das Passwort bekannt ist. Im Folgenden zeige ich dir, wie du den YubiKey so einrichtest, dass er bei sudo-Befehlen abgefragt wird. In diesem Beitrag haben wir uns angeschaut, wir den Login absichern, jetzt schauen wir uns an, wie wir Systemdateien zusätzlich absichern.

sudo-Rechte (bzw. root bei Debian).Der Yubikey wird vorher eingerichtet und die Schlüssel unter /etc/Yubico/u2f_keys abgespeichert. Folgt dazu den ersten Teil des Yubikey Tutorials hier.
Damit wir für Änderungen an Systemdateien uns mit dem Yubikey authentifzieren müssen, passen wir die entsprechende Datei an. Wir öffnen die /etc/pam.d/sudo mit
sudo nano /etc/pam.d/sudo
Fügt direkt nach dieser Zeile @include common-auth
auth required pam_u2f.so authfile=/etc/Yubico/u2f_keys

Speichert die Datei, beendet bzw. schliesst das Fenster noch nicht! Falls etwas falsch konfiguriert worden ist, kann es sein, dass ihr keine Systemdateien mehr ändern könnt. Deshalb lassen wir das Fenster offen, und kommentieren die Zeile wieder aus, falls etwas schief geht!
Jetzt kommt der spannende Moment:
sudo echo test
Ihr werdet nach dem Passwort gefragt – gebt es ein.
Erwartetes Verhalten: Die Authentifizierung schlägt fehl, da der YubiKey nicht gesteckt ist.
sudo echo test
Ihr werdet nach dem Passwort gefragt – und dann blinkt euer YubiKey.
Berührt den Sensor, wenn er blinkt.
Wenn der Befehl ausgeführt wird, ist die Konfiguration erfolgreich. 🎉
Falls es nicht klappt, kommentiert die Zeile
auth required pam_u2f.so authfile=/etc/Yubico/u2f_keys
wieder aus, und speichert die Datei wieder ab.
Unter Debian gibt es traditionell kein sudo Befehl. Hier loggt ich euch als Superuser ein und führt direkt Befehle als root aus. Deshalb müssen wir hier auch nicht die sudo Datei bearbeiten, sondern die su Datei:
sudo nano /etc/pam.d/su
Fügt hinter @include common-auth wieder die Zeile
auth required pam_u2f.so authfile=/etc/Yubico/u2f_keys
ein:

Auch hier gilt, speichert nur die Datei, schliesst das Terminal Fenster jedoch noch nicht!
Öffnet euch ein zweites Terminal Fenster und loggt euch mit su - ein. Mit angestecktem Yubikey wird der Zugriff dann mit einem Touch auf den Yubikey gewährt.
Könnt ihr sudo Befehle nicht ausführen, oder euch nicht als Superuser einloggen, gibt es ein paar Dinge, die wir uns anschauen können:
Ist die Datei /etc/Yubico/u2f_keys vorhanden und korrekt berechtigt?
ls -l /etc/Yubico/u2f_keys
→ Sie muss deinem Benutzer gehören oder lesbar sein für PAM, z. B. chmod 600.
Hast du die PAM-Zeile korrekt eingefügt? Die Zeile muss nach @include common-auth stehen und so aussehen:
auth required pam_u2f.so authfile=/etc/Yubico/u2f_keys
Wurde der YubiKey wirklich konfiguriert? Prüfe den Inhalt der Datei:
cat /etc/Yubico/u2f_keys
→ Sie darf nicht leer sein und sollte mit deinem Benutzernamen beginnen.
Blinkt der YubiKey bei Aufforderung? Wenn nicht, könnte ein Problem mit USB oder dem Slot bestehen. Teste mit pamu2fcfg erneut oder an einem anderen Port.
Ist der Speicherort des Schlüssels korrekt?
Wenn ihr den Pfad in der PAM-Konfiguration nicht explizit mit authfile= angebt, muss sich die Datei genau dort befinden – und zwar im Home-Verzeichnis des aktuellen Benutzers, der sudo ausführt.
Wenn ihr die Schlüsseldatei systemweit verwendet (z. B. unter /etc/Yubico/u2f_keys), müsst ihr in der PAM-Konfigurationszeile auch den Pfad angeben!
Mit dem YubiKey und dem PAM-U2F-Modul könnt ihr euer System effektiv absichern. Selbst wenn euer Passwort kompromittiert ist, kann niemand ohne physischen Zugriff auf deinen YubiKey administrative Befehle wie sudo oder su ausführen.
The post Sudo Befehle mit Yubikey unter Ubuntu, Mint und Debian absichern appeared first on yourdevice.ch - Deine Anlaufstelle für Linux, OpenSource Software und Co.
]]>