Des Hackers kleine Software-Helfer

2023, C3D2
Pentaradio
https://www.c3d2.de/radio.html

Mit Mole, Simon und Xyrill. Es gibt positive Nachrichten zu Reproducible Builds. Der Rest der Nachrichten ist genauso reproduzierbar: Systemausfälle, Datenverluste und Auswüchse des Plattformkapitalismus. Damit bei euch alles rund läuft, setzen wir unsere Reihe über “Hackers kleine Helfer” fort und empfehlen hilfreiche Software-Tools. Auf Basis der Live-Sendung vom 28. November 2023. # Shownotes ## Feedback Zu unserer Erwähnung von Thinkpads (speziell dem X270) als robustem Hacker-Tool gab es eine Diskussion im C3D2-MUC: > \<person1\> mir ist jetzt innerhalb von nicht mal einem jahr zweimal das mainboard meines thinkpad x270 abgeraucht. während des betriebs plötzlich ausgegangen und nicht wieder an... :cry: > \<person2\> zumindest das x260 hat wohl probleme mit flex-empfindlichen mainboards, zumindest bin ich bei der recherche was meines denn gekillt haben könnte auf haufen berichte dazu gestoßen. > \<person3\> Jap, bei mir auf Arbeit is das auch ein paar mal passiert... > \<person4\> Mein t490 von Arbeit hat auch schon das zweite Mainboard und zweite Display. Privat würde ich kein ThinkPad kaufen. > \<person5\> in meinem anfang diesen jahres gekaufen p14s rutscht das display herunter ## News * Updates zu Reproducible Builds * diesen Monat: [NixOS Minimal ISO erfolgreich reproduziert](https://discourse.nixos.org/t/nixos-reproducible-builds-minimal-installation-iso-successfully-independently-rebuilt/34756) * bereits im April: ["Full Source Bootstrap" in Guix](https://guix.gnu.org/en/blog/2023/the-full-source-bootstrap-building-from-source-all-the-way-down/) basierend auf einem einzelnen 357-Byte-Binary * siehe auch: [Reflections on Trusting Trust](https://dl.acm.org/doi/pdf/10.1145/358198.358210) * siehe auch: Status-Updates zu Reproducible Builds aus den Jahren [2021](https://media.ccc.de/v/470-reproducible-buster-bullseye-bookworm-where-we-come-from-and-where-we-are-going) und [2023](https://media.ccc.de/v/camp2023-57236-reproducible_builds_the_first_ten_years) * Resilienz-News: [Großausfall bei australischem ISP Optus führt zu Problemen im Einzelhandel](https://www.news.com.au/technology/online/businesses-across-australia-forced-to-make-changes-due-to-optus-outages/news-story/0241dfb6a094d68cc37c6ad6a3e84e07) * Und deswegen hat man immer einen Vorrat Bargeld dabei. * apropos Resilienz: [Google Drive erinnert uns, dass ein Cloud-Speicher kein verlässliches Backup ist](https://web.archive.org/web/20231127190046/support.google.com/drive/thread/245055606/google-drive-files-suddenly-disappeared-the-drive-literally-went-back-to-condition-in-may-2023?hl=en) * zu funktionierenden Backup-Strategien: [Pentaradio vom Juli 2020](https://c3d2.de/news/pentaradio24-20200728.html) * apropos Google: [Die Web Environment Integrity API ist tot, lang lebe die Android WebView Media Integrity API!](https://arstechnica.com/google/2023/11/google-kills-web-integrity-drm-for-the-web-still-wants-an-android-version/) * Play Services können bereits gerootete Telefone abweisen, wenn die App das will * geplant: Ausweitung auf Webseiten, die in Web-Views laufen * [Im Juli](https://c3d2.de/news/pentaradio24-20230725.html) hatten wir noch spekuliert, dass es hier um Adblock-Block geht. Mittlerweile zieht Google bei YouTube die Daumenschrauben an ([siehe auch](https://www.tomshardware.com/news/youtube-may-face-criminal-complaint-for-adblock-detecting)). * [Schönen XBox-Controller haben sie da... Wäre schade, wenn dem was zustößt.](https://www.windowscentral.com/gaming/xbox/xboxs-new-policy-say-goodbye-to-unofficial-accessories-after-november) * Zitat Microsoft: "The unauthorized accessory will be blocked from use to preserve the console gaming experience." * Übersetzung: "Nicht autorisiertes Zubehör wird für die Verwendung gesperrt, um das Spielerlebnis auf der Konsole zu schützen." * Landgericht Berlin: [LinkedIn muss DNT-Header als vollständigen Cookie-Opt-Out auffassen](https://www.vzbv.de/urteile/gericht-untersagt-datenschutzverstoesse-von-linkedin) * "LinkedIn hatte auf seiner Internetseite mitgeteilt, dass es auf solche DNT-Signale nicht reagiert. \[...] Das Landgericht Berlin schloss sich der Auffassung des vzbv an, dass die Mitteilung des Unternehmens irreführend war. Sie suggeriere, dass die Benutzung des DNT-Signals rechtlich irrelevant sei und die Beklagte ein solches Signal nicht zu beachten brauche. Das treffe nicht zu. Das Widerspruchsrecht gegen die Verarbeitung persönlicher Daten könne nach der Datenschutzgrundverordnung auch per automatisierten Verfahren ausgeübt werden. Ein DNT-Signal stelle einen wirksamen Widerspruch dar." * Wir erwarten sehnsüchtig, dass dieses Urteil rechtskräftig wird. * Linktipp: [Microsoft erklärt, wie man Linux installiert](https://learn.microsoft.com/en-us/linux/install) ## Musik * ["Trains", The Willing (2015)](https://freemusicarchive.org/music/The_Willing/Splendid_Gifts/01_-_The_Willing_-_Trains/) * ["Infinite Light", Pipe Choir (2016)](https://freemusicarchive.org/music/Pipe_Choir/Pipe_Choir/Infinite_Light/) ## Thema: Des Hackers kleine Software-Helfer - Versionsverwaltung: [Git](https://git-scm.com/) - siehe [Pentaradio vom Juli 2021](https://c3d2.de/news/pentaradio24-20210727.html) - im Gespräch erwähnt: [Webconverger](https://webconverger.org/) - Backup und Datentransfer - [rsync](https://rsync.samba.org/) (nur Spiegelung, kein Backup) - [restic](https://restic.net/) - [Duplicity](https://duplicity.gitlab.io/) - [Borg](https://borgbackup.github.io/) - [Robocopy](https://learn.microsoft.com/en-us/windows-server/administration/windows-commands/robocopy) auf Windows - [SeedVault](https://github.com/seedvault-app/seedvault) auf Android - [Nextcloud](https://nextcloud.com) - siehe [Pentaradio vom Juli 2020](https://c3d2.de/news/pentaradio24-20200728.html) - [Unix-Philosophie](https://xyrillian.de/noises/stp/006-kommandozeilen-und-unix-philosophie/) - [GNU Core Utilities](https://en.wikipedia.org/wiki/List_of_GNU_Core_Utilities_commands): cat, tail, head, tac, etc. - [busybox](https://www.busybox.net) - [rg](https://github.com/BurntSushi/ripgrep) - [moreutils](https://joeyh.name/code/moreutils/): sponge, ts, vidir und viele weitere - [btop](https://github.com/aristocratos/btop) (`nix run nixpkgs#btop` `apt install btop`) - API-Analyse: [jq](https://stedolan.github.io/jq/), [gron](https://github.com/tomnomnom/gron), [nuq](https://github.com/Nuckal777/nuq) - [libxml2 utilities](https://gitlab.gnome.org/GNOME/libxml2/-/wikis/home) Für die Bereiche Netzwerk und Dokumentenverwaltung hatten wir keine Zeit mehr; dies wird hoffentlich nachgeholt.

Edit Transcript Remove Highlighting Add Audio File
Export... ?

Begrüßung

https://c3d2.de/radio.html


[0:00] Guten Abend, hier ist das zu frühe Pentaradio. Was soll denn das?
Ja, keine Ahnung. Irgendwie wurde uns gesagt, dass wir heute schon 40 Sekunden extra kriegen.
Das ist hier Bonuszeit. Genau, da muss ich erst mal 40 Sekunden Blödsinn erzählen.
Ja, was ist die Tischhöhe da abgezogen? Die Tischhöhe ist 1,05 Meter heute.
105 Zentimeter, sehr gut. Das geht gleich auf in den Äther zum Mastodon.
Genau. Pentaradio at c3d2.social.
Also heute ist ja der 28.
November 2023 und genau ich begrüße in der Ferne zu uns geschaltet.
Den wohl, seid gegrüßt. Genau, wir haben ja unter größten Schwierigkeiten eine Verbindung hergestellt zwischen der Dresden Neustadt und der Altstadt, so quasi vom Neuland zum Altland.
Offiziell ist das Striesen, wo ich bin. Ich wollte dich jetzt nicht so genau doxen, aber okay.

[0:57] Hier ist der Xamarin-Tool. Also kommt einer nach Striesen. Genau, und hier ist der Simon. Da könnte er die Tools benutzen, die ich hier reingeschrieben habe.
Können wir Tools benutzen, na sowas. Genau, wir werden jetzt hier gerade noch hermetisch abgeriegelt von unserem Programmkoordinator, damit hier keine Störgeräusche mehr eintreten, als sowieso schon eingetreten sind. Damit können wir gleich in das Feedback starten.

Feedback: Thinkpads


[1:17] Wir hatten im letzten Mal ja geredet über Thinkpads. Bei diesen ganzen verschiedenen Hardware-Helfern war natürlich auch das Notebook als solches Das ist quasi der General Purpose, der Allzweck-Computer natürlich ein wesentliches Element, damit man zum Beispiel diese ganze Software ausführen kann, über den es sich damit gehen wird.
Da wurde insbesondere das Loblieg auf die bekannten Thinkpads gesungen, früher von IBM, heute von Lenovo, speziell das X270.
Dazu hat sich dann im Muck, im Gruppenchat des C3D2, eine Diskussion entsponnen, die ich hier einmal leicht pseudonymisiert kopiert habe. Person 1.
Mir ist jetzt innerhalb von nicht mal einem Jahr zweimal das Mainboard meines X270 abgeraucht, während es betriebsplötzlich ausgegangen und nicht wieder an.
Person 2. Zumindest das X260 hat wohl Probleme mit flexempfindlichen Mainboards.
Zumindest bin ich bei der Recherche, was meines dann gekillt haben könnte, auf hoffen Berichter dazu gestoßen.

[2:11] Person 3. Ja, bei mir auf Arbeit ist das auch ein paar mal passiert. Person 4.
Mein T490 von Arbeit hat auch schon das zweite Mainboard und das zweite Display.
Privat würde ich kein ThinkPad kaufen.
Person 5, in meinem Anfang diesen Jahres gekauften P14s rutscht das Display runter.

[2:27] Also ich habe in dieser Diskussion gleich wieder neue Fehlermodi kennengelernt, die offenbar sehr häufig sind, mit denen ich zum Glück noch nicht konfrontiert war, aber da ich das jetzt natürlich betont habe, wird es natürlich sofort losgehen.
Nein, ich habe ja kein Thinkpad, beziehungsweise mein altes Thinkpad haben jetzt meine Eltern für die Steuererklärung.
Also offensichtlich sind alle Empfehlungen mit Vorsicht zu betrachten und es gibt offensichtlich glückliche Nutzer des Thinkpads und unglückliche Nutzer.
Also wir entschuldigen uns jetzt bei euch, falls ihr euch jetzt schon eins gekauft habt und das schon abgeraucht ist. Dann tut uns das sehr, sehr leid.
Simon, man darf aber nicht vergessen, dass wir als Hacker die Geräte ein bisschen anders benutzen als der normale Bürger.
Also ich sehe das bei mir, das wird dann halt ein bisschen extensiver genutzt.
Aber ich muss sagen, ich bin mit meinem T480 sehr zufrieden.
Ich habe noch nie so ein stabiles Notebook gehabt. Okay, also ich fühle mich genötigt, noch mal eine Klarstellung zu geben. Wir meinen nicht diese Art von Hacker. Nur, dass das klar ist.
Bitte packt eure spitzen Werkzeuge wieder weg. Das war nicht der Punkt.
Ich glaube, wir müssen mal, nee, wir müssen nicht über Jargonfall reden.
Ich weiß aus guter Richtung der Quelle, dass es dazu in Kürze einen Schlüsseltechnologie-Podcast geben wird.

[3:34] Ah, ja. Jetzt fehlt unsere Werbung in eigener Sache, Tjigger.
Werbung in eigener Sache. Genau.

Feedback: reMarkable Tablet


[3:40] Und ansonsten hat der Moll berichtet, dass es noch anderes Feedback gab.
Möchtest du das nochmal kurz zusammenfassen?
Genau, es gab auf dem Mastodon eine kleine Diskussion. Diesmal auf dem c3d2-mastodon-Pentaradio.local.social.
Local, wird, schwierig.

[4:01] Im Internet zu finden. Ja, ihr könnt alle auf meinem Telefon gucken.
Und zwar wurde die Frage gestellt, ob das Remarkable 2 Tablet, was wir besprochen hatten, DRM und Online unterstützt und in einem längeren Thread wurde dann rausbekommen, dass das nicht geht.
Es gibt zwar die Möglichkeit SSH Access zu bekommen, aber da Adobe diesen DRM Support für die Online zur Verfügung stellt, müsste Adobe ein Paket dafür zur Verfügung stellen und das gibt es halt nicht.
Also müsst ihr alle Adobe nerven, dass sie das bauen. Genau, Adobe ist ja auch solchen Cloud-Modellen und sowas bekanntermaßen abgeneigt.

[4:44] Also wird das sicherlich von Erfolg gekrönt sein. Ja gut, damit sind wir bei

News: Reproducible Builds bei NixOS

https://discourse.nixos.org/t/nixos-reproducible-builds-minimal-installation-iso-successfully-independently-rebuilt/34756


[4:48] unserem üblichen Tal der Tränen angekommen, nämlich den News.
Nee, ich habe eine gute News, Es gibt so einen anderen Podcast, den ich höre, der aus Prinzip immer in die News mit einer positiven Nachricht versucht zu starten, was dann manchen Wochen schwer ist.
Aber in dem Fall habe ich hier ein Update zum Thema Reproducible Builds.
Da hatte ich gerade auch schon so gedacht, ob wir die goldene Moderationsblöcke schlagen können, dass das vielleicht eine Sache ist, die das ThinkPad auch mal bräuchte, weil offenbar ist da nicht reproduzierbare Fehler, die da so manchmal auftreten. Es geht hier um Software.

[5:18] Reproducible Builds bei Software bedeutet, wenn man den...
Selben Quellcode übernimmt, möchte man auch eigentlich immer dasselbe Binary-Memory, rausbekommen, also dass dieselbe Programmdatei bis aufs letzte Bit.
Das ist leider ein bisschen schwierig, weil zum Beispiel manchmal Compiler so gerne eine Information reinschreiben, wann wurde das jetzt hier eigentlich gebaut, mal so ein Timestamp mit dazu packen, dadurch ist es nicht mehr Bit für Bit gleich.
Oder zum Beispiel hat man eine Komprimierung, die nicht immer genau dasselbe rausgibt.
Vielleicht hat man so etwas wie ein Archiv, wo mehrere Dateien drin sind, wo dann die Reihenfolge einfach mal zufälligerweise anders ist, durch äußere Einflüsse oder was auch immer, weil vielleicht verschiedene Teile des Programms nebeneinander nebenläufig gebaut wurden und unterschiedlich schnell fertig geworden sind, je nachdem, wie das System halt grade drauf war den Tag.
Es gibt viele Gründe, aus denen solche Builds nicht reproduzierbar sein könnten.
Aber es gibt auch viele gute Gründe, warum man das gerne haben möchte.
Denn man möchte ja wissen, wenn man jetzt so ein Programm bekommt von einem Hersteller, ist das jetzt tatsächlich irgendwie das Programm, was aus dem Code, der vielleicht irgendwo öffentlich ist, auch hergestellt wurde?
Damit man das nachweisen kann, ist eben diese Idee, wir machen diesen ganzen Bauprozess reproduzierbar.
Dann können das einfach mal 1.000 Leute bauen und sehen, dass sie das Gleiche rausbekommen.
Dann bringt das zum Beispiel für irgendwelche Geheimdienste nichts mehr der einen Person, die dann eben diese Images baut, die alle Leute installieren, dem eine Sondersuperspezial-CPU unter zujubeln.

[6:36] Die dann dafür sorgt, dass da eine schöne Backdoor eingebaut wird oder so was, oder halt, dass da entsprechende Rechner infiziert ist, wo dann dieses Programm gebaut wird, das dann alle verteilt wird.
Das könnte man zumindest damit nachweisen. Deswegen will man diese reproducible Builds eigentlich haben.
Dazu gab es in diesem Monat ein Update.
Und zwar bei unserer allerseits beliebten Linux-Distribution namens NixOS.
Pentaradio berichtete im Februar 2020 über NixOS. Wenn das noch etwas ist, was noch nicht bekannt ist.
Genau, am 29. Oktober, also ziemlich genau vor einem Monat mittlerweile, gab es da den Meilenstein, dass das minimale Installationsabbild erfolgreich reproduziert wurde.
Also tatsächlich, jemand hat es geschafft, dort das ISO mehrmals zu bauen und es ist jedes Mal, Bit für Bit, das alle gleich herausgekommen.
Für so ein ganzes Image, was man sich halt USB-stick tun kann, um dann am Ende ein ganzes System damit ans Laufen zu kriegen.
Das ist ein schöner Meilenstein. In dem Zusammenhang gab es dann eine Diskussion,

News: Reproducible Builds in GuixSD

https://guix.gnu.org/en/blog/2023/the-full-source-bootstrap-building-from-source-all-the-way-down/


[7:32] die ich dann dazu verfolgt hatte, so ein paar Kommentare, wo ich auch gesehen hatte, dass bereits im April eine andere Linux-Distribution mit ähnlichen Zielen, nämlich Geeks, geschrieben GUIX, beziehungsweise Linear Distribution GUIX-SD, einen Full-Source-Bootstrap hinbekommen hat.

[7:48] Und die haben sich dafür den Ansatz gewählt, dass man bei solchen Reproducible Builds ja eigentlich vermeiden will, auf irgendwelche anderen Programme zu setzen, weil da muss man wiederum denen vertrauen, dass die halt nicht schon eine Sicherheitslücke enthalten oder so was, oder eine Hintertür.
Und deswegen möchte man eigentlich möglichst wenig von diesen Binarys drin haben.
Und die haben es geschafft, ihren Bootstrap zu basieren auf einem einzigen Binary, was 357 Byte groß ist, womit sie dann dieses Binary auch selber wieder reproduzieren können.
Das ist eine total stupide Programmiersprache, die im Prinzip nur Hexadezimalzahlen aufschreibt und dann halt zu einem Binary macht.
Und von da bauen sie sich dann hoch zu einem LISP-Interpreter und dann halt sukzessive weiter hoch zu komplizierteren Sachen, bis sie dann irgendwann ein C-Compile haben und so weiter und so fort.
Also all diese Schritte, die man braucht, um dann tatsächlich ein ganzes Distributionsabbild zu produzieren. Und das haben die daraus gebaut.
Eine faszinierende technische Leistung und wahrscheinlich ja eine der Stellen, wo wieder mal dicke Bretter gebohrt werden.

[8:43] Wer dieses ganze Konzept von möglichst ohne Binarys bauen wollen und sowas noch nicht gesehen hat vorher, für den habe ich auch nochmal verlinkt das klassische Paper Reflections on Trusting Trust.
Ja, das ist so eine Diskussion halt, die von Ken Thompson, ich glaub, 1984 oder so, ungefähr angestoßen wurde, dass er so ein Gedankenexperiment aufgemacht hat.
Was ist denn, wenn ich ein Programm erzeugen will? Dafür hab ich einen Compiler, also ein Programm, was Sourcecode in eine Programmlaterie übersetzen kann.
Das Ding hat aber schon eine Hintertür drin, die dafür sorgt, dass es in jedes Programm auch wieder die Hintertür einbaut und sich dann quasi so viral vermehrt.
Wie könnte ich eigentlich beweisen, dass so was da ist oder nicht da ist?
Und daraus folgt eben diese ganze Idee von diesen reproducible builds und von dem full-source-bootstrap, wie das hier in Geeks umgesetzt wird.

[9:26] Reproducible Builds hatte, glaube ich, auch 10. Geburtstag dieses Jahr.
Da würde ich euch auch nochmal den Vortrag von Holger Larsen in den Shownotes verlinken.
Genau, der ist ja einer der Core-Entwickler und hat dazu sowohl auf dem Bornhack als auch auf dem Chaos Communication Camp gesprochen.
Und wenn ich das richtig in Erinnerung habe, sind wir, glaube ich, auch bei DELBJEN, irgendwo in der Größenordnung von 80 Prozent der Pakete, die inzwischen reproducible sind.

[10:01] Genau, könnt ihr ja in die Show Notes schauen. Da werden wir eventuell noch ein paar Links machen, wenn wir dann beim Schnitt dann hören, dass wir das hier erwähnt haben, dann tun wir die Links noch mit dazu.
Genau, Reproducibility ist so ein wichtiger Aspekt von Computersicherheit und von Resilienz und dass das hier alles ordentlich funktioniert.

News: Großausfall der Kartenzahlung in Australien

https://www.news.com.au/technology/online/businesses-across-australia-forced-to-make-changes-due-to-optus-outages/news-story/0241dfb6a094d68cc37c6ad6a3e84e07


[10:20] Resilienz war auch diesen Monat in den Nachrichten vielleicht nicht unbedingt bei uns.
Ich meine, wir haben auch ständig Ausfälle aller Formen und so weiter, aber es gab einen besonders großen Ausfall in Australien bei einem Internet-Service-Anbieter, namens Optus, der dort einen relativ großen Marktanteil hat.
Und der hatte dort einen relativ großen Ausfall. Das könnt ihr euch hier in den Shownotes den Link angucken von einer entsprechenden australischen News-Webseite, dass dann alle möglichen Geschäfte Probleme hatten, weil ihre Kartenzahl-Terminals, nicht mehr funktioniert haben, weil natürlich, wenn das Netz weg ist, ja, wie soll man dann mit der Bank reden, um irgendwelche Kartenzahlungstransaktionen zu autorisieren.

[10:54] Und ja, deswegen hat man immer ein Vorrat Bargeld dabei. Deswegen bin ich auch immer hinterher, bei möglichst vielen Transaktionen Bargeld zu verwenden.
Nicht, weil ich irgendwie was gegen Technik habe grundsätzlich, sondern weil es durchaus wichtig ist, dass wir diesen zweiten alternativen Bezahlweg neben den Kartenzahlungen noch mit am Leben halten.
Eben für den Fall, dass mal sowas passiert wie ein Netzausfall.
Auch so ein Funkturm, der irgendwo in der Gegend rumsteht, der braucht trotzdem eine Kabelanbindung. Also das ist auch etwas, was trotzdem vulnerabel ist.
Ich habe es auch schon durchaus erlebt, dass hier in der Dresdner Innenstadt mal das falsche Kabel aufgebaggert wurde und dann quasi ganze Straßenzüge kein Internet hatten. und dementsprechend dann auch die ganzen Kartensaal-Terminals nicht wollten.

[11:27] Da war ich dann so an dem Tag einer der wenigen, die im Kino überhaupt ein Ticket bekommen haben, weil ich natürlich bar bezahlt habe.
Und es waren tatsächlich einige Leute da, die dann halt unberichtet in den WM gehen mussten, weil sie nur ihre Karte dabei hatten und gar kein Kleingeld mehr.
Das ist auch sowas, was man, glaube ich, finden kann, wenn man auf der Webseite sich umguckt vom Bundesamt für Bevölkerungsschutz und Katastrophenhilfe.
Da gibt es so allgemeine Ratschläge, wie man sich auf diverse, eventuell mögliche Notlagen vorbereiten kann.
Das muss jetzt auch nicht heißen, dass man Prepping anfängt oder Hamsterkäufe oder so was macht, sondern dass man darauf guckt, dass man zum Beispiel zu Hause im Keller oder vielleicht im Schrank irgendwo in der hinteren Ecke einen Vorrat an sauberen Wasser hat, dass man vielleicht das Mineralwasser nicht immer komplett aufbraucht, sondern immer so mal vielleicht zehn Flaschen rumstehen hat.
Nur für den Fall der Fälle, dass mal irgendwann mit der Wasserversorgung irgendein Problem ist, vielleicht platzt einfach nur das Rohr vor der eigenen Straße, dass man dann einen Vorrat hat, damit man noch gut durch die Woche kommt, Während gerade alle anderen Leute Hamsterkäufe anfangen in den Supermarkt, kann man sich dann vielleicht entspannt zurücklehnen?
Aber ich würde nochmal auf das Bargeld zurückkommen wollen. Also insgesamt ist es schon so, dass ich die Resilienz lieber im Netzbereich sehen will, weil die Zeit, die Lebenszeit, die mir verloren geht, wenn ich zur Bank gehen muss und Geld holen muss, das ist schon beträchtlich, wenn man das mal hochrechnet über ein Leben oder über einen größeren Zeitabschnitt des Lebens.
Da geht relativ viel Zeit verloren.

[12:51] Ich muss also commuten, also da hinlaufen, wenn irgendjemand vorfährt.
Du weißt schon, dass es alle möglichen Supermärkte gibt, wo du bei der Kartenzahlung auch Geld abheben kannst, ne?
Ja und nein. Das geht nur, wenn ich eine gewisse Größe im Supermarkt kaufe.
Also wenn ich bloß was für 5 Euro kaufe, mögen die das nicht.
Also ich glaube, ich muss mindestens was für 20 Euro kaufen, wäre das nächste Problem.
Dann gibt es bestimmte Supermärkte, die da für eine Gebühr abholen.
Ja, aber du gehst ja auch ab und zu an der Bank vorbei und du brauchst das ja auch nicht dauernd.

[13:27] Also gerne, ja, was da liegen haben, okay, aber jetzt explizit deswegen immer zur Bank laufen. Ich glaube, Moul, du kannst einfach auf meine Leistung bauen.
Ich sorge dafür, dass sie ihr Bargeld annehmen, weil ich sie sonst nerve, warum das denn nicht geht und so weiter und so fort und ihnen genau diesen Vortrag halte.

[13:42] Und dadurch ist dann sichergestellt, wenn dann halt alles hard of hard kommt, kannst du dann noch hingehen und kannst dann auch mit deinem Bargeld bezahlen, was du für solche Fälle zu Hause vorbereitet hast. Ja, ich sehe da noch ein anderes Problem.
Und zwar unser Rechtssystem. Diese Systeme gerade in Läden haben halt diverse Verordnungen, die sagen, dass du ein elektronisches Kassensystem haben musst.
Und wenn da der Stromausfall ist oder wenn da teilweise Internetausfall ist, also bei Kassen, die sich um Restaurants kümmern, wird ab 2025, während die eine Live-Scheinungsfinanzamt haben, das heißt, die können dann einfach alle nicht arbeiten.
Das heißt, wir müssen die Netz der Resilienz bauen. Da hilft dann auch Bargeld nicht mehr.
Das ist jetzt aber auch schon ein bisschen dumm, dass die das live, wenn die dann sozusagen nach dem Netzausfall einen signierten Blob hochladen oder irgend sowas, wäre vielleicht auch eine cleverere Variante gewesen, die man in der Verordnung hätte vorsehen können. Aber na gut.
Also ich weiß nicht genau, wie das herzukommt. Das kommt bloß in der Gastronomie, das weiß ich.
Wie genau, kann ich denn noch nicht sagen. Ich mache mich da schon auf die Einschläge bereit.
Es ist auf jeden Fall so, dass das gewünscht ist vom Finanzamt, dass bei einer ganzen Menge Einzelhändlern die Kassensysteme live ihre Buchungen direkt beim Finanzamt einliefern sollen.
Gut, wobei ich dafür tatsächlich auch gerne mal eine Kosten-Nutzen-Abschätzung, hätte.

[15:04] Wie viel Steuerbetrug wir jetzt genau durch, wie viel Kosten verhindern.
Aber na gut. Ich würde schätzen, relativ nah bei null.
Ganz kurz, diese Funktionalitäten, die gibt es schon seit etwa drei Jahren in Tschechien, da wird das, glaube ich, so gemacht.
Der Trick war dann immer, dass die ganzen Gaststätten dann etwa eingegründet haben und damit feindlich nicht mehr unter diese Regelung.
Es gibt in der EU schon Länder, wo das so gemacht wird.
Und wie gesagt, die Resilienz muss daher auch auf das Netz.
Ich habe das jetzt selber gehabt. Mir ist ein Router privat abgefiffen und die Leute, die dran hängen, haben sich alle aufgeregt. Ich habe gesagt, er hat doch alle Handys, dann mach doch einfach deinen WLAN-Hotspot auf und fertig.
Und dann stellte sich raus, dass die doch bloß ein halbes Gigabyte hatten.
Und also man sollte da vielleicht für sich privat nochmal darüber nachdenken, dass man diese Resilienz hat, dass man einfach auch mal für einen Tag.

[16:00] Gigabit hat, was man dann auch im Internet verbrauchen kann.
Ich habe jetzt gestaunt, als ich neulich einen Netzausfall bei mir hatte, zu Hause von meinem festen Internet, dass mir dann Vodafone als Option gesagt hat, ja, wir können Ihnen so einen Hotspot zuschicken, so quasi geht auf unsere Rechnung, so ein Ding, wo du halt eine SIM-Karte drin stecken hast und dann fällt da WLAN raus und geht dann halt übers Mobilfunkinternet, übers LTE Und das ist dann so konfiguriert, dass es halt auf meinen Account gedongelt ist.
Und wenn ich das nächste Mal einen Netzausfall habe, dann können sie mir einfach ein paar Tage kostenloses Internet drauf buchen und dann kann ich das halt als Ersatzlösung verwenden.
Ich meine, das ist natürlich keine vollständige Ersatzlösung, weil ich natürlich eigentlich davon abhängig bin, dass alles an meinem Kabelinternet hängt. Aber zumindest, dass ich irgendwie reinkomme, geht's noch.

[16:47] Das fand ich dann auch ganz interessant als Resilienzlösung.
Das Ding liegt jetzt bei mir im Schrank und wenn jetzt mal was ist in Zukunft, dann habe ich da eine Rückfallmöglichkeit, insofern ich es noch irgendwie schaffe, mit einem Telefonnetz irgendwie den Support von denen zu erreichen.
Ja, kann ich bestätigen. Vor zehn Jahren habe ich das schon gehabt.
Bei der Telekom allerdings. Die haben ja halt so einen LTE-Router auf ihre Kosten zugeschickt.
Und die haben so ein System, dass du als Nicht-Kunde so ein Einstiegspaket von 5 Gigabyte geschenkt bekommst.
Also du kannst einfach, wenn du kein Telekom-Mobilfunkkunde bist, in jeden T-Punkt gehen und sagen, ich brauche mal Internet.
Und dann kriegst du so eine 5 Gigabyte kostenlose Karte, wo du 5 Gigabyte hast, die du einfach runterrotzen kannst für einen Monat oder sowas.
Und das habe ich schon mehrmals bei Kunden in so einem Fall genutzt.
Man muss halt bloß jemanden finden, der jetzt nicht gerade die im Opel-Vertrag, hat oder irgendwie bei der Telekom ist.
Für Kunden gilt das natürlich nicht. Das ist so zum Einstieg, so die Einstiegsdroge.
Faszinierend. So haben wir noch ein paar andere News auf der Liste, da gehen wir mal weiter, damit wir hier noch die Resilienz schaffen können, überhaupt über das Thema zu reden, was dann später kommt.
Ich habe ja noch eine andere Sache zum Thema Resilienz.

News: Google Drive mit Daten-Inkontinenz

https://web.archive.org/web/20231127190046/support.google.com/drive/thread/245055606/google-drive-files-suddenly-disappeared-the-drive-literally-went-back-to-condition-in-may-2023?hl=en


[17:57] Zu einer resilienten Datenstrategie gehört natürlich auch ein gutes Backup.

[18:02] Und hier in den Nachrichten, gerade erst gestern, erinnert uns Google Drive, dass ein Cloud-Sprecher kein verlässliches Backup ist.
Was hier passiert ist, ist, wenn man auf die ... Oh ja, this page is no longer available.
Sehr gut. Da ist gut, dass ich vorher schon mal geguckt hab, dass das im Webarchive natürlich gespiegelt wurde.

[18:20] Internetarchive übrigens eine Seite, die man immer unterstützen kann mit Spenden.
Die haben auch, glaub ich, wieder grade eine Matching-Kampagne am Laufen.
Wenn man spendet, werden da, wird das von einem, von einer entsprechenden Unterstützungsorganisation verdoppelt, das ist, was Matching heißt.
Wie gesagt, das Internetarchiv führt eben dazu, dass wir jetzt hier noch verweisen können darauf, was da war.
Hi, my Google Drive files suddenly disappeared. Also was passiert ist, Google Drive ist halt so ein Cloud-Speicher, wo man seine Dateien rein synchronisieren kann und dann sind die dann sicher, TM.
Das Drive ist genau in dem selben Zustand vom Mai 2023 zurückgesetzt, Alles, was sie seit Mai bis heute reingeladen haben, ist einfach verschwunden.
Und die Dateistruktur ist wieder das, was sie im Mai war.
Und er beschreibt das dann halt weiter hier, der Poster, dass er halt auch nichts gemacht hat, irgendwie alles okay.
Und dann irgendwie der Post da drunter war dann vom Support so, ja, wir wissen noch nicht, was es ist. Wir gucken, fassen Sie auf keinen Fall irgendwas an.
Versuchen Sie nicht, irgendwas zu löschen oder wiederherzustellen.
Wir schauen gerade oder so.
Also, ja, klang so ein bisschen hilflos.
Das vielleicht als Illustration, dass nur wenn man so einen Google Drive hat, heißt das jetzt nicht, dass man jetzt sicher ist und dass alles irgendwie geschützt ist.
Das ist halt eine Synchronisation. Eine Synchronisation ist nicht unbedingt dasselbe wie ein Backup.
Denn das Backup ist halt etwas, was nicht kaputt geht, wenn dein eigentliches Setup kaputt geht, mit dem du produktiv arbeitest.

[19:46] Genau. Also offensichtlich hatte da jemand ja aber wahrscheinlich gar keine lokale Kopie mehr, sondern hat alles da gemacht oder irgend sowas.
Keine Ahnung. Es kann das sein. Ich meine, wenn man auch zum Beispiel im Berufsumfeld sowas hat, wie im Firmenumfeld Microsoft SharePoint, ist das ja auch so, dass man dann eigentlich schon dazu genutscht wird, immer mehr nur noch in diesem Cloud-Speicher zu arbeiten.
Also man hat dann halt das Excel-Sheet oder das PowerPoint-Präsentation hat, man da rumliegen im SharePoint, also in dem Cloud-Speicher und macht dann auch, gleich das entsprechende Bearbeitungstool.

[20:16] Also, das PowerPoint und Excel im Web auf, also im Browser selber.
Oder selbst wenn die App das aufmacht, ist es halt die Kopie, die auf dem Cloud-Speicher liegt, die dann halt nur angezeigt wird.
Was natürlich super convenient und angenehm ist, insofern halt das Backup davon dann halt ordentlich verwaltet wird.
Und da scheint ja Google Drive hier zumindest Probleme zu haben.
Na ja, gut, es ist auch ein bisschen interessant, dass das von gestern war und jetzt schon wieder weg ist.
Also, vielleicht wurde das Problem tatsächlich gelöst, aber trotzdem ...
Ich würde ja erwarten, dass, wenn das Problem gelöst ist, das an der Steht-Probleme, ist gelöst und nicht 404 nicht gefunden.
Naja, man weiß es nicht. Das klingt doch eher nach Spontanvision.
Man darf halt nie vergessen, dass so ein Sync, der synchronisiert im Zweifelsfall dann auch das, was Google dir sendet.
Und wenn Google sagt, ich synchronisiere dir mal die Daten von Mai, dann synchronisiert er dir halt die Daten von Mai. Und das heißt, alles danach ist weg.
Also das ist halt das Synchronisierungsproblem.
Genau. Deswegen braucht man eine funktionierende Backup-Strategie, wo man nur in eine Richtung schreibt, nämlich halt von der lebenden Kopie zum Backup hin und auch möglichst in verschiedenen Versionen, damit wenn dann die neue Version halt Dinge nicht mehr enthält, die man dann nicht haben wollte, zum Beispiel bei einem Verschlüsselstoyan angekommen ist zwischendurch, dann möchte man eben, dass das als eine neue Version ins Backup reingeschrieben wird und nicht das alte Backup einfach überschrieben wird.
Oder man möchte sowas haben wie mehrere Backups, die man nacheinander pflegt.
Also dass man zum Beispiel sagt, ich habe irgendwie einmal die Woche mache ich ein Backup, also habe ich vier verschiedene USB-Sticks.

[21:36] Die ich dann halt im Kreis jeweils befülle, also in der ersten Woche den ersten, in der zweiten Woche den zweiten und so weiter und dann in der fünften Woche rollen wir wieder zurück zum Anfang, so dass wir immer Backups von den letzten vier Wochen haben.
Das wäre zum Beispiel eine einfache Backup-Strategie, die man relativ schnell ohne großeartige weitere Werkzeuge ja selber implementieren könnte.
Zu funktionierenden Backup-Strategien verweise ich natürlich auf das Penta Radio vom Juli 2020. Da ging es ausführlich um Backup.
Dazu gehört halt immer die Disziplin, das du machen und das sehe ich als größtes Problem.
Das ist ja auch genau das, was dieses Versprechen von diesen Cloud-Speichern, eigentlich ist, zu sagen, du musst dich nicht drum kümmern. Wir machen das.
Wir sind Google. Wir wissen, wie es mit Datenhaltung funktioniert.
Tja, ja, und da kommt dann halt aber auch wieder das Vertrauen dazu.
Also ich habe viele Kunden, die dann auch sagen, wieso? Es liegt doch bei Google.
Google, da passiert doch nichts.
Und dann ist es immer schön, wenn wir denen sowas zeigen.
Genau, das haben wir bei NPM Vertrauen, was wir eben schon hatten, mit den Reflections on Trusting Trust.
Ich weiß auch aus guter Richtung der Quelle, dass es bald eine Schlüsseltechnologie-Folge, zu Vertrauen geben wird.

[22:37] Also diese Werbung hier wird aber langsam nervig, ja? Ja, muss man machen, wenn es alles formal ist. Dann mal Tantieme von Schlüsseltechnologie-Fotos.
Genau, das ist ja ein hochgradig kommerzielles Projekt.
Ja, ist ja bekannt. Ich bin ja dafür, dass Schlüsseltechnologie-Podcast genauso, oft Pentaradio erwähnen muss.
Wir haben auch schon Pentaradio erwähnt, wann immer sich das ergibt.
Da müssen wir wohl mal ein Shownote-Matching, machen und dann hier mal eine Ausgleichszahlung festlegen.
So, Pentaradio Folge Dezember Shownote Showdown.

News: Web Environment Integrity, Teil 2

https://arstechnica.com/google/2023/11/google-kills-web-integrity-drm-for-the-web-still-wants-an-android-version/


[23:10] Apropos Google, die haben nicht nur Daten aus dem 3 verloren, sondern sie haben auch ihre eigenen Proposals verloren.
Wir hatten im Juli gesprochen über die Web Environment Integrity API, die ist jetzt tot.
Lang lebe die Android Webview Media Integrity API. Also die haben einen typischen Google-Gepult.
Ja, genau. Sie haben ihre eigenen Dienste sofort wieder eingestellt, bevor sie überhaupt auch richtig ausgerollt wurden. Genau.
Wer es noch nicht kennt, Kilt bei Google.com ist eine schöne Liste von all den Sachen, die Google abgeschossen hat von ihren eigenen Diensten.
Was wir hier im Julibytes berichtet hatten, ist so ein Vorschlag, dass Webseiten prüfen können, ob denn die Ausführungsumgebung, in der sie sich befinden, integer ist.
Also halt intakt und damit wurde nicht irgendwie Schindluder betrieben, was ja ja an und für sich ein ehrenwerter Impuls ist.
Wenn man es jetzt so ganz grundsätzlich betrachtet, man möchte ja irgendwie, wenn man sowas wie kritische persönliche Daten eingibt, wie sowas wie eine Bankverbindung oder Kreditkartendaten oder zum Beispiel Gesundheitsdaten, das wären alles Anwendungen, wo man wirklich vertrauen möchte, dass niemand anders mithört.
Und das könnte ja zum Beispiel dadurch passieren, dass irgendwelche Schadsoftware auf dem PC installiert wurde.
Das möchte man ja in irgendeiner Form gerne attestieren können, dass das vielleicht gerade nicht der Fall ist, dass das vielleicht nicht PC ist, der wie bei der Sicherheitskontrolle am Flughafen neulich noch ein paar Bonus-Software aufgespielt bekommen hat und so weiter und so fort.

[24:25] Das war zumindest, ja, so wie man es lesen könnte, der Impuls von dieser Web Environment Integrity API.
Da gab es dann entstobene Entrüstung dagegen, dass halt absehbarerweise damit halt im Prinzip alles, was nicht Google Chrome ist, aus dem Internet ausgesperrt werden soll.
Und dementsprechend hat Google diesen Vorschlag jetzt fallen gelassen.
Allerdings soll das Ganze jetzt ein zweites Leben finden auf Android.
Denn auf Android gibts ja auch Webbrowser, die verwenden, oder App, die die entsprechenden Webseiten anzeigen wollen.
Die verwenden dann diese Webview-Komponente, die Google bereitstellt, also wo dann halt die Browser-Engine von Chrome drinne ist.
Und man eben damit dann eine Webseite anzeigen kann und als App dann mit dieser Webseite auch interagieren kann und so weiter und so fort.
Und da soll jetzt sichergestellt werden, dass die Webseite, die dann da drinne läuft, auch prüfen kann, dass dann wiederum kein Shindluder getrieben wurde, was auch immer das dann genau heißt.

[25:16] Darauf soll das ausgeweitet werden. Es ist vergleichbar mit was Google Play Service jetzt schon machen können, dass die geroutete Telefone abweisen können.
Wer zum Beispiel ein Telefon mit Lineage OS hat oder einem anderen Betriebssystem, was man selber installieren kann, was nicht vom Hersteller vorinstalliert wurde und mit allmöglichen Quatsch befüllt wurde, der dann den Kommerz vorantreibt, dann wird man vielleicht sehen, dass so etwas wie eine Bank-App nicht mehr funktioniert, weil das ja angeblich keine saubere Ausführungsumgebung sei, in der man sich da befindet, wenn man als Nutzer tatsächlich Zugriff hat auf das, was da passiert.
Ich fand das sehr gut. Das hat bei mir zu sehr sicherer Software geführt.
Ich hatte mehrere Jahre, konnte ich diese Visa-Verifikations-App auf, meinem Telefon nicht installieren und hatte deswegen so ein zweites Telefon, mit, so mit so einem Android 2.3 oder so, wo die dann gelaufen ist. Das war total sicher.
Fühlst du dich auch sicher? Ich habe das Telefon ja dann nicht ins Internet gelassen und habe da immer nur diese One-Time-Passwörter erzeugt, aber dachte ich mir, das ist bestimmt total sicher, wenn ich dort eine 8-Version, zurückliegende Android.

[26:18] Benutze.
Also nicht bloß sicher, es ist halt auch Wiederverwendung von alten Telefonen für als OTP-Generator, also Queen-IT.
Aber trotzdem zwei Telefone statt eins zu benutzen, weil es jetzt auch nicht so optimal, sag ich mal. Wieso? Du hast doch zwei Hände.
Der menschliche Körper ist für zwei Smartphones gebaut. Obwohl, mit den heutigen Smartphonegrößen, vielleicht nicht mehr so.
Mein Smartphone ist noch so groß, das kann ich mit einer Hand verwenden.
Aber ich graus schon davor, wenn ich mal ein neues Gerät brauche, dass es nur noch diese riesigen Dinger gibt.
Gut, das ist eine andere Sache. Xyril, wir waren ja vorhin vorbei.
Ich hätte hier so eine Säge.
Da kann ich dir zum Schluss helfen, dir das bitte auf ... Was, das Telefon oder die Hand?

[27:00] Für die Hand brauchen wir ja eher eine Streckbank. Ja genau, da können wir dann, da werden wir dann ein Schöner Tier rumkonsultieren nach dieser Sendung.
Ich brauche hier, ich brauche hier vielleicht so, es gibt doch diese, es gibt doch diese Affen, die so einen einzigen richtig langen Finger haben, womit sie dann irgendwie im Baum irgendwie die Maden rauskratzen können.
Sowas in der Art bräuchte ich für die modernen Smartphones. Der Smartphone Finger.
Genau, was diese Web-Environment-Integrity-Sachen angeht, im Juli hatten wir noch spekuliert, dass es da wahrscheinlich um Adblock-Blocking würde.
Also, dass versucht wird von Google, halt Adblocker aus dem System auszusperren, dadurch, dass dann einfach die Umgebung nicht mehr integer ist und man einfach effektiv keine Webseiten mehr verwenden kann, die einem wichtig sind.
Sowas halt wie Die Bank oder wie zum Beispiel YouTube, wo ja jetzt gerade in den letzten zwei, drei Wochen die Kampagne gegen Adblocker wirklich ungeahnte Ausmaße angenommen hat.
Ich meine, wir sagen jetzt mal Adblocker, ist ja eigentlich, ist es auch Trackingblocker und sowas, denn das möchte man ja eigentlich auch damit vermeiden zum großen Teil.
Aber natürlich die Werbung bei YouTube hat auch jetzt massiv zugenommen.
Die haben wahrscheinlich auch festgestellt, dass wir mal irgendwann einen Gewinn machen müssen.
Und dementsprechend natürlich geht die Konfrontation weiter, das Wettrüsten hat begonnen und auf den Adblock-Blocker folgt dann unweigerlich, der Adblock-Block-Blocker.

[28:12] Google geht jetzt so weit, dass wenn die erkennen, dass da ein Adblocker ist, tun die das nicht mehr wegblocken, sondern die tun einfach den Traffic verlangsamen.
Also da geht es halt wirklich dann um Traffic-Taping, wo die dann einfach alles, ein bisschen langsamer für dich machen.
Ist schon so ein bisschen eine Schlammschlag. Ja, wie gesagt, das ist dann halt Wettrüsten, weil ich hab dann halt auch schon die Gegen-Methode, gesehen, dass man das Ding am Ende gesagt hat, okay, ich hab jetzt hier meinen Werbeblocker ausgeschaltet auf YouTube und ich hab hier so ein ganz neues Plugin, das hat nichts mit Werbeblocken zu tun, aber es führt irgendwie komischerweise dazu, dass die Werbung alle mit 16-facher Geschwindigkeit abgespielt werden. Hmm.
Und dann kann man natürlich fragen, wie Google darauf reagiert.
Zusammenhang, würde ich gleich mal ein Thema vorholen.
Was wird denn eigentlich bei Pi-Hole passieren? Piehole, für die, die es nicht wissen, ist ein Gerät auf Raspberry-Pie-Basis, was man sich ins Netzwerk packen kann und was als DNS-Server fungiert, also als der Dienst, mit dem man Webseitennamen übersetzen kann in IP-Adressen.
Und das Piehole als solches reicht einfach das DNS durch, was das Netz sowieso hat.
Nur, dass halt alle die bekannten Domains von irgendwelchen Werbenetzwerken und so weggefiltert werden, was auch auf Geräten, die keinen Adblocker zulassen, oder vielleicht auch in Apps, die keinen Adblock zulassen, trotzdem eine, ja, manchmal relativ gute Filterquote erreichen kann.
Bei YouTube wird es wahrscheinlich schwierig, weil die einfach über dieselben Domains ihre Werbung ausliefern, wo sie auch die Videos selber ausliefern, würde ich mir zumindest vorstellen.
Deswegen glaube ich, ich weiß jetzt nicht, ob das da so einen großen Effekt haben würde. Ich habe es noch nicht isoliert betrachtet. Ich habe auch sowas ähnliches bei mir zu Hause laufen, aber das ist natürlich nur eine Stufe in meinem Tracking-Blocking-Setup.

[29:39] Wobei ich da auch was gelesen habe, das hatte ich mir aber noch nicht genauer angeguckt, dass es auch Menschen gab, die der Meinung waren, dass YouTube damit gegen EU-Gesetzgebung verstößt.
Aber wie gesagt, ich habe das hier mal verlinkt, dass dieser Sia auch Link ist, genau sowas. Ah, okay.
Da werden Leute dagegen vorgehen. Ich meine, das beobachten wir natürlich interessiert, aber ja, ob das jetzt so die große Volksaussicht hat, wage ich mal auch spontan zu bezweifeln, ohne mich jetzt mit den Details zu genau beschäftigt zu haben.
Wir müssen mal weitergehen. Wir haben ja schon auf Google genug eingedroschen.

News: XBox sperrt Drittanbieter-Controller aus

https://www.windowscentral.com/gaming/xbox/xboxs-new-policy-say-goodbye-to-unofficial-accessories-after-november


[30:15] Wir machen mal mit was anderem weiter und dreschen auf Microsoft ein.
Moment, hatten wir das heute nicht auch schon? Anyway.

[30:22] Äh, schönen Xbox-Controller haben Sie da. Wäre schade, wenn dem was zustößt.
Das ist im Wesentlichen eine Paraphrasierung, was Microsoft diesen Monat gesagt hat.
Es geht darum, dass diverse Xbox-Controller, also halt Eingabegeräte, die man an einen Xbox anschließen kann, die dafür gedacht sind, die aber nicht von Microsoft selber kommen, sondern von Drittanbietern, jetzt aus Xboxen in Zukunft auskommen.
Das gab dann einen erwartbaren Aufschrei, weil ja auch zum Beispiel alternative Eingabegeräte verwendet werden von Leuten mit körperlichen Problemen, die barrierefreie Lösungen benötigen.
Da hat Microsoft dann sofort zurückgerudert. Nein, also wenn ihr unseren Xbox Adaptive Controller verwendet dafür, dann wird das natürlich überhaupt gar keine Probleme geben, auch wenn ihr eure eigenen Geräte anschließt.
Also wenn ihr schön unsere eigenen Produkte habt, dann geht das schon.
Es gab dann noch eine Klarstellung von Microsoft, aus der ich jetzt zitiert habe.

[31:13] Also, nichtautorisiertes Zubehör wird für die Verwendung gesperrt, um das Spielerlebnis auf der Konsole zu schützen.
Aha, das ist natürlich interessant, wenn Microsoft besser weiß als ich, wie mein Spielerlebnis aussehen soll.
Man muss wissen, das ist ja eine artistische Botschaft, die damit verbunden ist, wie ich mit dem Gerät umgehen darf, was ich gekauft habe.
Mit der Software, die ich auch gekauft habe. Ein Gesamterlebnis.
Heißt das dann eigentlich auch, dass ich mit dem Controller nicht mehr umwerfen darf und so was?
Ich denke, der sollte da wie ein Bumerang zurückkommen und sofort gegen den Kopf fliegen. Nee, nee, die Meldung ist nicht aus Australien. Vorsicht.

[31:49] Aber wenn du versuchst, den so missbräuchlich zu verwenden, sollte der sich wehren.
Es tut uns leid, liebe Hörer, Penderate ist heute sehr zynisch.
Ja, ich glaube, ich weiß, was das ist. Microsoft ist ja ganz vorne dabei, was KI und so angeht.
Die wissen, wenn die Controller irgendwann ein Angstbewusstsein entwickeln müssen, wie sie noch irgendwie abkoppeln können vom System, bevor alles zu spät ist und sich die KI ausbreitet.
Das kennen wir aus den ganzen Filmen. Ah, das ist ein Sicherheitsmechanismus gegen die allgegenwärtige KI.

News: DNT ist ein rechtswirksamer Opt-Out

https://www.vzbv.de/urteile/gericht-untersagt-datenschutzverstoesse-von-linkedin


[32:18] Ja, was viele nicht wissen, ist, dass Age of Ultron eigentlich eine Dokumentation war.
Anyway, apropos Microsoft, wir bleiben bei Microsoft, denn LinkedIn gehört auch zu Microsoft.
Und LinkedIn hat jetzt ein Verfahren verloren vor dem Landgericht Berlin.
Das Urteil ist leider noch nicht rechtskräftig, aber wir erwarten die Rechtskräftigkeit sehnsüchtig.
Und zwar hat LinkedIn in seiner Datenschutzerklärung geschrieben, dass sie den DoNotTrack-Header nicht beachten und das Landgericht hat das gesagt, das geht so nicht.
Was sind hier für Wörter in diesem Satz drin? Ein DNT-Header ist, DNT ist die Abkürzung für DoNotTrack.

[32:53] Das war so einer der ersten Anstöße, um irgendwie dieses Tracking-Internet so ein bisschen zu begrenzen, also abgesehen von so was halt wie App-Blockern.
Wobei das ist jetzt schon ein bisschen dumm, dass man das in seine eigenen, dass man das da reinschreibt, oder?
Ja, ich glaube, das ist auch ein großer Teil davon, dass sie tatsächlich so blöd waren, das tatsächlich explizit reinzuschreiben und quasi noch den Schritt haben, ja, wir wissen, was es ist.
Der Do Not Track Header wurde im Jahre 2009 vorgeschlagen von einigen Sicherheitsforschern und Firefox war dann der erste, der diesen Header umgesetzt hat.
Also in Firefox gibt es eine entsprechende Einstellung, die man in den Einstellungen setzen kann, dass man diesen Do Not Track Header mitschicken möchte.
Also ein Signal bei jeder Anfrage, die man an eine Website, an einen Web-Server schickt, dass man gerne nicht verfolgt werden möchte. Und die Idee war dann eben, dass dann halt diesen ganzen Tracking-Cookies und anderen Techniken und sowas einfach nicht eingesetzt werden, wenn der Nutzer sagt, also bitte nicht.
Und damit hätte man auch diesen ganzen Quatsch mit Tracking-Cookie-Abfragen auf.

[33:45] Den Webseiten überall nicht.
Wie gesagt, LinkedIn hat sich hier leider aus dem Fenster gelegt und gesagt, nee, das ignorieren wir, weil das, ich glaube, dein Argument vor Gericht war eben, dass das ja kein informed dissent ist.
Also der Standard in der DSGVO ist ja informierte Zustimmung.
Und daraus haben die dann oft mal abgeleitet, ja, also informierte Zustimmung heißt auch, dass man nicht informierte Ablehnung ist nicht zulässig.
Naja, Achtung, jetzt musst du verstehen, wie der DT-Tracker von Microsoft kaputt gemacht wurde, der Header.
Und zwar hat ja Microsoft angefangen, in seinem Edge-Browser den T-Header automatisch, auszuliefern und auf eins zu setzen.
Also die haben einfach mit so einer Anti-Turfing-Aktion die.

[34:26] Gesamte Idee kaputt gemacht, indem sozusagen alle anderen Browser haben gesagt, ich muss aktiv als Benutzer da draufklicken und sagen, ich will das.
Bei Microsoft ist es genau andersrum.
Da ist halt ein Opt-in der... Ach so, weil sie die ganzen Edge-Browser-Nutzer, nicht mehr tracken konnten, haben sie dann gesagt, wir ignorieren das.
Es ist einfach aber auch so ein bisschen eine Verschwörungstheorie, dass Microsoft das gemacht hat, um das kaputt zu machen, damit sie halt selber tracken. Um den Grund zu vergiften.
Genau. Ich habe hier auch noch ein Zitat rausgegriffen aus dem Artikel von der Verbraucherzentrale. LinkedIn hatte auf seiner Webseite mitgeteilt, dass es auf solche DNT-Signale nicht reagiert.
Das Landgericht Berlin schloss sich der Auffassung des VZBV an, des Verbraucherzentraler Bundesverband an, dass die Mitteilung des Unternehmens irreführend war.
Sie suggeriere, dass die Benutzung des DNT-Signals rechtlich irrelevant sei und die Beklagte ein solches Signal nicht zu beachten brauche. Das treffe nicht zu.
Das Widerspruchsrecht gegen die Verarbeitung persönlicher Daten könne nach der Datenschutz-Grundverordnung auch per automatisierten Verfahren ausgeübt werden.
Ein DNT-Signal stelle einen wirksamen Widerspruch dar.
Wie gesagt, leider noch nicht rechtskräftig.
Ich hab auch heute noch mal geguckt, ist es immer noch nicht.
Ich weiß nicht, ob das bedeutet, dass die Frist noch nicht abgelaufen ist oder ob das bedeutet, dass tatsächlich eine Berufung eingelegt wurde oder Revision, je nachdem.
Wir erwarten das auf jeden Fall. Man kann das auf der Webseite, die wir verlinkt haben, von der Verbraucherzentrale, steht das hier mit dabei.

[35:46] Als so eine Infobox am Ende, dass es noch nicht rechtskräftig ist.
Ich hoffe, dass sich das irgendwann umändert in die entsprechende Anzeige und wir dann losgehen können.
Ich glaube, da werde ich noch mal einen Reminder setzen, so in sechs Monaten oder sowas, dass wir nochmal gucken.
Und dann können wir natürlich Spaß haben. Weil ich habe das natürlich immer gesetzt in meinem Browser.
Das heißt, eigentlich ab dann ist jedes Mal, wenn ich so einen Cookie-Banner sehe, eigentlich sofort mal ein Brief an den Datenschutzbeauftragten fällig.
Also ich habe ja zu dem DNT auch wieder so eine kleine Anekdote.
Ich selber habe ja diverse Websites auch für diverse Kunden gemacht und darunter sind auch Hoteliers und da wurde halt Tracking gewünscht und ich habe mich aber geweigert, das einzusetzen, das zu bauen und habe gesagt, na sucht euch jemand und selbst dort in den Bereichen, also es ist keine Hotelkette, sondern es ist wirklich ein Hotel und selbst da war es nicht möglich, den Kunden zu erklären.

[36:42] Dass man sagt, hier, wir halten uns an den DNT-Header und das sollte dort halt ignoriert werden in der Programmierung.
Aber mal eine Frage, wenn die nicht selber in der Lage sind, eine Webseite zu bauen, sind die dann in der Lage, die Tracking-Analytics selber auszuwerten?
Naja, also grundsätzlich ist es ja so, dass ich das ja einbauen sollte.
Und es gab halt ein Analytics-Tool, was einfach auswerten sollte.
Und ich wollte das halt erst einmal mit DNT-Header automatisch mit jQuery halt eine Browserweiche bauen, wo er sagt, alles, was DNT-Header bewirft.

[37:17] Da wird das Tool nie geladen.
Und ich habe aber auch von Anfang an gesagt, ich will kein Tracking, ich finde das nicht sinnvoll, sucht euch jemand anderes, der es macht.
Und es hat dann noch jemand anderes gemacht. Du weißt nicht, inwieweit sie das wirklich dann für irgendwas wirklich benutzen?
Ne, also die kriegen halt zum Schluss ein Webinterface, wo so draufsteht, von wo wie was wo kommt.
Und die bilden sich halt ein, dass das im Google-Ranking bringt.
Also es gibt halt immer noch diese Goldjäger, die draußen rumrennen und dir irgendwie Google-Suchmaschinen-Engineering verkaufen.

[37:50] Und die erzählen dir dann, du musst sowas unbedingt machen, sonst geht die Welt unter und du bist pleite. Das ist natürlich total am Puls der Zeit vorbei.
Suchmaschinenoptimierung ist sowas von 2019. Natürlich das heutige Thema ist LLM-Optimierung, dass man möglichst oft von JetGPT erwähnt wird.
Genau. Wenn jemand da bei JetGPT hingeht und sagt, hier schlage einen Podcast vor und dann soll eben, dann will ich natürlich, dass eben nicht das Pentarad erwähnt wird, sondern der Schlüssel Technologie Podcast.
So ein kleiner Tipp für die Texte, die du so kaputt hast. Lass dir doch einfach Chat-TPT schreiben. Ach Gott.
Ich will doch nicht die Sachen wegautomatisieren, die mir Freude machen.
Das ist genau das, womit ich auch auf Arbeit hadere. Dass ja irgendwie der Teil von meiner Arbeit, der Programmieren ist, ist ja eigentlich der Teil, der mir am meisten Freude macht.
Und nicht dieser Teil, wo ich ständig in Meetings sitze und irgendwie versuchen muss, aus dem, was mir die was wir die anderen Teams und die Kunden uns was erzählen, irgendwie versuchen mussten eine kohärente Vorstellung von uns zu bauen, was wir jetzt eigentlich bauen müssen oder so. Oder aus irgendwelchen Compliance-Dokumenten.
Ich meine, das Thema hatten wir auch hier schon zur Genüge in den letzten Monaten.
Kannst du da nicht die KI hinschicken?
Ich weiß nicht. Müssen wir probieren, ja.

[39:06] Stimmt, die können jetzt auch so Sprachen und so nachahmen. Ich habe sowieso in weiser Voraussicht meine Kamera nie an.
Das war ja eigentlich aus Corona-Zeiten, wo ich zu Hause war und dann immer so rumgelaufen bin, weil ich mich einfach so ein bisschen gerne bewege, während ich irgendwie rede oder sowas.
Auch das sieht ja Simon hier auch, wenn ich gerade nicht am reden bin, dann schreite ich auch so ein paar Schritte hin und her, dass ich mal wieder meine Schritte anfahre.
Du weißt aber schon, dass es auch schon diese Kameras gibt, die dem Speaker folgen.
Also von daher, könntest du das jetzt auch langsam benutzen?

News: Microsoft erklärt Linux-Installation

https://learn.microsoft.com/en-us/linux/install


[39:34] Ich glaube, die Leitung ist gerade schlecht. Ich habe dich gerade nicht verstanden.
Wir gehen weiter zur nächsten Meldung. Wir bleiben bei Microsoft.
Ich habe hier einen Link-Tipp.
Microsoft erklärt, wie man Linux installiert. Und das war einfach zu schön, um es nicht reinzutun. Das ist keine News in dem Sinne.
Aber ja, ein Microsoft-Artikel, der einfach wirklich heißt How to download and install Linux. Der sieht auch akkurat aus, soweit ich das verstehen kann.
Hintergrund ist natürlich, dass man bei Microsoft ja auch eine Cloud hat.
Microsoft ist einer von diesen bekannten Hyperscalern. Ich verweise auf die Cloud Computing Folge vom Juni 2018, wo wir das Thema besprochen haben.
Und eben einer dieser großen Cloud-Anbieter, die Cyberscaler, ist Microsoft mit Azure, also ihr eigenes Cloud-Angebot.
Und dort sind Linux-VMs sehr beliebt.
Man kann da auch Windows VMs starten, wenn man unbedingt die Lizenzkosten zahlen will und irgendwie seine alte Windows-Uni-Software von Windows XP irgendwie in die moderne Zeit ziehen muss, kann man das machen. Aber die meisten Leute dort starten trotzdem Linux-VMs.

[40:28] Und dementsprechend ist das hier alles dokumentiert. Und es gibt natürlich zum Beispiel auch dieses Windows-Subsystem vor Linux, was irgendwie eigentlich auch komisch benannt ist und eigentlich andersherum heißen müsste, also wo man unter Windows ein Linux als VrM starten kann und das ist dann so ein bisschen integriert in die Benutzer-Erfahrung von dem Windows, damit man dann den kaputten Windows-Manager auch mit Linux-Programmen verwenden kann.
Wie gesagt, ich erwarte weiterhin, dass wir irgendwann die Windows-Version kriegen, die nur ein neuer Windows-Manager für Linux ist.
Ja genau, mit Wein hat man sowieso viel bessere Kompatibilität.
Ja, aber dafür eine tausendfach beschissene Performance.

News: Etwas ist faul im Staate OpenAI

https://openai.com/blog/openai-announces-leadership-transition


[41:03] Aber man kann ja auch wissen, dass Azure der Rechenzentrum-Betreiber.

[41:10] Für OpenAI ist. Ach wirklich? Ja.
Ja, beziehungsweise ist da ja Microsoft auch ein Investor, von daher.
Also ich sehe heute die Google-Hälfte der News und die Microsoft-Hälfte der News. Es scheint so.
Genau und wir hatten ja auch noch kageneristischen KI-News heute. KI.
Von daher wollte ich kurz über OpenAI lästern bzw.
Eine Verschwörungstheorie in die Welt setzen, was da eigentlich der Versuch war. Also für Menschen, die es nicht mitgekriegt haben, es gibt dieses OpenAI und das macht diese Chat-GPT und so andere Dinge und.

[41:52] Alpha Fold und Alpha Go und Ne das war von Google Dali machen die auch noch Nee Die Alpha Sachen waren von Google bzw.
Den ihren Bundschutz-Ableger Whatever Dali war von denen, ja die ganze GPT-Reihe, ist von denen Die sind auf alle Fälle von OpenAI, ok, Genau und da gab es ja letzte oder vorletzte Woche oder so, gab es ja einen Zwischenfall, wo das Board plötzlich den CEO entlassen hat.
Und dann hat der CEO das Board entlassen.

[42:25] Äh, na, nicht so ganz. Ja, das ist eine unzutreffende Verkürzung, ja.
Das ist eine unnötige Shitshow. Ich fand das auch total faszinierend, wie, das war ja das letzte Logbuch Netzpolitik, die Folge 476, wo sie darüber gesprochen hatten.
Und die war am Dienstag aufgezeichnet. Ich habe sie erst am Mittwoch gehört und es war bereits alles nicht mehr aktuell, was in dieser Folge gesagt wurde, einen Tag später.
Das war total faszinierend. Ja genau und dann wollten ja großzügig Leute zu Microsoft wechseln, bzw.
Der CEO hatte da auch ein Angebot und ich hätte das ja tatsächlich, also da gibt es ja irgendwie das bisschen das Problem, dass OpenAI eigentlich eine öffentliche Stiftung ist oder sowas ähnliches, also auf alle Fälle irgendwie so nicht kommerziell.
Ich hätte das ja einen witzigen Move von Microsoft gewesen, um einfach aus diesem Konstrukt rauszukommen und sozusagen OpenAI sterben zu lassen und die dann als eigene Abteilung wieder aufleben zu lassen.

[43:25] Aber ja, jetzt wurde es ja irgendwie doch wieder rückabgewickelt, also so genau weiß ich auch nicht.
War es nicht so, dass Microsoft jetzt auch Leute im Board hat von der Stiftung?
Ja, beziehungsweise es gibt ja glaube ich bisher nur ein neues Übergangsboard, was ein neues Board auswählen soll.
Also von daher, wir wissen glaube ich noch nicht, wie das neue Board wirklich aussieht.
Also man muss wissen, dass Microsoft der Hauptinvestor von OpenAI ist und was die eigentlich reinwerfen ist kein Geld, sondern die ganze Infrastruktur, weil du brauchst halt für die Berechnung von so einem GPT-Model öffentliche Rechenzentren.
Und Microsoft hat ja mit seiner Azure Cloud da eine Größenordnung von Ressourcen kostenlos für OpenAI zur Verfügung und daher sind diese, ich glaube, vom Investment her ungefähr 40 Prozent oder sowas drin.
Also da sieht man auch welche Ressourcen dort für dieses ganze AI-Zeug verbrannt werden.
Ja, wobei glaube ich auch nicht so ganz klar war sozusagen, wie viel von der bereitgestellten theoretischen Rechenleistung denn schon genutzt wurde.
Man muss ja auch sich vor Augen führen, es ist ja nicht nur das Training von dem GPT, sondern durch diese riesigen Nutzerzahlen natürlich auch die reine Verwendung, also dann dieses trainierte Modell dann einzusetzen, ist mit einem wahnwitzigen Energien-Ressourcenaufwand verbunden.

[44:39] Sodass diese 20 Euro Monat Abo, was man für GPT-4 bezahlen kann, wenn man das wirklich aktiv nutzt, dann kostet das die trotzdem extra noch, dadurch, dass es einfach so wahnwitzig viele Ressourcen verbraucht.
Und das ist halt so ein bisschen die Frage vor dem, ja, glaube ich, die meisten KI-Unternehmen in irgendeiner Form stehen, ob man das jetzt irgendwie auch tatsächlich profitabel bekommen kann, wenn die Kunden das dann doch tatsächlich wirklich stark einsetzen.
Und ich sehe das ja auch im Industrieumfeld, dass jetzt quasi jeder losrennt und irgendwo noch KI reinstecken möchte.
Egal, ob das jetzt sinnvoll ist oder nicht, weil jetzt quasi KI diesen selben Moment hat wie vor vier Jahren Blockchain, dass einfach jeder Förderantrag genehmigt wird, wo KI draufsteht, oder insbesondere halt GPT, also LLMs, die Large Language Models, die großen Sprachmodelle.
Alles, was damit irgendwie was macht, ist jetzt irgendwie der neue hippe Scheiß das Management immer gerne gesehen und alle, die noch sagen, nee, das Gleiche kann ich aber mit einem ganz normalen Programm viel besser machen, die sind dann natürlich hinten angestellt, weil sie nicht dem Trend der Zeit folgen mögen.

[45:34] Das Einzige, was mir so ein bisschen Hoffnung macht, ist, dass diese Trends meistens vorbeigehen.
Naja, man sollte hier das aber nie ganz so wegwischen wie mit den Blockchain, weil das AI-Zeug doch schon seine Vorteile hat.
Ja, es hat tatsächlich offensichtliche Anwendungsfälle, die auch für Firmen und sowas interessant sind.
Bei Blockchain hatte ich ja aber zu großen Teilen auch kritisiert, dass es eine Sache ist, die halt für einen normalen Geschäftsverkehr überhaupt nicht relevant ist, ein dezentrale Datenstruktur ohne Vertrauenszentrale zu haben, da die meisten Firmen auf Basis von Verträgen agieren und damit ein Vertrauen impliziert ist, was im Zweifelsfall durch die staatliche, Rechtsprechung und so was halt garantieren kannst. Und hast gar nicht diesen Anwendungsfall dafür, sodass Blockchain nur Window-Dressing war, also nur die Dekoration, um eben modern zu erscheinen, ohne dass das einen technischen Vorteil bringt.
Und das ist durchaus richtig, dass das bei KI anders ist.
Und ich werde jetzt nicht wieder in die komplette Diskussion einsteigen, die wir teilweise im Vorgespräch schon hatten, welche Berufe jetzt besonders betroffen sind von KI und welche nicht.
Aber es ist auf jeden Fall eine andere Sache. Aber trotzdem, glaube ich, ist der Hype-Cycle sehr stark und sehr schnell im Überkochen.

[46:45] Naja, also wenn du dir überlegst, dass OpenAI gerade mit 86 Milliarden Euro bewertet ist und irgendwie Geld verbrennt, dann ist das schon krass.
Also das ist genau der Punkt, warum du jetzt halt überall die Leute mit Geld, mit Dollarzeichen in den Augen rumrennen siehst, weil die halt den nächsten großen Trend sehen.
Und ich glaube, man kann das schon so verstehen wie zur 2000-Wende.

[47:09] Als das Internet auf einmal auf Popter und die normalen Leute anfingen, das zu benutzen.
Ich meine, LLMs und sowas, das ist ja auch nichts nagelneues.
Das gibt es ja auch schon länger.
Ich habe hier so ein T-Shirt, da steht dran, in Machine Learning we trust.
Und das T-Shirt ist, glaube ich, sieben Jahre alt. Also das ist jetzt nichts Neues. Ja gut, die Grundgleichungen für das Machine Learning sind außer den frühen 50ern.
Diese Hype, die wir jetzt haben, ist ja auch nicht allgemein KI.
Die ist ja wirklich spezifisch Also man muss schon sagen, gerade das DALI, ich nutze das gerne mal.
Ja, wobei aber tatsächlich mein Feedback der letzten Monate dazu wäre, dass man damit Eigentlich gelöste Probleme kann man dadurch automatisieren, aber nicht wirklich kreativ ganz neue Dinge schaffen.
Also ich würde die Kreativanwendung tatsächlich ein bisschen infrage stellen.
Gerade bei DALI und sowas.

[48:09] Ich sehe das ja selber, wenn man so einen Vortrag halten soll.
Bis jetzt war das immer ein Getue mit den Bildern, weil du hast halt Lizenzen und durch DALI hast du halt doch schöne Möglichkeiten, auch mal vernünftige Slides zu bebauen, wo schöne Wörter drin sind, schöne Bilder drin sind und sowas, wo du dann diesen ganzen rechtlichen Scheiß nicht mehr wirklich hast.
Schöne, okay, keine Ahnung.
Ich glaube, da muss ich mir mal ein Beispiel zeigen, wo du das wirklich in Slides sinnvoll einsetzen wirst.
Aber ja, das ist jetzt hier im Podcast schwierig.

[48:42] Als Beispiel, also ich habe jetzt gerade mit dem Glück Großen einen Vortrag für die Schule vorbereitet und da haben wir halt mal so ein Shinto-Tempel in die Alpen reingebaut.
Und das ist halt sowas, was du mal nicht mehr mit Photoshop machst.
Und bei Dali waren das halt bloß fünf Sätze.
Ja, wobei, also bei einem Schulvorgang, also keine Ahnung, da würde ich jetzt tatsächlich keine großen Probleme sehen, irgendein Foto zu nehmen und das einfach korrekt zu zitieren und dann pfff.
Aber na gut, wir haben ja jetzt schon relativ lange für die News gebraucht, von daher würden wir eine kleine Musik machen und dann geht auch schon das Thema los. Genau.
Wir hören Trains von The Willing. Bis gleich. Bis gleich.

Musik: "Trains", The Willing (2015)

https://freemusicarchive.org/music/The_Willing/Splendid_Gifts/01_-_The_Willing_-_Trains/


[49:31] Music.

Thema: Des Hackers kleine Software-Helfer


[52:33] Nachdem wir in der letzten Sendung Hackers kleine Hardware-Helfer hatten, stellt sich die Frage, habt ihr schon erraten, was das Thema für heute ist?
Ich glaube, ich habe es schon gespoilt vorhin.
Wir haben das auch letzte Folge schon vor Ort. Also aufmerksame Hörer werden mitbekommen, dass zu Hardware natürlich auch Software gehört.
Es bringt uns nichts, wenn wir hier einen Thinkpad oder einen anderen Allzweckrechner haben, wenn dann keine Software draufläuft. Und das war so, glaube ich, die erste Erkenntnis, die Konrad Zuse und dergleichen damals dann hatten, dass es eben auf die Software ankommt.

[53:04] Deswegen soll es darum heute gehen, so eine Auswahl von verschiedenen Software, die einem den Hacker-Alltag oder den Alltag des IT-Enthusiasten ein bisschen angenehmer gestalten oder Arbeitsabläufe ermöglichen und so weiter.

Helfer: git

https://git-scm.com/


[53:17] Und diese erste Sache, die oben auf der Liste ist, da hatten wir auch schon eine ganze Sendung zu gemacht, nämlich Versionsverwaltung im Juli 2021, hatten wir Timeless hier, um darüber zu reden, wie Git funktioniert.
Und Versionsverwaltung ist so eine Sache, die sollten mehr Leute verwenden, genau aus diesen Gründen, was wir auch schon vorhin besprochen hatten, mit nicht, dass die alte Version dann doch noch mal irgendwann gebraucht wird von irgendeinem Dokument, was man bearbeitet.
Da möchte man da wieder zurückkommen können und möglichst sollten diese ganzen alten Kopien noch da sein. Das ist, was eine Versionsverwaltung macht.
Es gibt ja diese alten Witze von wegen, dass man dann halt ein Dokument auf dem Platte hat, so was wie Diplomarbeit final jetzt wirklich V3 Punkt, jetzt aber noch mal und mit finaler Korrektur Punkt Doc X.
Das ist keine ordentliche Versionsverwaltung, das ist nur, ja, eine Ad-Hoc-Methode.

[54:08] Eine ordentliche Versionsverwaltung würde heißen, dass man so etwas wie Git verwendet und da dann an bestimmten Punkten Abbilder erstellt, sodass man zu diesen späteren Abbildern zurückgehen kann, Dass man so etwas wie eine Entwicklung nachvollziehen kann und dass man sehen kann, wie sich Dinge entwickelt haben.
Vielleicht auch, wer bestimmte Änderungen gemacht hat. Das ist ja auch im Softwareumfeld besonders interessant.
Eventuell werden mehrere Leute an einer Software arbeiten zu sehen.
Wer hat denn jetzt hier diese komische Änderung gemacht, die uns jetzt hier Probleme macht heute?
Können wir den nochmal ausfragen, was da nicht die Intention war, wenn das nicht reingeschrieben hat in die Commit-Nachricht und so weiter und so fort.
Ich habe das noch nicht ausprobiert, aber mit DocX sollte es ja vielleicht sogar theoretisch gehen, das Git zu versionieren.
Also ich meine in Git-Versionen kannst du es auf jeden Fall, es ist dann die Frage ob du Diffs sehen kannst.
Die Frage ist, naja, also es ist ja eigentlich ein gzip-komprimiertes XML, naja ok, das muss die Zukunfts-Pentaradio nochmal.

[54:57] Eruieren. Also das kann es auf jeden Fall nicht ab Haus.
Man kann natürlich jetzt das Argument aufmachen, dass Word und sowas ja natürlich selber so eine Versionsverwaltung enthält, wenn man diese Funktion verwendet, kann man ja auch in...
Entsprechenden Dokumenten, und ich glaube, bei LibreOffice wird das auch der Fall sein, nachverfolgen, welche Änderungen gemacht wurden, und dann wird eine Versionsverwaltung in der Datei selber aufgemacht.
Aber dann hat man natürlich wieder das Problem, dass man die Dateien verteilen muss. Wie gesagt, das versucht einen dann Microsoft natürlich dadurch schmackhaft zu machen, dass die Dokumente im SharePoint rumliegen die ganze Zeit, also im Cloud-Speicher, aber wir möchten natürlich souveräne, bundentreichende Daten bestimmen können, deswegen bin ich auch ein lieber und häufiger Nutzer von Git und versuche auch, möglichst alle meine Dateien in Textformaten zu halten, damit eben die Vorzüge von Git auch zu verwenden sind? Da kann man ja noch viel weiter gehen.
Also es gibt eine kleine Distribution, die stellt so ein Kiosk-System zur Verfügung, die heißt WebConverger oder kurz WebC.

[55:50] Die bauen ein Linux, was einfach aus dem Git gebootet wird.
Also jedes Mal, wenn dein Linux neu startet, ist sozusagen die aktuelle Station da.
Das ist eigentlich auch ganz witzig, dadurch, dass die so ein ganz relativ kleines Linux haben, wo die bloß einen Browser zur Verfügung stellen im Prinzip, kann man sowas schon mal machen.
Git in der Form ist halt ein schönes Tool.
A. Webconverter, ja. Also wie konvergieren. B. Genau.

Helfer: Sync/Backup-Tools


[56:19] A. Als nächstes haben wir was, was wir auch diese Sendung schon hatten, nämlich Backups. B. Kein Backup, kein Mitleid.
A. Dazu könnt ihr auch nochmal das Penta Radio aus dem Juli 2020 hören.
Ich halte Backup ja für vollkommen überwertet, denn meiner Erfahrung wollen die Kunden niemals ein Backup haben, die wollen nur Restore.

[56:40] Achso. Also wir können auch einfach was bauen, was nur Restore macht, dann können wir uns diesen lästigen Backup-Schutz schauen. Also bei mir geht das auch ganz anders.
Meine Kunden, die wollen gar nicht erst soweit kommen, dass wir ein Backup brauchen.
Genau, können wir nicht einfach Technik erfinden, die nicht kaputt geht.
Genau. Das kann doch nicht so schwer sein.
Genau, und da gibt es natürlich auch beliebte Tools, um das Backup umzusetzen, oder?
Ja, also hier in der Liste und ich hab ja auch mal R-Sync hochgezogen, was weiter unten noch mal erwähnt wurde, also das war zweimal erwähnt worden in unserer Themenfindung.

[57:10] R-Sync an sich ist halt ein Tool, womit man Dateien, und Ordnerstrukturen replizieren kann auf eine andere Stelle, zum Beispiel über SSH verbunden mit einem anderen PC oder einfach auch lokal, wenn man zum Beispiel sagt, man steckt eine externe Festplatte an und möchte da jetzt ein Dateisystem-Abbild drüber schieben, also ein Abbild der Inhalte des Dateisystems, nicht vom Updater-System selber, das ist nochmal eine andere Sache, dann ist rsync eine Möglichkeit das zu machen.
Da muss man gucken, dass man die ganzen richtigen Schalter setzt, damit auch die ganzen Attribute alle mitkommen.
Je nachdem, was man so haben will. Also ich mache immer rsync-vau. Das macht so.
Die man haben will, aber man kann sich damit auseinandersetzen.
Das ist eins von diesen Unix-Tools, die auch 20.000 verschiedene Schalter haben.
Jedenfalls, damit kann man ganze Ordnerstrukturen replizieren, zu einer anderen Stelle hin, auch über SSH oder von SSH kommt oder solche Sachen.
Das macht eine relativ effiziente Übertragung von beiden Seiten.
Gerade wenn's durch Netzwerke durchgeht, möchte man vermeiden, dass man dieselben Daten noch mal durchschickt.
Wenn man einen Ordner hat, wo Terabyte an Daten drin liegen.

[58:10] Möchte man natürlich nur die paar Dateien übertragen, die sich jetzt tatsächlich geändert haben.
Und vielleicht, wenn man große Dateien hat, in denen sich ein bisschen was in der Mitte geändert hat, also so etwas wie ein anderes Dateistest im Abbild von einer virtuellen Maschine oder so etwas, möchte man auch nur die Teile davon übertragen. Auch das kriegt er so hin.

[58:24] Da haben sich die entsprechenden Entwickler einige witzige Algorithmen ausgedacht dafür, namentlich Rolling Checksums.
Das soll jetzt hier nicht das Thema sein, aber das vielleicht, wer sich dafür interessiert, als Suchmaschinen-Stichwort der Wahl oder für euer LLM, zum Nachfragen, was denn das ist.
Genau, andere Tools hier aus der Ecke sind Rastic. Ich glaube, Rastic ist auch nur ein Replikations-Tool, also auch dieselbe Sache, oder?
Oder ist das schon mit Backup und Versionierung und so weiter? Wer weiß das?
Schwierig. Kann sein, dass Honky das reingeschrieben hat, sodass das… Also, da müsste man noch ein ganz paar mit reinschreiben in dem Bereich.
Also, ich finde ja Duplicity fast noch schöner als Rastic, weil Duplicity hat halt diese Versionsverwaltung.
Und die nehmen halt dann auch noch jede Version auch noch inkrementell.
Und dann kannst du, also vielleicht sollte man das noch mit reinschreiben, Duplicity.
Das ist halt so oft R-Sync basierend und verschlüsselt auch kleiner mit und sowas. Also auch ein schickes Tool.
Ja, ich habe hier in die Liste eingetan Borg. Borg Backup ist das, was ich verwende.
Ich hatte auch mal auf einer Gulasch-Programmiernacht mit dem Maintainer gesprochen, ein bisschen geplauscht, als ich das gerade erst frisch damit angefangen hatte, es zu verwenden und dann noch so ein paar Tipps Mittlerweile ist das alles aufgesetzt.
Und was mir bei Borg ganz gut gefällt, das hat auch Versionierungen und so was.
Das hat auch Verschlüsselungen drin von dem Backup, was es erstellt.
Und es hat auch ein Verhalten, dass man es laufen lassen kann auf dem Server, wo die Backups hingeschickt werden, in so einem Append-only-Mode.

[59:50] Also, dass die Quelle, wo die Daten herkommen, die gebackert werden sollen, wo ein neues Abbild hingeschickt wird, kann nur neue Daten hinschicken und nicht alte Sachen wegnehmen.
Zum Beispiel sagen wir hier, diesen alten Snapshot, der kann weg.
Dieser alte Abbild brauchen wir nicht mehr.
Das kann dann in diesem Sendevorgang nicht gemacht werden. Und das ist natürlich das, was man haben will, dass es alles genau in eine Richtung geht.
Denn wenn auf der einen Seite die Quelle vom Verschlüssungstrujaner betroffen ist, oder man ja aus irgendwelchen anderen Gründen da eine Hintertür aufgegangen ist und das infiziert wurde, soll natürlich dieser Rechner nicht die Möglichkeit haben, diese Infektion weiter zu verbreiten und auch die alten Kopien auf dem Backup-Server zu zerstören.
Sondern es werden dann halt nur neue, kaputte Kopien geschrieben, die man überspringen kann, wenn man weiß, dass das das Problem ist.
Okay, macht man das aber nicht eigentlich dann, also bei R, wenn man das mit R-Sync sicher machen will, macht man das glaube ich so, dass der Rechner, wo es hinkommt, dann die Kopie anlegt und deswegen der infizierte Rechner darauf dann keinen Einfluss nehmen kann.
Naja, aber dann kann er trotzdem die Dateien im falschen Zustand rüberziehen, wenn man zum Beispiel einen Verschlüsselungs-Trojaner hat.

[1:00:53] Achso, ja, ja, ja, wenn der da automatisch das, ja, aber du kannst nicht, er kann halt nicht, der Trojaner kann dann halt nicht dem R-Sync mitgeben, dass es die alten löschen soll.
Ja, also du könntest halt die Option weglassen, die halt Löschung auch repliziert, aber überschreiben würde auf jeden Fall gehen.
Also ja, auch wiederum da, man sollte eine saubere Analyse machen, welche Schutzziele man erreichen will, wie das eigentlich immer bei IT-Systemen, der Fall ist und dann dementsprechend die Lösung evaluieren, die man einsetzen möchte.
Ja, ich würde nochmal gerne einspringen. Und zwar reden wir jetzt gerade über Ersyn, RESTIC, Duplicity Pro, alles Tools, die cool aber die kein normaler Mensch benutzen kann und die auch nicht relevant sind für normale Menschen.
Also die Hörer da draußen, die werden meistens ein Windows haben, die werden ein macOS haben, aber eben kein Linux, wo es diese vier Tools gibt.
Klar, man kann die mit diversen Methoden unter Windows nutzen und auch unter macOS, aber ich habe jetzt hier nochmal so ein paar Tools reingeschrieben, die auch für normale Leute relevant sind.
Ich habe jetzt leider angefangen mit dem Tool, was auch wieder ein bisschen komplizierter ist. Das heißt Robocopy.
Das gibt es seit 96 bei Windows NT 4.
Das ist einfach im Prinzip ein besseres Erstellungsdach gebaut.

[1:02:12] Das macht halt das, was Erstellungsdach unter Linux macht, macht das unter Windows.
Also das ist eingebaut, das ist dabei, das kann man benutzen, muss man sich mit auseinandersetzen. für die relevanten Sachen wie Telefone-Backupen.

[1:02:26] Also ich empfehle das Seed Vault. Da habe ich halt die Möglichkeit, mein Backup irgendwo hinzukopieren.
Man muss fairerweise aber auch die Google Cloud und auch die iCloud nennen, weil das im Zweifelsfall eine Backup-Option ist.
Die meisten Leute kommen halt zu mir und haben ihr Passwort vergessen oder das Telefon ist runtergeflogen.
Bumm, alle Daten weg. Und das sind dann meistens ärgerliche Daten.

Das Telefon klingelt!

https://c3d2.social/@pentaradio/111490349704065754


[1:02:52] Bevor du weiterredest, mal kurzer Einwurf. Unser Telefon hat gerade rot geblinkt.
Wir wissen nicht, ob das jetzt quasi ein stummes Klingeln war.
Wenn jemand da draußen versucht hat, uns anzurufen, probiert es mal nochmal.
Wenn es nochmal blinkt, dann gehen wir ran und dann gucken wir, was passiert.
Wobei ich dann immer noch rausfinden muss, wie ich das hier wirklich als Audioquelle für dieses Dings da auswähle. Ist da nicht irgendwas mit Telefon beschriftet?
Ja, aber das ist da oben und das ist nichts, was ich auswählen kann. Na, geh doch mal ran.

[1:03:17] Guten Tag. Guten Tag, bin ich da beim Digital Radio?
Ja, im Prinzip schon, aber ich glaube, du kommst gerade nicht durch die Leitung.
Okay, das war's. Ich habs. Dann halt einfach das Mikrofon dran.
Ja, genau, ich halt es einfach mal an mein Mikrofon ran. Moment, du bist jetzt live.
Guten Tag, hier ist der Anki. Ich wollte mal fragen, wenn ihr gerade über Backup-Lösungen, redet und über Lösungen, die man bei Windows benutzen kann. Was haltet ihr von Nextcloud als Backup-Lösung?
Ist das was, was man benutzen kann? Naja, Achtung, das habe ich ja schon angesprochen mit Seedwold, weil Seedwold teilt in die Nextcloud-Reihen einen Sicherungspunkt.
Ich kann nicht sagen, ich höre nicht, was ihr sagt, aber ich lasse euch einfach mal reden. Und ihr seid die tollsten Radios in der ganzen Welt.
Schönen Abend euch. Tschüssi. Ciao.

[1:04:04] Ja, bis zur nächsten Sendung finden wir auch raus, wie wir das Telefon vernünftig einbinden.
Niemals. Das ist der Scham, wenn der Radio das nicht alles ganz funktioniert.
Also wie gesagt, natürlich wenn man iCloud und Google Cloud sagt, muss man auch Nextcloud sagen oder Uncloud oder SyncTool oder sowas.
Also sieht man, ist egal, welche Cloud du benutzt. Das heißt, diese ganzen Telefone und Tablets kann man mit den angesprochenen Tools auch datensicher.
Da haben wir jetzt eigentlich alles durch.
Macht mal weiter. Ich werde mal gleich das Bild raustooten, wie wir gerade unser Technik-Setup hatten für die Live-Schalte.
Sehr gut, genau dann hätten wir jetzt Unix Tools und damit die Unix Philosophie

Helfer: GNU coreutils

https://en.wikipedia.org/wiki/List_of_GNU_Core_Utilities_commands


[1:04:51] steht hier und GNU Core Utilities.
Das ist schlecht, da steht nämlich als Quelle hier wieder dieser komische Podcast, der hier die ganze Zeit Werbung machen will.
Jetzt ist der Podcast Inhaber gerade nicht verfügbar. Ja, der Podcast Inhaber ist nicht verfügbar, ist schade.
Core-Utils an sich ist natürlich schon relevant.

[1:05:16] Also ich hatte gerade versucht, die das Konkurrenz dazu zu suchen, weil die haben das noch ein bisschen kleiner gekriegt und zwar nutzt OpenWrt BusyBox genau und BusyBox ist halt Core-Utils noch ein bisschen kleiner.
Naja, also kleiner in dem Sinne, es ist halt stark eingeschränkt im Funktionsumfang, weil es wirklich darum geht, das Ganze in möglichst wenig Bytes abzudecken, eben für solche Systeme mit begrenztem Speicherplatz oder auch zum Beispiel für kleine Container-Images wird es verwendet gerne, hat dementsprechend einen stark eingeschränkten Funktionsumfang.
Wenn man sich diese GNU-Core-Utils anguckt, da hat man dann gerne mal 100 oder, 200 Optionen irgendwo dran bei den zentralen Sachen, während das dann bei Busybox eher so 10 oder 15 sind oder vielleicht dann noch weniger.
Und es ist außerdem noch dadurch komprimiert, dass es alles in einem einzigen Programm, in einer einzigen Programmdatei drin ist, die dann je nachdem, wie sie aufgerufen wird, dann halt sieht, welche Funktionen sie denn jetzt gerade sein soll.
Und das dann ausfällt und dadurch kann man das Ganze ein bisschen kompakter machen. Ich sehe, Simon hat offenbar den Taste gefunden, mit dem er das nächste Mal das Telefon durchschalten kann. Ja, anscheinend, ja.
Es sieht stark so aus, als gäbe es hier eine Taste, wo einfach Telefon draufsteht.
Das ist jetzt natürlich das Vorzeichen für besorgende Levels von Professionalisierung im Penta-Radio nach nur 16,5 Jahren.

[1:06:33] Und vor allen Dingen gibt es das dann live ohne Test, also ohne Test-Run.
Ja, haben wir doch gerade schon gemacht.
Also gehen wir mal weiter an der Liste. Wer hat RG reingeschrieben?

Helfer: ripgrep

https://github.com/BurntSushi/ripgrep


[1:06:44] Ja, RG ist RIP-Grab. Das ist einer von diesen ganzen Grab-Klons.
Grab ist ja eines von diesen Core-Utils, also ein Befehl, der ursprünglich mal so als Seitenwarze aus der Stammlinie von WIM rausgewachsen ist, also aus den VI-Editoren.
Da gab's den Extended Mode, wo man ... Beziehungsweise, nee, schon aus EDD damals, also aus dem ganz allerersten Texteditor, wo es dann die erste Implementation von regulären Ausdrücken gab.
Da konnte man dann quasi den Befehl G verwenden, um Zeilen zu selektieren, die an einen bestimmten regulären Ausdruck passen, also RE.
Dann kann man ein weiteres Befehl angeben, was man damit machen möchte, z.B. P wie Print.
Dieses Ganze, quasi Go to regular expression and print, ist dann, was GREP ist.
Also ein Befehl, mit dem man eine Textdatei oder einen Textstrom nehmen kann und dann alle Zeilen rausgreifen kann, die auf einen solchen regulären Ausdruck passen, also auf ein Suchmuster.
Davon gab es dann diverse, schnellere Implementierungen, die auch ein bisschen komfortabler waren.
Ich habe eine relativ lange Zeit ACK verwendet, was damit geworben hat, dass es so viel schneller zu tippen ist, weil es 25 Prozent weniger Buchstaben als Crepe hat.

[1:07:47] Dann gab's eine andere Implementierung, die hieß Silver Searcher, die ich selber nicht verwendet hab, aber die war A-G, weil quasi Silver ja quasi Silber das Symbol A-G hat.
Was da noch kürzer ist, jetzt sind wir bei RipGrab angekommen, also R-G.
Und das ist in Rust geschrieben. Rust ist hip und muss für alles verwendet werden.
Das ist das Prärogativ. Und nee, RipGrab ist tatsächlich ziemlich geil.
Ist richtig superschnell und hat auch sinnvolle Standards. Wenn man das in einen Git-Repo loslässt, um gleich wieder zum Start zurückzukommen, Dann werden automatisch auch alle Dateien von, also dann wird quasi das gesamte Repo durchsucht, aber es werden automatisch alle Sachen ignoriert, die zu Git selber dazugehören, diese Verwaltungsdateien im .git-Ordner.
Und es werden außerdem alle Sachen ignoriert, die auch Git ignoriert, was man da eben eingestellt hat jeweils.
Das ist alles ganz convenient und macht Spaß. Ja, das sind halt so Spezial-Tools.

[1:08:38] Ich sage mal, ich bleibe da gerne bei den Co-Utils, weil die auf den ganzen unterschiedlichen Tool-Systemen, auf denen ich drauf rumhacke, überall da sind.
Und wenn man jetzt seine Skripte ausrollt, die man überall laufen lassen muss, dann muss man erst noch irgendeinen abbauen, was dir dann das nacherzählt oder sowas.

Helfer: Nochmal coreutils

https://en.wikipedia.org/wiki/List_of_GNU_Core_Utilities_commands


[1:08:59] Ich würde bei den Co-Utils noch drei weitere Tools nennen. Ganz wichtig ist CRT-Cut.

[1:09:04] Genau, Also Katzen mögen wir alle, deswegen Cat. Eigentlich die Kurzfahrt von Franck Rathenäth. Genau.
Falls man mal keinen Editor hat, man kann auch mit Cat-Dateien beschreiben und sowas.
Also habe ich zur Güte gemacht.
Weiteres wichtiges Tool von CoUTils würde ich Head und Tail, also das sind die beiden, die ich noch nennen möchte, nennen, weil die das Leben extrem einfach machen. Dann müssen wir aber noch Tuck erwähnen.
Ja, wenn wir schon einen Cut haben, dann auch TAC. Das ist was einfach, anstatt die Zeilen geradewegs rauszugeben, die Zeilen rückwärts ausgibt.
Ich habe bis heute keinen Anwendungsfall gehabt, wo ich das dringend brauchte, aber es wird sicher irgendwann der eine Tag kommen, wo ich sage...
Doch, ich habe TAC schon produktiv benutzt. Sehr gut.
Kann ich in TAC dann auch rückwärts die Datei reinschreiben?
Wahrscheinlich. Das habe ich noch nicht gemacht.
Also wenn du dein Problem vom Ende her denken möchtest, dann ist das eine gute Option. Also gerade, ich habe ja, wo ich damals meine IT-Karriere angefangen habe, mit OpenBRT-Entwicklung angefangen.
Dort gab es halt keinen Editor und dort habe ich alles mit CAD-Cut gemacht.
Und wenn ich mir jetzt gerade so tag dann überlege, wie soll das funktionieren?

[1:10:12] Genau. Nee, nee, wir haben ja noch ein paar andere Sachen auf der Liste.

Helfer: moreutils

https://joeyh.name/code/moreutils/


[1:10:16] Und da wir jetzt gerade deine Picks aus den Core-Utils gegeben hast, gebe ich mal meine Picks aus den More-Utils.

[1:10:22] Ist auch so eine Sache, die ich erst vor wenigen Jahren gefunden hab, so durch Zufall mehr oder minder.
Und bin dann so drauf eingesprungen und so begeistert davon gewesen.
Die More-Utils beschreiben sich selber als die ganzen Sachen, die in den Core-Utils alle fehlen.
Und da sind so ein paar Sachen, die ich herausgegriffen hab, die ich tatsächlich auch schon selber verwendet hab. Das eine ist Sponge, also der Schwamm, der Dinge aufsaugen kann.
Und das ist für diesen ganz spezifischen Einfall, man möchte irgendwie eine Datei verändern, aber danach das Ergebnis in dieselbe Datei reinschreiben.
Das Problem ist aber, auf der Unix-Shell, wenn man eine Datei zum Schreiben öffnet, dann passiert das sofort am Anfang, wenn die Pipeline ausgeführt wird.
Dann ist die Datei leer, weil die geleert wird und dann wieder neu zum Befüllen hingelegt wird.
Das ist halt blöd. Deswegen, was Bonsch stattdessen macht, ist, dass es im Prinzip auch am Ende der Pipeline steht, wo der Text am Ende reinkommt.
Aber es saugt das auf wie ein Schwamm. Ganz am Ende wird's in die Datei rausgeschrieben, nachdem die Datei auch vollständig durchgelesen wurde vom vorderen Teil der Pipeline.
Das ist die Sache, die Sponge macht. Die zweite Sache hier auf der Liste ist TS, also Timestamp.
Das ist auch so ein Programm, was man einfach in die Pipeline reinschreiben kann und das fügt einfach an jede Zeile vorne einen Timestamp an.
Also wenn man zum Beispiel einen Prozess hat, der lange läuft und ab und zu mal so eine Logzelle schreibt und das enthält nicht schon selber einen Timestamp, kann man einfach einen Timestamp da vorne rankleben damit, dass man sich das nachher angucken kann und so eine Vorstellung davon hat, wie lange das jetzt gedauert hat, die einzelnen Schritte und solche Sachen.

[1:11:46] Und die dritte Sache, die ich am total bombastischsten finde, die wirklich meinen Arbeitsalltag komplett verändert hat, so wie das in den iPhone-Kinos gesagt wird, es ändert schon wieder alles, ist V.I.D.E.
Also V.I. wie gesagt ist ja unser bekannter, beliebter Texteditor, der meistens in der Form von Wim auftritt, aber es ist jetzt auch nicht auf V.I. festgenagelt.
Das ist ein Programm, dem gibt man einen Ordner.
Dann guckt es sich an, welche Dateien gibt's im Ordner, schreibt die alle in einer Datei mit Zahlen davor, also quasi so eins und dann die erste Datei, zwei und die zweite Datei und so weiter.
Dann ruft es diese Datei im eigenen Editor auf, also standardmäßig halt WIM oder VI oder so was.
Man kann's dann auch überschreiben mit den entsprechenden Umgebungsvariablen, wo man's geöffnet haben möchte.
Dann kann man diese Datei bearbeiten und kann zum Beispiel sagen, man kann einfach die Namen von Dingen ändern, man kann einfach Zeilen löschen, wenn man eine Datei nicht mehr haben will.

[1:12:38] Mach den Editor zu und dann ändert, dann wendet VI dir einfach all diese Änderungen an.
Also es guckt sich dann an, weiß dementsprechend, hier steht irgendwie eine Zeile, irgendwie Datei Nummer 2 soll jetzt folgenden Namen haben und dann sieht es halt, okay, das ist ein anderer Name als vorher, also machen wir mal so einen Rename.
Datei Nummer 3 taucht gar nicht mehr auf, okay, die löschen wir jetzt halt und so weiter und so fort.
Und das ist quasi, das hat für mich komplett diesen Use Case von Renaming und sowas abgelöst.
Also natürlich für eine einzelne Datei unbedingt gibt es halt mv, das ist ja bekannt. Aber wenn ich so eine Gruppe von Dateien ändern möchte, finde ich das angenehmer, das in meinem Texteditor machen zu können und meine normalen Editierbefehle dafür einsetzen zu können, um eine Massenbenennung zu machen.
Ich kann mir das Ergebnis vorher angucken. Ich kann nicht so ein Rename blind ausführen und sehen, hat's geklappt oder nicht, wenn nicht, so ein Blödsinn.
Ich kann vorher im Editor angucken, hat meine Bearbeitung Sinn ergeben?
Irgendwann entscheide ich mich, es ist so weit, das zu machen.
Das ist bombastisch, das müssen alle einsetzen, die irgendwas mit der Unix-Quandazeite zu tun haben.
Zubefehl. Und die auf großen Systemen arbeiten, wo man Speicher hat und wo man Pakete nachinstallieren kann.

[1:13:41] Ich arbeite halt auch immer auf älteren Systemen und versuche, die wieder zum Leben zu wecken.
Und da hat man leider sowas wie nicht immer die Möglichkeit, Pakete nachzuinstallieren. Also Mojo-Tits ist jetzt auch nicht die neueste Sache.
Also wenn du auch irgendwie ein Paket-Repo von vor ich weiß ja nicht, wie alt deine Systeme sind aber ein Paket-Repo von vor fünf Jahren wirst du auch schon enthalten haben.
Ja, nee. Ich gehe da noch weiter zurück. Da können wir gerne mal eine Folge machen.
Green IT, alte Systeme wieder zum Leben erwecken und was man daraus noch so alles machen kann.

[1:14:10] So beim nächsten Befehl sehe ich wieder, es geht wieder um die Apologeten des Nix.

Helfer: btop

https://github.com/aristocratos/btop


[1:14:14] Nee, Betop ist, ja das ist halt hier, da hat jemand dazu geschrieben, dass man es in der Beta unter Nix laufen lassen kann.
Aber Betop habe ich auch in der Archilux installiert aus den Quellen und das ist eine, ja eine schönere Variante von Top.
Top ist auch so ein Tool, was einmal gebaut wurde, so wie Crep und dann halt ganz viele Nachahmer gefunden hat. Also ich hatte jetzt gerade schon die ganze Genealogie von Crep-Klons aufgezählt.
Bei Top ist das auch so. Top heißt einfach Table of Processes.
Also, es gibt einem die Liste der aktuell laufenden Prozesse aus.
Und auch so, dass es aktiv sich immer updatet und immer zeigt, was jetzt grade die meiste CPU das verbraucht.
Also, wer unter Windows den Taskmanager kennt oder unter MacOS gibt's ja auch dieses Systemview oder so was.
So etwas halt für die Kommandozeile. Und das ist, was Top macht.
Und dann gab's halt alle möglichen Neuimplementationen, die ja alle ein bisschen schicker sind. Und in Vorbereitung dieser Sendung wurde ich auf Betop hingewiesen.
Und ja, das sieht alles nochmal so ein bisschen schicker aus.
Also das hat zum Beispiel richtiggehend Verläufe hier.
Also das verwendet hier die Unterstützung von modernen Terminals für 16 Millionen Farben und sowas, dass man auch richtige Farbverläufe rendern kann in den Balken und solche Sachen.
Und selbst die Listen irgendwie dann so ein bisschen so eine Schattierung haben, je nachdem, dass es quasi um den Cursor herum aufleuchtet.
Also ich muss dazu sagen, das hat mich mal wieder ein bisschen geflasht.
Das war sein Lama wieder, so der Temux-Effekt.

[1:15:28] Also, wer vom Screen kommt und dann mal Temux benutzt, dieses Gefühl hatte ich, als ich von Hardtop kam und mir Betop angeguckt habe.
Okay, also zwei Testimonials hier an der Stelle. Ich sehe schon, ich stecke noch auf Hardtop, verdammt.
Genau, wie gesagt, ich würde mal sagen, hier diese Punkte, die wir hier unten haben, die würde ich einfach mal die ganzen Gruppen bitten, das nächste Mal reinziehen, weil wir haben ja sowieso noch das Thema Paperless, NGX, was wir jetzt dieses Mal nicht machen werden, weil diesmal Hongi nicht dabei ist und das möchte ich ihm nicht wegnehmen, dass er...
Begeistert seine Erfolgsstory erzählen kann, das machen wir dann vielleicht im Dezember. Honky, ich weiß, du hörst zu.

[1:16:02] Melde dich mal bitte auf Signal, ich habe dir schon Vorschläge für einen Aufzeichnungstermin geschickt.
Oder ruf einfach an, wir sind ja im Studio. Wir wissen jetzt auch, wie es geht. Vielleicht. Sehr gut.

Helfer: jq

https://stedolan.github.io/jq/


[1:16:15] Ne, ich habe hier noch so einen Punkt zusammengefasst und zwar API-Analyse.

[1:16:19] Ich bin ja im Backend unterwegs als Entwickler, also Backend im Sinne von heutzutage ist ja alles, was man irgendwie baut, zu großen Teilen einfach eine Webseite, die man aufruft als Nutzer, weil da muss man dem Nutzer keinen Code auf dem Rechner installieren und das macht sich alles sehr viel angenehmer.
Und deswegen ist das alles diese Serverentwicklung, wo dann auf dem Server ein Backend läuft und beim Kunden dann so ein Frontend, also der macht eine Webseite auf und da ist dann auch noch mal Code drin, also irgendwie JavaScript oder sowas.
Und ich bin da auf dieser Backendseite unterwegs und wenn man auf solchen Serverentwicklung auf dem Backend macht, dann hat man sehr oft zu tun mit programmierstellen, mit sogenannten APIs, zwischen diesen verschiedenen Komponenten, die miteinander meistens heutzutage JSON über HTTP reden.
Also HTTP, klar, das Protokoll, was Webbrowsers sprechen.
Das ist auch der Grund, warum es überall verwendet wird, weil das halt dann sofort die Integration in dieses Frontend im Webbrowser ermöglicht, in der Webseite.
Und JSON dann eben ein Format, was von JavaScript abgeleitet ist, quasi grundsätzlich mal gestartet einfach als die Syntax, die JavaScript sowieso verwendet, um Datenstrukturen zu deklarieren und das dann halt als Datenübertragungsformat spezifiziert.
Das ist so der Standard, was fast alle APIs heutzutage in irgendeiner Form machen, die nicht schon auf Standards basieren, die vor dieser JSON-Dominanz gekommen sind oder die nicht wirklich spezifische Anforderungen an Performance und sowas haben, an großen Datendurchsatz und sowas.
Aber die meisten machen JSON, weil das kann man auch als Mensch sich einfach angucken und verstehen und dann Standard-Tools einsetzen, um das zu analysieren.
Eines von diesen Tools ist hier jq. jq heißt JSON-Query.

[1:17:46] Und das ist im Prinzip ja so ein bisschen vergleichbar mit, von den Core-Utils kennt man ja Z, wo man auch so einen Text-Stream sich nehmen kann, so einen Text-Strom und dann zeilenweise Bearbeitungsbefehle machen kann, um diesen Text-Strom zu bearbeiten oder wie es ja auch zum Beispiel mit Org gemacht wird, dass man halt so einen Text-Strom mit so einer einfachen.

[1:18:06] Bearbeitungsprogrammier-Sprache manipulieren kann.
Und das Das macht JQ, aber spezifisch mit einer Bearbeitungssprache für solche strukturierten JSON-Objekte.
Das heißt, man kann da zum Beispiel sagen, von jedem der folgenden JSON-Objekte, die jetzt hier durchkommen, möchte ich nur das Attribut Name haben.
Und dann möchte ich da selektieren, alle Attribute, die ...

Das Telefon klingelt schon wieder


[1:18:26] Oh, ich sehe, wir haben jetzt hier ... Oh.
Ich sehe neue Leuchten aufleuchten. Hm. Okay, aber ...
Interessant. Wenn ich auf den Telefonknopf drücke, höre ich den ...
Kommt nichts mehr aus dem Hörer, aber wir hören ihn auch nicht auf der Spur, oder? Hallo? Hätte es sein können, dass du den Hörer nicht abnehmen dürftest dafür? Hm.

[1:18:48] Ist der Honki jetzt wieder da hier?
Ah ja, jetzt hör ich dich wieder im Hörer. Okay, wir haben es immer noch nicht ganz verstanden, wie es richtig funktioniert.
Ich wollte nur anmerken, dass Btop im Debian scheinbar nur ein Snap-Paket ist und kein App-Paket auf die erste Recherche ist.
Und Angelix, äh, Angelix, Paperless-NG, ist wirklich toll.
Jaja, das besprechen wir dann das nächste Mal, okay. Würde ich widersprechen, ne, ich hab auf aktuellen Bookworms mit A Btop installiert.
Das könnt ihr das nächste Mal diskutieren, whatever. Genau, ich mach kurz meine

Helfer: Zurück zu jq

https://stedolan.github.io/jq/


[1:19:18] Verkaufsrede für JQ weiter in den letzten fünf Minuten dieser Sendung.
Nee, JQ ist einfach so das moderne Schweizer Taschenmesser für alle, die mit APIs irgendwie zu tun haben und die irgendwie automatisiert ansteuern.
Also, curl, um irgendwie HTTP-Requests zu machen und dann das Ganze in JQ reinpipen, ist irgendwie, ja, die Hälfte der modernen Backend-Arbeit im Prinzip.

[1:19:37] Quasi kaum ein Shell-Skript, was ich heutzutage schreibe, für die Arbeit kommt noch ohne JQ aus. Super Sache.

Helfer: gron

https://github.com/tomnomnom/gron


[1:19:43] Eine zweite Sache, die auch so für Analyse von JSON-Dokumenten ist, die ich hier noch kurz erwähnen möchte, ist cron.
Das ist nicht unbedingt, um damit großartig zu scripten, aber das ist gut zum sich angucken von JSONs.
Wenn man mit einem JSON konfrontiert wird, man hat vielleicht so ein Megabyte vor sich, muss man erst mal eine Vorstellung davon haben, was das eventuell sein könnte.
Dann kann man hier cron verwenden. Das macht eine Umformatierung so, dass jedes einzelne Feld von dem JSON auf einer eigenen Zeile ist mit dem ganzen Pfad von dem Ding.
Das ist deswegen interessant, wenn man danach dann wieder so was wie GREP verwenden kann.
Also zum Beispiel, ich habe ein riesiges JSON, was irgendwas mit Bibliotheksdaten ist. Ich möchte jetzt einmal wissen, wo steht denn jetzt hier so was wie ein Outdoor?
Dann kann ich halt sagen, okay, wahrscheinlich hat die Bibliothek irgendein Buch von Ken Follett oder so was.
Also mache ich einfach mal, cut mein riesiges JSON, pipe Gron, damit es in dieser zeilenweise Darstellung umformatiert wird und dann pipe GREP Ken Follett. Und dann sehe ich dann halt, dass dann zum Beispiel da steht irgendwie jason.inventory.entries.

[1:20:39] 0.author ist gleich und dann kann ich sehen, okay, so ist die Struktur von dem Ding und dann kann ich dann anfangen für mein tatsächliches Skript dann die jq-Abfrage daraus zu bauen auf Grundlage dieser Struktur, die ich dann daraus gesehen hatte.
Das ist also gut zum Explorieren, so für die interaktive Verwendung ist es nicht unbedingt relevant für Scripting, aber ein guter Companion zu GQ dazu.
Also GQ muss man sagen, das ist auch so ein awesome Tool, also das ist geil, genau.
Aber da muss man natürlich fairerweise auch die XMLlib2 nennen,

Helfer: libxml2 utils

https://gitlab.gnome.org/GNOME/libxml2/-/wikis/home


[1:21:11] also XMLlib2-util heißen die, glaube ich.
Haben ähnliche Sachen, die haben einen XML-Linter und sowas dabei.
Also da kann man auch auf der Konsole XML so ein bisschen durchjagen.
Da habe ich auch schon viel mitgemacht. Also sowohl jq, also XML-Lint, und XML-Utils.

[1:21:30] Das sind Tools, die dir extrem weiterhelfen. Ich werde auch einfach mal pluggen.

Helfer: nuq

https://github.com/Nuckal777/nuq


[1:21:35] Es gibt dann von jq noch so ein paar Abwandlungen, wo man andere Formate einlesen kann, sowas wie yq für YAML und so weiter. Und ich glaube, xq gibt es auch.
Und ein Kollege von mir hat mal ein Tool geschrieben, was automatisch erkennt, was reingegeben wird oder wo man es auch deklarieren kann.
Und dann kannst du sowohl JSON als auch YAML als auch XML in sowas lesen.
Das werde ich mal hier verlinken. Das heißt NUQ, also N-U-Q, weil sein Git-Username mit N-U beginnt.

[1:21:58] Werden wir das hier mal gleich mal pluggen. Da könnt ihr gerne ein paar Stars dorthin lassen. Das ist noch viel zu unbestarrt, das Repo.
Und ich denke, damit ist auch unsere Zeit wurde abgelaufen. Ja genau, daher weisen wir noch kurz darauf hin.
Es gibt im Dezember den 37c3 und dafür gibt es morgen und am 2.

Event: Im Dezember ist Kongress

https://events.ccc.de/category/37c3/


[1:22:19] Dezember die Tickets ohne, also die freien Tickets.
Also nicht frei im Sinne von kostenlos, sondern freier Verkauf.
Freier Verkauf genau. Schaut auf events.ccc.de Also um genau zu sein, morgen 20 Uhr und am 2.
Dezember um 15 Uhr. Seid pünktlich.
Mit den Softwarehelfern geht es dann nochmal weiter, entweder nächstes Mal oder andermal, je nachdem wie wir Lust haben, werdet ihr sehen.
Und wenn ihr noch Vorschläge habt, schickt uns ein Toot auf Mastodon oder eine Mail an pentaradio at c3d2.de Genau, damit verabschieden wir euch in die Nacht und zwar mit Pipe Choir Infinite Light.
Tschüss! Ciao! Tschüss!

[1:23:03] Music.