A new hop(e)

Logo of Locksmith Brewing
Locksmith Brewing

When one door closes, another one opens. And so we have our own craftbeer shop and microbrewery in Volksdorf now: Locksmith brewing . And our fridge looks like this:

Our fridge full of craftbeer
A normal fridge on a normal day…

Cheers!

An open Bottle of Wiener Lager next to a full glass
Wiener Lager by Locksmith Brewing

Jazda

I recently discovered jazda, which is a hackable bike computer. Well, actually, right now, it is a smart watch with a half-finished bare-bones core app that wants to become a biking app when it is grown up. You need to compile your own rust-based operating system and flash it using an STLink 2.0 pluged into a SWD breakout board dev kit, plugged into the charging cable, attached to the watch. So what can possibly go wrong? 🙂

The devkit arrived quickly, containing the Bangle2js watch, a STLink 2.0 and the breakout board to connect the STLINK to the charging cable and a few stickers. Do NOT expect a manual yet!

In this post, I am going to describe the steps to setup jazda, based on my first experiences.

Install required things

  1. You will need tockloader to flash things to the watch.
    I just installed it as regular user (python setup.py install --user), ideally one could do this in a container or python venv to avoid polluting your local python modules. The upstream tockloader did not know the board name(?!), TODO: check out if/why upstream tockloader is not sufficient.
  2. The example app later requires python3-z3, so install that from your package manager or via pip, if you want to run the test app.
  3. You need openocd (which is used by tockloader) to do the actual flashing. The version in Debian testing/bookworm (0.11.0-1(?)) was sufficiently up to date.
  4. You need to install the stlink-tools (otherwise, openocd produced a Error: libusb_open() failed with LIBUSB_ERROR_ACCESS error message). The reason is that this adds udev rules that permit any user in the plugdev group to do flashing to the STLINK without being root.
    Note: restarting udev and re-plugging the stlink is required to make use of the added udev rules.
  5. Install rust (which is required for all the compiling)
    I first installed rust-all and rust-src on my Debian testing, in order to avoid the rustup script. (I just don’t like to cheat on my package manager).
    After failing with the rust version provided by the Debian package manager, I uninstalled everything and locally installed rust via rustup for my user. (sorry package manager, I hope you’ll forgive me!)
  6. just is a command line something (similar to make, but less powerful). Debian did not have a package ready, but cargo install just provides it to you. You need it to build the jazda Core app.

Compile and flash the tock kernel

  1. Compile the tock kernel
    The board setup is described in https://framagit.org/jazda/tock/-/tree/flashil/boards/nordic/sma_q3
  2. Just run make in the directory boards/nordic/sma_q3.
  3. This resulted in the file:
    a907d5297a74f999bb98f860151a1dea87c021b3cf9fa247f7fae299615b88c2 target/thumbv7em-none-eabi/release/sma_q3.bin
  4. I then issued make flash with the STLINK plugged in and the running watch attached.
    This flashed the file sma_q3.bin to the watch. and output a success info on the terminal.
    There was NO change of the display in the watch which continued to show the time, and the display simply froze dead. (not even 30s button pressed will cause any reset or anything) You might be forgiven if you believe that you just bricked your brand new watch. Your watch is running the tock kernel, but does not do anything useful yet. The next step is to compile and run an example app, so see if things worked out.

Compile/run an example test app

So, next I compiled the libtock-rs sample app (note: you need python3-z3 installed for it, see requirements section above!). The jazda wiki explains how:

cargo install elf2tab
EXAMPLE=leds make nrf52840

If that succeeds, flash it and run it:

tockloader install ./target/thumbv7em-none-eabi/release/examples/leds.tab --board sma_q3 --openocd
tockloader listen --board sma_q3 --openocd --rtt

This made the watch blink and vibrate until I killed the app with ctrl-c.

Once you are sure, it worked great, you need to uninstall the example app, or you’ll end up with a full memory and you’ll be unable to install anything else.

use tockloader list –board sma_q3 –openocd and tockloader uninstall –board sma_q3 –openocd to remove apps.

Compile and run the real jazda “core” app

Now on to the real application. You need two repositories checked out in the same directory: Core, yanp. libtock-rs (yes, the one from the sample app above will be automatically checked out and build as part of the Core build process, so it is not needed to keep around anymore).

Before compiling succeeded, I needed to add the thumbv7em-none-eabi target to rust. That went like this:

rustup target add thumbv7em-none-eabi

If you have just installed (see requirements section), it will be as easy as entering the “core” repository and issueing

just build_bin map

If all this goes well, you’ll end up with an app as: target/thumbv7em-none-eabi/release/map.tab

To install the app, connect your watch, and try to install the app

tockloader install target/thumbv7em-none-eabi/release/map.tab --board sma_q3 --openocd

and starting the app worked by issueing:
just listen
which is just a shorthand for:

tockloader listen --board sma_q3 --openocd --rtt

jazda running in its full beauty! I have walked 0 decameters with it yet.

once, it runs, just unplug the charger to keep the maps app running. To “stop” the app, connect it again, tockloader listen and interrupt with ctrl-c.

See the elaborate bike holder? Themal insulation for hot water pipes works extremly well

This will display a map. There is also an app called “speed”, it is compiled and installed the same way as the map app.

Je höher die Impfquote, umso niedriger die Übersterblichkeit

Da erstellen zwei Forscher eine “Notiz” mit dem schönen Titel “„Je höher die Impfquote, desto höher die Übersterblichkeit“, ein Mitglied der “Partei BĂŒrger fĂŒr ThĂŒringen” (und vermutlich Coronaskeptikerin) macht sie publik und schon redet alle Welt davon.

Prompt kommen Faktenchecks, die allerdings wenig Details verraten oder die Ergebnisse nachvollziehen lassen. Also schnell selber die Daten runtergeladen und angeschaut. Eines vorweg, transparent in Datenquellen und Methodik ist die Originalnotiz, Bonuspunkte dafĂŒr (die statistischen Berechnungen stimmen auch). Auf der anderen Seite zeigt sich wie schnell mit dem AuswĂ€hlen des richtigen Datensatzes und eines Meßwertes der fĂŒr Ausreißer sehr anfĂ€llig ist, gezeigt werden kann, was gezeigt werden soll(?!). Der Kapitalfehler ist wohl sich auf lediglich einen 4 Wochenzeitraum zu beziehen und statistische Schlußfolgerungen ziehen zu wollen.

Übersterblichkeit nach Steyer und Kappler
Übersterblichkeit und Impfquoten nach SpĂ€th

Anstatt einer (nach Bevölkerung gewichteten) Korrelation von +0.31, kommt bei mir dann eine (ungewichtete) Korrelation von -0.82 heraus. Was sind die Unterschiede zwischen den Analysen?

Ich habe als Basiswert fĂŒr die Sterblichkeit die Jahre 2016-2019 herangezogen und nicht die Werte von 2016-2020 wie im Original (2020 war die Sterblichkeit schon coronabedingt höher, dieses Jahr mit in den Basisvergleichswert zu ziehen ist also nicht legitim). Ausserdem habe ich die gesamten ersten 43 Kalenderwochen von 2021 als aktuellen Vergleich anstatt nur der KW 36 bis KW 40 verwendet. Und auf einmal sieht die Korrelation im Scatterplot ganz anders aus. Was auf den ersten Blick auffĂ€llt, die westlichen BundeslĂ€nder sind schön linear angeordnet, wĂ€hrend die östlichen wesentlich weiter gestreut sind und eine deutlich höhere Übersterblichkeit zeigen. So weit, so gut. Zu bemerken ist, dass das immer noch eine ziemlich krude und simplifizierende Analyse und Darstellung ist. Was fehlt?

  1. Die jeweiligen Impfquoten zu einem bestimmten Zeitpunkt sollten (um ein paar Wochen zeitversetzt) mit den Sterberaten korreliert werden, momentan sind nur die Impfquoten am 30.11.2021 in Betracht gezogen. (Die Impfquote im November 21 kann ja sicherlich keine Auswirkung auf die SterbefÀlle im Januar 2021 haben).
  2. Die offiziellen Impfquoten sind nur als untere mögliche Grenze zu sehen, und könnten leicht um 5-10% höher liegen. Dabei ist möglich dass manche BundeslÀnder systematisch mehr unter-reporten als andere. Eine durch Datentriangulation verifizierte Impfquote wÀre also eine weitere Verbesserung.
  3. Nicht nur die Impfquoten sondern auch die Inzidenzen sollten in einer gescheiten Analyse berĂŒcksichtigt werden, denn die SterbefĂ€lle durch Corona richtet sich nach der Anzahl Infizierter, und nicht nach der Anzahl Geimpfter.
  4. Statistische Aussenseiter könnte man gesondern betrachten, wobei es in meiner Analyse kaum Ausreißer gibt.
  5. Weniger Marktschreierei wÀre schön. Diese Analysen zeigen wie empfindlich die Statistiken auf einige wenige Datenpunkte mehr oder weniger reagieren können, und statistische Aussenseiter das beinflussen.
  6. “Correlation is not Causation”! Nur weil die US Ausgaben fĂŒr science, space, and technology mit Selbstmorden durch ErhĂ€ngen und Erdrosseln mit einem Wert von +0,99 korrelieren, verbieten wir nicht die Raumfahrt um Menschen vor dem Sich-erdrosseln zu schĂŒtzen. Eine Korrelation muss keinesfalls kausale ZusammenhĂ€nge sichtbar machen!
  7. Eine Gewichtung nach BevölkerungsgrĂ¶ĂŸe wĂ€re machbar, aber mit der deutlichen klaren negativen Korrelation nicht wirklich eine sinnvolle ErgĂ€nzung.
  8. ThĂŒringen sollte besonders aufpassen, es hat in 2021 bisher die zweithöchste Übersterblichkeit von allen BundeslĂ€ndern, Frau Dr. Berger.

Meine Rohdaten und Analyseskripte sind hier zu finden. Ich bitte um Notiz wenn Sie darauf aufbauen oder etwas verfeinern.

Diese “quick and dirty” Analyse entstand in Vorbereitung eines Seminars zur kritischen Hinterfragung von wissenschaftlichen Studien, erhebt aber selber keinen Anspruch auf wissenschaftliche GrĂŒndlichkeit und VollstĂ€ndigkeit. GeĂ€ußerte Meinungen sind meine persönlichen und reprĂ€sentieren weder die Haltung der UniversitĂ€t Hamburg noch der Professur fĂŒr Digitale MĂ€rkte.

Originalnotiz: Steyer, Rolf, und Gregor Kappler. 16. November 2021. „Je höher die Impfquote, desto höher die Übersterblichkeit“.

Balancing Traxxas LiPos

Olivers Traxxas Summit (which is a cool car, and an expensive one!) has two LiPo batteries which have a female Traxxas iD plug (TRX). And it has a balancing connection built in. Unfortunately, Traxxas chargers are horribly expensive, and we have a nice one. It just does not have a Traxxas iD plug for charging.

XH 3-poliger Stecker

Solder iron to the rescue, now we have a nicely working adapter. But all that aside, what was REALLY difficult to find out is the pin layout of the XT plug used for balancing of a S2 battery. So without further ado: This is the plug that goes into the balancing port of the charger:

Looking at the plug with the metal pins visible from the top from left to right:

  • Red cable: Minus
  • Black cable: Balancing
    (plus of 1. cell)
  • Yellow cable: Plus

(German keywords: Pinbelegung XT Balancing Stecker 2S)

Flashing the FOSS modem firmware on the Pinephone

The pinephone contains amazingly few binary blobs. One of those is the modem firmware of the Quectel EG-25G. This modem is quite capable in terms of eg. LTE bands covered, but prone to crashes and other mysterious flaws. There is a firmware upgrade available (EG25GGBR07A08M2G_01.003.01.003), but people have reported instabilities with it.

Fortunately, biktorgj has created a (kind of) FOSS firmware that can be flashed on the modem, removing one more blob and making it easier debuggable. Kind of because the modem consists of two parts, a Linux userland (yes, it runs a full-fledged linux) and a binary firmware blob for the DSP inside (which does all the actual communication part). The DSP blob will not be replacible, but the userland is. So this is what I did:

The latest release at this point in time is 0.3.6 and is here (you might want to check the latest release version on the release page).

You need adb and fastboot (sudo apt install fastboot adb) installed on your pinephone,. The installation itself was just these commands on the pinephone :

wget https://github.com/Biktorgj/pinephone_modem_sdk/releases/download/0.3.6/package.tar.gz
  # any other temporary directory name/place will do below
mkdir firmware
tar xvzf package.tar.gz -C firmware
cd firmware
sudo ./flashall
  # took less than 30 seconds: last lines output was: "Finished, if everything went well, run fastboot reboot to restart the modem."
  # Do not reboot the modem before flashing the recommended DSP upgrade though)
wget https://github.com/Biktorgj/quectel_eg25_recovery/raw/EG25GGBR07A08M2G_01.003.01.003/update/NON-HLOS.ubi
  # you only need to flash the newer DSP blob once, not on every future upgrade...
sudo fastboot flash modem NON-HLOS.ubi
fastboot reboot

This FOSS Firmware does not do some loudness gain that the original one did, so the README (useful to read!) recommends to:

Call volume: May need some tweaking to the ALSA UCM configuration file. You can do this by editing /usr/share/alsa/ucm2/PinePhone/VoiceCall.conf. These values seem to work well:

cset "name='AIF1 DA0 Playback Volume' 90%"
cset "name='AIF2 DAC Playback Volume' 90%"
A reboot is required after changing this configuration file.

That was it!

Note1: After a fastboot reboot, mobile data did not immediately work. I powered the phone off, and took the battery out. After rebooting, data worked just fine. Not sure if it was necessary or even this, but it might be in case of trouble.

Note2: And before you ask: the modem cooperates better with ModemManager, resetting itself when it notices some inconsistencies, it makes HD audio possible, it makes routing the audio through USB possible, and it has no persistent data partition (meaning you cannot corrupt the modem if you cut power to it unexpectedly). We believe it is quite stable together with current mobian unstable/bookworm, but there is no guarantee, of course.

Der “Kapitalismus” lĂ€sst das Internet nicht scheitern (zumindest nicht in diesem Fall)

Auf golem.de schreibt Sebastian GrĂŒner in einem Meinungsbeitrag Wie das Internet am Kapitalismus scheitert. Er behandelt die AusfĂ€lle einiger großer Cloud und CDN-Anbieter (Fastly, Amazon, …) die weite Teile des WWW außer Gefecht setzten. Die Hauptthesen des Beitrags ist, “dass der Aufbau der aktuellen Internet-Infrastruktur immer mehr von Konsolidierung und damit von kapitalistischen ZwĂ€ngen geprĂ€gt ist.” Und bevor eine Lösung in Sicht ist, “muss das Problem deutlich werden; vielen Nutzern, Betreibern, politischen EnscheidungstrĂ€gern ist es das nĂ€mlich nicht.”

Lieber Herr GrĂŒner, oft stimme ich Ihnen zu, und auch hier stimmt vieles: viele Organisationen verlassen sich zu sehr auf einzelne “Cloud”anbieter ohne Alternativen in Betracht zu ziehen. So weit, so gut. Aber wenn diese Anbieter ausfallen und das eigene GeschĂ€ft offline ist, dann ist das erstmal nicht das Problem der Nutzer (im Sinne von Endnutzern), Betreibern (you get what you pay for) oder politischen EntscheidungstrĂ€gern (was sollte hier reguliert werden?), sondern der beauftragenden Organisation selber.

Das hier die Keule des Kapitalismus geschwungen wird, ist vermutlich clickbait. Mit Kapitalismus hat es nĂ€mlich nichts zu tun, dass Kunden sich auf einen großen Anbieter verlassen (die produzierenden Genossenschaften in der DDR waren grĂ¶ĂŸer und mindestens genauso dĂŒnne FlaschenhĂ€lse fĂŒr die Supply Chain). Und Sparsamkeit ist nun wahrhaftig keine Tugend des Kapitalismus. 1958 hat Walter Ulbricht als 7. von 10. Geboten der sozialistischen Moral verkĂŒndet: “Du sollst stets nach Verbesserung Deiner Leistung streben, sparsam sein und die sozialist. Arbeitsdisziplin festigen.”
Abgesehen davon ist unklar, ob eine solche Konzentration auf große CDNs in einem “öffentlichen” Internet nicht ebenso stattgefunden hĂ€tte. Gegenfrage: sind die Serviceanbieter in Kuba zuverlĂ€ssiger?
Zumindest bei meinem Arbeitgeber, einer UniversitĂ€t und Anstalt des öffentlichen Rechts, bricht zu Semesterbeginn regelmĂ€ssig die Studieninfrastruktur zusammen, weil der (einzige?) Datenbankserver ĂŒberlastet ist, wenn sich mehr als eine Handvoll Personen gleichzeitig ĂŒber das neue Semester informieren. Genug vom Kapitalismus.

Das eigentliche Argument dass ich Herrn GrĂŒner nicht abkaufe, ist dieses:

Die [fĂŒr Cloud und CDN Dienstleistungen] nötigen Vorab-Investitionen in Hardware und Infrastruktur sind aber derart riesig, dass es wohl allein deshalb schon zu einer Art natĂŒrlicher Konsolidierung kommt. […]

Ebenso ist es unwahrscheinlich zu erwarten, dass sich die Seitenbetreiber selbst um Redundanz in den von ihnen gebuchten Dienstleistern bemĂŒhen. Eine parallele Infrastruktur fĂŒr AusfĂ€lle zu betreiben, die im Zweifel nur wenige Stunden im Jahr umfassen, ist wirtschaftlich oft nicht zweckmĂ€ĂŸig.

Zum ersten Absatz: Ja, wenn man ein globales CDN aufziehen will, sind die Investitionen groß. (Wobei die BBC es sich vielleicht leisten könnte, im Vereinigten Königreich einen 2. oder 3. Server aufzustellen und seine Leser in Togo im Ernstfall fĂŒr ein paar Stunden zu vernachlĂ€ssigen). Aber es ist auch unnötig, dass ottos-schnuersenkel-shop.de ein globales CDN aufbaut. Wenn man das Risiko minimieren will, kann man a) redundante Datenzentren auch bei einem Anbieter buchen, oder b) einen zweiten CDN mit einbeziehen. Amazon verlangt keinen exklusiv-CDN Vertrag. Und Plattformen lassen sich auch auf mehren Anbietern hosten, ohne ein eigenes CDN Datencenter aufbauen zu mĂŒssen. Wenn der Bedarf dafĂŒr da ist, wird es auch Dienstleister geben, die ĂŒber mehre Cloudanbieter gestreute High-Availability Server anbieten, ohne dass Onkel Otto eigene Server im Keller seines SchnĂŒrsenkelgeschĂ€fts installieren muss.

Zum zweiten Absatz: wenn sich Seitenbetreiber nicht um die Redundanz der von Ihnen gebuchten Dienstleistungen bemĂŒhen, dann ist das schlicht kalkuliertes Risiko, und ein Ausfall ist einfach eine Folge dieser Kosten/Nutzenrechnungen. Und das kann man auch der BBC zumuten. Rechnungen der Art, “wie viel Reserve braucht man wenn man bei einer Ausfallwahrscheinlichkeit von X%, eine ServicequalitĂ€t von Y% aufrecht erhalten will”, habe ich im 1. Semester ausrechnen mĂŒssen, dass ist wahrlich kein Hexenwerk.
Wenn die Mannschaft der Feuerwehr keinen Helm bekommt, dann ist eine Verletzung auch keine Machenschaft des Kapitalismus, sondern eine Folge von unsĂ€glicher Kosten/RisikoabschĂ€tzung. Wenn etwas “wirtschaftlich nicht zweckmĂ€ĂŸig” ist, dann sind die Kosten des Risikos per Definition geringer. Ansonsten *wĂ€re* es eben wirtschaftlich zweckmĂ€ssig. Wenn Seitenbetreiber hier auf Risiko setzen, ist das wirklich nicht das Problem der Gesellschaft, der Politik oder der Endnutzer. Genug medienwirksame Augenöffner bezĂŒglich der Risken aus der letzten Zeit hat der Beitrag ja eindrĂŒcklich beschrieben.

Ihr Argument wird allerdings gĂŒltiger, je weiter weg man vom direkten Impact auf “Webseiten” kommt. Die Redundanzen der grundlegenden Infrastruktur (ich rede nicht vom Webhosting und CDN) sondern von den OSI Schichten 1-3, kosten Geld und ein Ausfall lĂ€sst sich nur sehr bedingt einzelnen Inzidenzen zuordnen, bzw. von Privatakteuren stemmen. Und ein Seitenanbieter im SĂŒden Neuseelands ist nun mal nur durch zwei Unterseekabel mit dem Norden (und dieser durch wenige mit dem Rest der Welt) verbunden und hat wenig Wahl- oder Einflussmöglichkeiten.

Die Lösung des Problems? Betreiber mĂŒssen sich ĂŒberlegen welche Cloud/CDN-ServicequalitĂ€t sie benötigen. Und wenn ein Ausfall teurer ist als eine redundantere Infrastruktur, dann sollte man in diese investieren. Gerade bei gut zuzuordnenden Dienstleistungen auf die ServicequalitĂ€t und bei leicht wechselbaren Anbietern (es ist ja kein Monopol) ist das durchaus möglich.