Nuclear, horses and Dabbelju

 Language wars: the 19 greatest linguistic spats of all time | Science | The Guardian … :

‘Nucular’ war The fact that we used to make fun of George W Bush for his malapropisms seems quaint these days. But it was worrying to many of us at the time that the man in charge of the world’s most powerful nuclear arsenal didn’t seem to be able to pronounce it right. He said “nucular” and it was one more black mark against his intelligence. But this syllable-flip is in fact a fairly common linguistic process called metathesis. All English speakers live with the results of historic metatheses that caught on: horse used to be “hros” and bird used to be “brid”.

Ja, über die Bahn wettern ist einfach…

Studie zur Bahn-Infrastruktur: Wenig Geld für deutsche Schienen | … :

“Deutschland gibt laut einer Untersuchung deutlich weniger Geld für die Bahn-Infrastruktur aus als andere europäische Staaten.”

Vergleicht man die Investitionen für Straße und Schiene, gibt Deutschland mehr Geld für die Autobahnen und Co. aus. 2018 lagen die Investitionen in Erhalt, Neu- und Ausbau für die Schiene bei 45,3 Prozent, während in Straßen 54,7 Prozent flossen. In der Schweiz und Österreich übertreffen dagegen die Schieneninvestitionen die in die Straße. “Deutlicher kann man nicht machen, dass Deutschland dem Klimaschutz im Verkehr noch immer keine Priorität einräumt”, so Flege.”


Open Source has won. Großartiger Artikel.

 Am Anfang war der Quellcode | Swissquote … :

Als an einem schönen Tag im Jahr 1980 der neue Xerox-Drucker des Labors für künstliche Intelligenz am Massachusetts Institute of Technology (MIT) den x – ten Papierstau meldete, glaubt der 27 Jahre junge Programmierer Richard Stallman, das Problem so lösen zu können, wie er es immer getan hat: durch eine direkte Veränderung des Maschinencodes.

Und hier eine 30 Seiten lange Studie zum Thema: “WARUM OPEN SOURCE SCHON GEWONNEN HAT”


Another thing about the Linux shell I keep forgetting is reading input from file one line after another…

Another post to help my memory: Reading a file line by line and doing something with each line. This link has some great examples – Here’s my favorite because so simple one. It’s easy to craft it into one line of code, too. Takes your file to be processed as first parameter (“$1”).

Linux/UNIX: Bash Read a File Line By Line – nixCraft

How to Read a File Line By Line in Bash Here is more human readable syntax for you:

while IFS= read -r line
    echo “$line”
done < “$input”

Interesting Study on Self-Supervised Learing…

Ai is now learning with images of kittens, and I really like the cats, birds and moving images examples in these slides: 


The ImageNet Challenge Story … Outcomes Strong supervision:

• Features from networks trained on ImageNet can be used for other visual tasks, e.g. detection, segmentation, action recognition, fine grained visual classification

• To some extent, any visual task can be solved now by:
1. Construct a large-scale dataset labelled for that task
2. Specify a training loss and neural network architecture
3. Train the network and deploy