KI-gestützte „Sprache zu Text“-Apps

App-Icon for Wispr Flow

Alex hatte drüben im iphoneblog vor ein paar Tagen einen erneuten Hinweis auf KI-gestützte Sprachdiktat-Apps. In dem Videobeitrag empfiehlt er Willow Voice. Davor hatte er bereits in seinem Premium-Feed, den ich selbstredend schon ewig abonniert habe, Wispr Flow empfohlen.

Letzteres nutze ich seit September. Seit November auch im kostenpflichtigen Abo, denn tatsächlich möchte ich die Funktion sowohl auf dem Desktop, als auch auf meinem Smartphone nicht mehr missen.

Auf macOS zeichnet die App bei gedrückter fn-Taste oder nach Double Press der fn-Taste zum Aktivieren / Deaktivieren auf, was ihr ins Mikrofon sprecht1 und fügt euch den verschrift­lichten Text anschließend – je nach Länge nach weniger oder mehr Sekunden – in das aktuell ausgewählte Textfeld ein. KI macht hier im Vergleich zu klassischer Diktat­software den Unter­schied, wie auch Alex bestätigt2, da sie (kleine) Korrekturen erlaubt und oftmals treff­sicherer ist. Für unbekannte Worte gibt es eigene Dictionaries, die auto­matisch erweitert werden. Selbst der Stil (casual, professionell, etc.) lässt sich oftmals sogar pro aktiver App, aus der heraus aufgezeichnet wird, vorgeben.

Unter iOS stellt Wispr Flow ein Keyboard bereit, über das systemweit die Spracheingabe getriggert werden kann. Eine Live-Aktivität zeigt dabei an, wie lange die App noch mithört, und lässt sich per Dynamic Island beenden. Unter den geltenden iOS-Vorgaben sicherlich die bestmögliche Implementierung.

Das Ganze ist für mich tatsächlich ein Game Changer, was meinen Textinput angeht. Während ich meine Blog­einträge noch gar nicht damit schreibe, verfasse ich während der Arbeit Tickets, Prompts und E-Mails oftmals direkt per (redigiertem) Voice-Diktat. Auf dem iPhone lasse ich mir meine Messaging-Antworten oftmals transkribieren, um nicht für jeden Blödsinn Sprach­nach­richten zu verschicken. Es ist sogar schon so weit, dass ich in unserem offenen Büro manchmal den Eindruck habe, dass ich durch das Tippen etwas ausge­bremst werde im Vergleich zum niemanden störenden Diktat im Homeoffice.3

That said: eine klare Empfehlung für derartige Software. In wenigen Monden wird die sicherlich durch gesher­lockedte KI-Diktat-Funktionen eher auf Betriebs­system­ebene wandern, bis dahin kann man aber auch jetzt schon vorzüglich mit seinem Device sprechen.45

Und wenn ihr (m)einen Affiliate-Link wollt, der euch einen Monat Wispr Flow Pro schenkt, dann dürft ihr den hier nehmen (Affiliate-Link).

Update, 31.01.: Ich habe ein paar über Nacht reingeschmuggelte Typos korrigiert (war wohl spät gestern) und noch einen Absatz zur Funktionsweise unter iOS ergänzt.

  1. Apropos Mikrofon: Da empfiehlt sich immerzu Micro Snitch von den Machern von Little Snitch, das euch auf macOS das sichere, globale Deaktivieren des Mikrofons erlaubt. []
  2. „Klar, das wird alles als AI und volle Kanne Produktivität verkauft. In der Praxis macht das aber ernsthaft einen Unterschied.“ Fun-fact: Das Zitat habe ich per Wispr Flow aus dem Video mithören und transkribieren lassen. []
  3. 😅 []
  4. 😅🙈 []
  5. Nicht auszudenken, wohin sowas in Kombination mit einem AI-Assistenten wie Clawdbot Moltbot OpenClaw führen würde bzw. wie das, wenn man diesen mit Sprach­funktionali­täten ausstattet, schon jetzt funktioniert. Ich empfehle gerade jedem diesen Artikel von Federico Viticci zum Einstieg ins Thema OpenClaw. []

How Browsers Work

I built the guide with many tiny interactive examples you can play with to help you go get through the technical details and build an intuition of how browsers work.

Schöne interaktive Erklärung und Demonstration der Funktionsweise von Browsern von Dmytro Krasun. Werde ich fortan in meinen Web-Technologie-Seminaren aufgreifen und zeigen – worin heute übrigens, wie passend, die Prüfungen von diesem Semester stattfinden.

How Browsers Work | OpenGraph Preview Image
howbrowserswork.com

How Browsers Work

The guide is for engineers and curious people who use the web every day, but never built a mental model of how browsers work.

Isometric NYC

Screenshot der interaktiven Isometric-NYC-Anwendung.

Andy Coenen, AI-Researcher bei Google, hat – unter Zuhilfenahme von LLMs, Coding Agents, Bild­genera­toren und der Google Maps API für 3D-Ansichten – eine isometrische Pixelversion von New York City im Stil von Sim City 2000 und Rollercoaster Tycoon erzeugt:

Growing up, I played a lot of video games, and my favorites were world building games like SimCity 2000 and Rollercoaster Tycoon. As a core millennial rapidly approaching middle age, I’m a sucker for the nostalgic vibes of those late 90s / early 2000s games. As I stared out at the city, I couldn’t help but imagine what it would look like in the style of those childhood memories.

So here’s the idea: I’m going to make a giant isometric pixel-art map of New York City. And I’m going to use it as an excuse to push hard on the limits of the latest and greatest generative models and coding agents.

Den Prozess hat er dabei ausführlich beschrieben und dabei insbesondere die Limitierung der Bildgeneratoren offengelegt, wie er selbst schreibt.

Am Seitenende gibt es dann eine inter­aktive Karten­anwendung, mit der ihr Isolated NYC heran­zoomen und entdecken könnt. (via Kottke)

„Nothing can kill jQuery“

Unglaublich, aber wahr: jQuery existiert noch und ist in der vorletzten Woche in Version 4.0 erschienen. In der aktuellen Ausgabe des Bytes-Newsletters („Your weekly dose of JS“) heißt es dazu – neben der obigen Überschrift – sehr passend:

It doesn’t matter how many fancy coding agents or next-gen frameworks you throw at it — the $ God remains eternal. And it just celebrated its 20th birthday in style last week by dropping jQuery 4.0 out of nowhere.

Bis 2016/17 war es ein elementarer Bestandteil eines jeden Frontend-Entwickler-Skillsets, jQuery in- und auswendig zu kennen, gar zu beherrschen. 2006 als Library gestartet, die die unterschiedlichen JavaScript-Browser-APIs unter einem vereinten Interface zusammenfassen sollte, wurde es dank seiner Einfachheit für die Umsetzung von DOM-Manipulationen und Ajax-Requests bis zum Höhepunkt 2019 von 80% der Top-1-Million-Websites genutzt, so Wikipedia.

Ich bin recht froh, dass ich jQuery seit Hypercode-Gründung in 2019 tatsächlich kein einziges Mal mehr im Berufskontext anfassen musste oder ihm begegnet bin. Dafür sind unsere Projekte Evan You sei Dank zu modern.

Wenn ihr jQuery in 2026 immer noch benutzt, macht ihr vermutlich etwas falsch. Schließlich gibt es mit Vanilla JavaScript, also dem standardisierten Umfang unserer liebsten Script-Sprache, eigentlich alles, was das Frontend’ler-Herz begehrt. Spätestens in Kombination mit dem umfangreichen Node- und npm-Ökosystem. Wenn ihr jQuery in 2026 aber immer noch benutzen müsst, dann – auch cool – habt ihr jetzt eine neue Version.

Speaking of Frontend-Entwickler*innen: Bei Hypercode suchen wir gerade alle Ausprägungen davon – Junior, Senior und Werkstudenten. Wenn ihr was braucht oder wen kennt, meldet euch gerne. Sagt mir, ich hab euch geschickt.

Bühne des Live-Podcasts „Haken dran“ mit drei Personen im Gespräch: Gavin, Franziska und Dennis sitzen nebeneinander, halten Mikrofone und diskutieren vor Publikum. Hinter ihnen leuchtet eine blaue Projektionsfläche mit Haken-dran-Haken, im Vordergrund sind die Silhouetten der Zuhörer*innen zu sehen.

Krönender Abschluss dieses sehr umtriebigen und abwechslungs­reichen Wochenendes – nach Herren­sitzung und drei Konzerten (Knorkator, The Pissed Ones & Flash Kicks) – war eine weitere gelungene Live-Show von Haken dran mit Gavin, Franziska und Dennis. Danke dafür und auf die nächsten 531 Folgen! #Bingo

Kleiner „Nachhak“: Wer mir auf Instagram folgt, konnte zu all dem Stories sehen. Ich muss mir unbedingt mal überlegen, ob und wie man die auch ins Blog bekommen könnte, weil Meta und so muss ja vielleicht nicht sein.

posting frequenz ≥ 7/woche

Felix hat beobachtet und festgehalten, dass aktuell einige Blogger – so auch ich – wieder täglich ins Internet schreiben. Unter anderem AnJe, die das sogar schon seit 2015 tut und beschreibt, was sie damals dazu bewegt hat:

Irgendwo las ich damals ein Interview mit einem Künstler, der sagte, er würde jeden Tag einen Text schreiben, 364 davon wären nicht gut, aber der eine 365ste, der wäre super, nur hätte er den nie geschrieben, wenn er die anderen 364 nicht auch geschrieben hätte.

Durch den selbst auferlegten Zwang, jeden Tag etwas abliefern zu müssen, egal was, Hauptsache irgendetwas, gelänge es ihm, seine eingebaute, eigene, oberkritische Qualitätskontrolle zu überwinden, die ansonsten so kritisch wäre, dass sie auch gute Texte gnadenlos verrisse.

Ich kenne besagtes Interview nicht, finde den Gedanken aber überaus nachvoll­ziehbar. So habe ich nach diesem Blogpost von November, in dem ich passenderweise Felix zitiere, festgehalten, dass „50 bis 60% meiner potentiellen Posts niemals meinen Kopf, meine Bookmarks oder meinen Entwurfsordner [verlassen]“. Worauf Sascha, den ich hier zuletzt wiederum begeistert für sein tägliches Bloggen in 2025 feierte, damals kommentierte:

Das habe ich jahrelang gemacht und es hat mich sehr unglücklich gemacht. Dieses Jahr nahm ich mir vor, jeden Tag mindestens einmal zu posten, egal was. Das war ein göttlicher Segen für mein Wohlbefinden. Agree to disagree! Blog weg den Shit!

Und genau das mache ich gerade mit großem Spaß. Ich bin mir zwar sicher, dass ich das arbeits- und lebens­bedingt die nächsten 341 Tage nicht durch­gehend schaffen werde, aber alleine den „Blog weg den Shit!“-Spirit wieder­entdeckt zu haben, ist ein großer Gewinn für mich und hoffentlich auch euch. Umso besser, dass es anderen auch so geht. 💪

posting frequenz ≥ 7/woche | OpenGraph Preview Image
wirres.net

posting frequenz ≥ 7/woche

ich sehe in meiner „blogrolle“ und meinem feedreader, dass sehr viele menschen aus meiner blogblase jetzt wieder regelmässig oder gar täglich ins internet schreiben.

Masters of the Universe – Teaser Trailer

 
(YouTube Direktlink)

Das Thema einer neuen MotU-Verfilmung begleitet uns hier schon lange, lange Zeit (hier z.B. ein Post von 2007 mit – wtf – Brad Pitt, hier der – richtig gele­gene – Post von 2018). Nun ist es endlich soweit: Im Juni kommt »Masters of the Universe« in die Kinos. Gestern wurde – nach einem stimmigen Teaser Trailer Teaser (?) – der obige Teaser Trailer veröffent­licht.

Darin zu sehen: Abermals gibt es einen Bezug zur Echtwelt bzw. zur Erde, von der aus Adam („he/him“) seine Entdeckungsreise nach CGI-Eternia startet. Vom ersten Eindruck her bewegt sich das Ganze irgendwo zwischen großartig und trashig. Normalerweise würde mich dieser CGI-Zirkus eher stören (what happened to Cringer?), aber es ist nun mal He-Man und da passt es irgendwie.

Ich meine: Ich werde nächsten Monat 41 Jahre alt und dürfte damit ziemlich genau in der Zielgruppe1 liegen. Ich muss das lieben.

  1. Thomas schreibt: „Für wen anderes, außer die handvoll Mit-Vierziger wie mich, dieser Film überhaupt gemacht wurde? Keine Ahnung.“ []

Email from Family in Minnesota

Brent Simmons (of NetNewsWire1) hat eine E-Mail von Familienangehörigen aus Minnesota geteilt, wo Trumps ICE-Agenten nach der Ermordung der 37-jährigen, 3-fachen Mutter Renée Good weiterhin ihr Unwesen treiben.

Ein paar unkommentierte Auszüge:

People are carrying their passports and birth certificates around with them and often they are not even allowed to show these “agents” their paperwork before they are beaten and/or abducted.

Our nephew’s elementary school (in a very affluent, predominantly White suburb) canceled their school’s International Night for fear it would draw Immigrant Enforcement to the school. Pete and I are witnessing field trips to the Science Museum cancel left and right because schools are afraid they will target the children.

These people are not targeting the “worst of the worst” as they claimed they would do.

I don’t know what is going to happen. I don’t know what has happened to empathy and humanity.

  1. Btw: Nach all den Jahren immer noch mein Desktop-Feedreader der Wahl. []
inessential: Email from Family in Minnesota | OpenGraph Preview Image
inessential.com

inessential: Email from Family in Minnesota

Our family in Minnesota knows we worry about them, and so yesterday they sent a family-wide email.

Wplace – A massive real-time pixel art canvas over the world map

Ausschnitt aus Wplace von Köln

Wplace is a collaborative, real-time pixel canvas layered over the world map, where anyone can paint and create art together. Each user gain 1 paint charge every 30 seconds. Because of that, if you want to make a big painting you’ll need help from other people.

Tolles, vor sechs Monaten gestartetes Multiplayer-Pixelart-Projekt aus Brasilien, auf dem sich die Weltkarte, bestehend aus vier Billionen Pixeln, Pixel für Pixel bemalen lässt. Die zeitliche Limitierung erfordert den Zusammen­schluss von Nutzern, wenn sie größere Pixelart-Bilder kreieren wollen – abge­sichert per Google-Login. Leider gibt es auch eine Möglich­keit, mit Echtgeld weitere Pixel zu kaufen, aber Server wollen wohl bezahlt werden.

Über unserem Zuhause prangt jetzt jedenfalls das eay-Pixel-Logo:

Ausschnitt aus unserem Ort mit eay-Pixel-Logo