Jurassic Park… Works

 
(YouTube Direktlink)

Mr. Hammond, after careful consideration, I’ve decided to happily endorse your park.

Am Sonntag findet der 60. Super Bowl statt. Für alle, die sich nicht für Football interes­sieren, sind eher die Halftime-Show von Interesse sowie die in den Unter­brechungen gezeigten Werbe­spots, wovon schon einige veröffent­licht wurden und z.T. bereits zuvor viral gehen. Einer davon ist der Werbespot des Internet-Providers Xfinity, der zeigt, dass die Probleme im originalen Jurassic Park mit ihrer zuver­lässigen Internet­verbindung und ihren Support-Mitarbeitenden nicht aufge­treten wären.

Taika Waititi führte bei dem Werbespot Regie. Sam Neill, Laura Dern und Jeff Goldblum sind in ihren Parade­rollen wieder mit dabei und wurden digital de-aged, was mitunter etwas komisch aussieht – Stichwort Uncanny Valley –, aber insgesamt die stimmige, lustige Prämisse unter­streicht. Hier noch ein nettes, kurzes Behind the Scenes zur Produktion.

Uh, Wi-Fi finds a way.

Kopfhörernutzungsstatistik

Interessanter Fun-Fact von Alex im iphoneblog: Die Apple Health-App erfasst unter „Kopfhörer­geräusch­pegel“ die Zeit, in der eure Kopfhörer Audio wieder­gegeben haben. Bei Alex sind’s volle 4 Tage pro Monat. Die waren es bei mir 2024 auch, 2025 waren es nur knapp 3 Tage. Höchstwert war mit knapp 6,5 Tagen 2020 als quasi jedes Gespräch digital stattfand.

Seit Mai 2017 sind meine Kopfhörer mit Ausnahme des beyerdynamic-Gaming-Headsets an PlayStation und Xbox ausschließlich AirPods. Erst die Originalen, dann zwei Paar Pro, die Pro 2, Max und aktuell die Pro 3. Besagte Apple Health-Statistik geht bis September 2019 zurück.

iPhanpy – The best Mastodon client now has an iOS version

TL;DR: I’ve just released an iOS version of Phanpy on the App Store and AltStore. It provides better performance and a Liquid Glass icon compared to the installed web app.

Phanpy ist schon lange mein Lieblings-Client für Mastodon auf dem iPhone, iPad und macOS (auf letzteren sogar im Dock) – bzw. überall, denn erstaun­licher­weise handelt es sich „nur“ um eine Web-App. Und ich würde sogar soweit gehen, dass Phanpy sogar einer der besten Microblogging-Clients ever ist. Der alleinige (!) Entwickler Chee Aun hat so viele kleine und große Ideen formvollendet und mit wahnsinnigem UX-Gespür umgesetzt, dass ich immer wieder freudig erstaunt bin.

Als Matt Fantinel also vor ein paar Wochen die Idee hatte, das Open-Source-entwickelte Phanpy in einen iOS-App-Wrapper zu bringen, war nicht nur Chee Aun, sondern auch ich begeistert – und einen Austausch und einen Fork später nutze ich bereits die TestFlight-Version von Matt.

Die iPhanpy getaufte iOS-App steht nun öffentlich zur Verfügung und wird bevorzugt – und heute ist ja schließlich auch wieder Di-Day! – kostenlos über den AltStore PAL angeboten, die übrigens auch Matts Apple-Developer-Account finanziert haben. Hier der AltStore-Direktlink, der aber nur bei installier­ter AltStore-App funktioniert. Alter­nativ gibt es iPhanpy aber auch im regulären App Store. Und natür­lich weiterhin als Web-App mit identischem Feature-Set.

The best Mastodon client now has an iOS version! - Matt Fantinel | OpenGraph Preview Image
fantinel.dev

The best Mastodon client now has an iOS version! - Matt Fantinel

Meet iPhanpy, the best way to use Phanpy on iOS.

Support your local eay!

Dir gefällt, was ich hier tue, und du arbeitest in der Digital­branche? Dann sieh dir mal an, was wir bei Hypercode so tun, dem von mir gegründeten Digital Product Studio.

Apropos Ninja Turtles: Eines der meist unterschätzten Features, um eine Community „sein Eigen“ zu machen, sind meines Erachtens Custom Emojis. Jedes Forum, das früher etwas auf sich hielt (Supertopic anyone?), hatte eigene Emojis.1 Discord, Slack und Mastodon – unsere modernen Ersatzforen – wissen das und ermöglichen sie ebenfalls.

Drüben auf meiner Mastodon-Instanz habe ich dementsprechend auch so einige hinterlegt und z.T. (KI-)angefertigt. Neben dem obligatorischen FC-Emoji, habe ich Apple-Icons, einen Oligarchen und – hier schließt sich die Brücke – einen Ninja Turtle, namentlich Michelangelo. Braucht man schließlich häufig, wenn man … über Pizza, Mutanten und interdimensionale Superschurken spricht.

Ich glaube jedenfalls, man sollte auch in Blogs wieder mehr eigene Emojis unterbringen. WordPress bietet dafür ja Support, der gefühlt so alt ist, wie WordPress selbst. Klingt nach einem guten, kleinen Projekt, wovon ich ja noch nicht genug habe. 🤔2

Ninja Turtles / Michaelangelo Emoji

  1. Hier im eayz-Forum waren es unsere „eayzlies“ getauften Smilies. Das ist das Wort, das man einst nutze, bevor Programme Apps wurden und Smilies Emojis. 😌 []
  2. Und vielleicht sollte ich auch die eayzlies in 4K zurückbringen? []

John Likens’ »Raphael Unleashed«

 
(YouTube Direktlink)

Anger is a Gift. This is Raphael Unleashed. The version of the Ninja Turtles I’ve always wanted to see on the big screen. Enter into the darker side of the TMNT universe. A world where brotherhood is tested, violence has consequences, and Raphael’s rage is both his greatest weapon and his greatest flaw. It’s TMNT pushed to its limits: visceral, dramatic, and a hell of a lot of fun to watch.

John Likens, seines Zeichens Filmemacher, der u.a. für die Eröffnungs­sequenz im letzten »Deadpool & Wolverine« verantwortlich war („Bye Bye Bye“), hat nach deutlich kürzerem Test-Footage zu Leonardo und Donatello (beide von 2023) nun eine längere Kampf­sequenz mit Raphael hochgeladen. Und die macht Lust auf mehr, wenn es mal wieder eine erwachsene, nicht von Michael Bay & Co. ins Lächerliche verunstaltete Version unserer Lieblings­schild­kröten sein darf. Ninja Turtles / Michaelangelo Emoji

Für 2028 ist ein bisher nicht weiter betitelter Teenage Mutant Ninja Turtles-Realfilm von »Fast & Furious«-Produzenten Neal H. Moritz angekündigt, der vermutlich nach »Mutant Mayhem 2«1 veröffentlicht werden soll, sich aber wohl eher an alle vier Quadranten richten soll, Paramounts Erfolg mit den Sonic-Filmen sei dank. 🙄

  1. Wovon ich den ersten übrigens sehr mochte. In die dazugehörige Serie habe ich allerdings noch nicht geschaut. []

KI-gestützte „Sprache zu Text“-Apps

App-Icon for Wispr Flow

Alex hatte drüben im iphoneblog vor ein paar Tagen einen erneuten Hinweis auf KI-gestützte Sprachdiktat-Apps. In dem Videobeitrag empfiehlt er Willow Voice. Davor hatte er bereits in seinem Premium-Feed, den ich selbstredend schon ewig abonniert habe, Wispr Flow empfohlen.

Letzteres nutze ich seit September. Seit November auch im kostenpflichtigen Abo, denn tatsächlich möchte ich die Funktion sowohl auf dem Desktop, als auch auf meinem Smartphone nicht mehr missen.

Auf macOS zeichnet die App bei gedrückter fn-Taste oder nach Double Press der fn-Taste zum Aktivieren / Deaktivieren auf, was ihr ins Mikrofon sprecht1 und fügt euch den verschrift­lichten Text anschließend – je nach Länge nach weniger oder mehr Sekunden – in das aktuell ausgewählte Textfeld ein. KI macht hier im Vergleich zu klassischer Diktat­software den Unter­schied, wie auch Alex bestätigt2, da sie (kleine) Korrekturen erlaubt und oftmals treff­sicherer ist. Für unbekannte Worte gibt es eigene Dictionaries, die auto­matisch erweitert werden. Selbst der Stil (casual, professionell, etc.) lässt sich oftmals sogar pro aktiver App, aus der heraus aufgezeichnet wird, vorgeben.

Unter iOS stellt Wispr Flow ein Keyboard bereit, über das systemweit die Spracheingabe getriggert werden kann. Eine Live-Aktivität zeigt dabei an, wie lange die App noch mithört, und lässt sich per Dynamic Island beenden. Unter den geltenden iOS-Vorgaben sicherlich die bestmögliche Implementierung.

Das Ganze ist für mich tatsächlich ein Game Changer, was meinen Textinput angeht. Während ich meine Blog­einträge noch gar nicht damit schreibe, verfasse ich während der Arbeit Tickets, Prompts und E-Mails oftmals direkt per (redigiertem) Voice-Diktat. Auf dem iPhone lasse ich mir meine Messaging-Antworten oftmals transkribieren, um nicht für jeden Blödsinn Sprach­nach­richten zu verschicken. Es ist sogar schon so weit, dass ich in unserem offenen Büro manchmal den Eindruck habe, dass ich durch das Tippen etwas ausge­bremst werde im Vergleich zum niemanden störenden Diktat im Homeoffice.3

That said: eine klare Empfehlung für derartige Software. In wenigen Monden wird die sicherlich durch gesher­lockedte KI-Diktat-Funktionen eher auf Betriebs­system­ebene wandern, bis dahin kann man aber auch jetzt schon vorzüglich mit seinem Device sprechen.45

Und wenn ihr (m)einen Affiliate-Link wollt, der euch einen Monat Wispr Flow Pro schenkt, dann dürft ihr den hier nehmen (Affiliate-Link).

Update, 31.01.: Ich habe ein paar über Nacht reingeschmuggelte Typos korrigiert (war wohl spät gestern) und noch einen Absatz zur Funktionsweise unter iOS ergänzt.

  1. Apropos Mikrofon: Da empfiehlt sich immerzu Micro Snitch von den Machern von Little Snitch, das euch auf macOS das sichere, globale Deaktivieren des Mikrofons erlaubt. []
  2. „Klar, das wird alles als AI und volle Kanne Produktivität verkauft. In der Praxis macht das aber ernsthaft einen Unterschied.“ Fun-fact: Das Zitat habe ich per Wispr Flow aus dem Video mithören und transkribieren lassen. []
  3. 😅 []
  4. 😅🙈 []
  5. Nicht auszudenken, wohin sowas in Kombination mit einem AI-Assistenten wie Clawdbot Moltbot OpenClaw führen würde bzw. wie das, wenn man diesen mit Sprach­funktionali­täten ausstattet, schon jetzt funktioniert. Ich empfehle gerade jedem diesen Artikel von Federico Viticci zum Einstieg ins Thema OpenClaw. []

How Browsers Work

I built the guide with many tiny interactive examples you can play with to help you go get through the technical details and build an intuition of how browsers work.

Schöne interaktive Erklärung und Demonstration der Funktionsweise von Browsern von Dmytro Krasun. Werde ich fortan in meinen Web-Technologie-Seminaren aufgreifen und zeigen – worin heute übrigens, wie passend, die Prüfungen von diesem Semester stattfinden.

How Browsers Work | OpenGraph Preview Image
howbrowserswork.com

How Browsers Work

The guide is for engineers and curious people who use the web every day, but never built a mental model of how browsers work.

Isometric NYC

Screenshot der interaktiven Isometric-NYC-Anwendung.

Andy Coenen, AI-Researcher bei Google, hat – unter Zuhilfenahme von LLMs, Coding Agents, Bild­genera­toren und der Google Maps API für 3D-Ansichten – eine isometrische Pixelversion von New York City im Stil von Sim City 2000 und Rollercoaster Tycoon erzeugt:

Growing up, I played a lot of video games, and my favorites were world building games like SimCity 2000 and Rollercoaster Tycoon. As a core millennial rapidly approaching middle age, I’m a sucker for the nostalgic vibes of those late 90s / early 2000s games. As I stared out at the city, I couldn’t help but imagine what it would look like in the style of those childhood memories.

So here’s the idea: I’m going to make a giant isometric pixel-art map of New York City. And I’m going to use it as an excuse to push hard on the limits of the latest and greatest generative models and coding agents.

Den Prozess hat er dabei ausführlich beschrieben und dabei insbesondere die Limitierung der Bildgeneratoren offengelegt, wie er selbst schreibt.

Am Seitenende gibt es dann eine inter­aktive Karten­anwendung, mit der ihr Isolated NYC heran­zoomen und entdecken könnt. (via Kottke)

„Nothing can kill jQuery“

Unglaublich, aber wahr: jQuery existiert noch und ist in der vorletzten Woche in Version 4.0 erschienen. In der aktuellen Ausgabe des Bytes-Newsletters („Your weekly dose of JS“) heißt es dazu – neben der obigen Überschrift – sehr passend:

It doesn’t matter how many fancy coding agents or next-gen frameworks you throw at it — the $ God remains eternal. And it just celebrated its 20th birthday in style last week by dropping jQuery 4.0 out of nowhere.

Bis 2016/17 war es ein elementarer Bestandteil eines jeden Frontend-Entwickler-Skillsets, jQuery in- und auswendig zu kennen, gar zu beherrschen. 2006 als Library gestartet, die die unterschiedlichen JavaScript-Browser-APIs unter einem vereinten Interface zusammenfassen sollte, wurde es dank seiner Einfachheit für die Umsetzung von DOM-Manipulationen und Ajax-Requests bis zum Höhepunkt 2019 von 80% der Top-1-Million-Websites genutzt, so Wikipedia.

Ich bin recht froh, dass ich jQuery seit Hypercode-Gründung in 2019 tatsächlich kein einziges Mal mehr im Berufskontext anfassen musste oder ihm begegnet bin. Dafür sind unsere Projekte Evan You sei Dank zu modern.

Wenn ihr jQuery in 2026 immer noch benutzt, macht ihr vermutlich etwas falsch. Schließlich gibt es mit Vanilla JavaScript, also dem standardisierten Umfang unserer liebsten Script-Sprache, eigentlich alles, was das Frontend’ler-Herz begehrt. Spätestens in Kombination mit dem umfangreichen Node- und npm-Ökosystem. Wenn ihr jQuery in 2026 aber immer noch benutzen müsst, dann – auch cool – habt ihr jetzt eine neue Version.

Speaking of Frontend-Entwickler*innen: Bei Hypercode suchen wir gerade alle Ausprägungen davon – Junior, Senior und Werkstudenten. Wenn ihr was braucht oder wen kennt, meldet euch gerne. Sagt mir, ich hab euch geschickt.