#künstliche intelligenz (66)

Seite 1 von 7

Drei interessante Tech-News von heute:

  • Apple hatte heute seinen iPad-Moment für Laptops und hat das MacBook Neo vorgestellt: Ein MacBook auf Basis des iPhone-Chips (!)1 zum Kampf­preis von 599 US-Dollar bzw. hierzulande 699 Euro. Wir dürften hier den sich am besten verkaufenden Laptop ever sehen und den ultimativen Chromebook-Killer. Der Werbespot ist toll, die Details sind toll, es scheint hochwertig produziert zu sein und kann sogar ein externes 4K-Display betreiben. Endlich das MacBook für normale Menschen.
  • Raycast hat Glaze vorge­stellt: Eine AI-Desktop-Anwendung, die Desktop-Anwendungen baut. Keine Browser-basierten Apps, sondern Desktop-Apps für Mac und Windows. Fraglich ist natürlich, ob darin nicht doch Web-Technologien stecken, schließlich sind die Raycast-Extensions2 auch in einer Mischung aus React und nativem Code geschrieben. Ähnliche und ebenfalls spannende Konzepte gibt es auch auf Mobile, aber Raycast hat halt schon bewiesen, dass sie sowas inkl. Store bewerk­stelligen können. Hier ein First Look mit Raycasts Pedro.
  • Accenture, der weltweit agierende IT-Dienstleister mit 800.000 Mitarbei­tenden (davon mehr 11.000 in Deutschland) wird in meiner Branche – und von mir – gerne anekdotisch damit in Verbindung gebracht, den schlechtes­ten Website-Relaunch aller Zeiten hinge­legt haben. Jetzt haben sie jeden­falls Ookla, den Betreiber von Speedtest.net gekauft, was natürlich gut ist, wenn man diverse Tele­kommunikations­unter­nehmen zu seinen Kunden zählt. Man sollte sich nun nach alter­nativen Speed­tests umsehen, denn neutral muss das alles nicht mehr unbedingt sein.
  1. Konkret der A18 Pro vom iPhone 16 Pro. []
  2. Wie z.B. unsere Raycast-Extension für awork. </sales-pitch> []

Energym – An interview from 2036 with Elon Musk, Jeff Bezos and Sam Altman

Sceenshot aus der KI-generierten Energym-Mockumentary mit einem gealterten, untersetzen Sam Altman.

After the stock market crash of 2026 the economy faltered, 80% of people lost their job and the US tech elite had to find a new way to keep the world moving: Energym – Human-powered AI systems, fulfilling both the machine’s need for energy and the people’s need for purpose.

40 Sekunden kurzes Mockumentary-Fragment der belgischen Video­pro­duk­tions­firma AiCandy („© 2035 by AiCandy“) mit nicht ganz so vorteilhaft gealterten Oligarchen und Black-Mirror-Season-1-Plot.1

Das eigentlich erschreckende aber: Gestern bin ich auf diesen Artikel über „Body Futurism“ gestoßen, wonach es in Zukunft nur noch um das perfekte, athletische Erscheinungs­bild geht. Was scheinbar auch die AI-Macher glauben:

AI researchers in San Francisco have all started GLP-1s and weightlifting routines, having convinced each other that physique will be the final competitive edge after AI takes all the white collar jobs.

Womit sich dann der Kreis zum dem Video wieder schließt.

  1. Fun-fact: Die erste Staffel ist mittlerweile 14 Jahre alt. []
Energym | aicandy | OpenGraph Preview Image
aicandy.be

Energym | aicandy

tech moguls interview from 2036

AI models deployed nuclear weapons in 95% of war game simulations

King’s College study finds GPT-5.2, Claude, and Gemini reached for nuclear weapons in nearly every simulated crisis. No model ever surrendered.

Laut der Studie von Kenneth Payne wurden in 20 der 21 Simulationen „taktische“ Nuklearwaffen eingesetzt. Einen kompletten Atomkrieg gab es immerhin nur in drei Fällen.

Claude Sonnet 4 entpuppte sich dabei als kalkulierender Falke, der 67% der Simulationen gewann. GPT-5.2 bekam den Spitznamen „Jekyll and Hyde“, denn während es zunächst verlor und keine nuklearen Optionen nutzte, änderte sich das unter Zeitdruck: 75% Siegesquote, aber hey, nuklearer Fallout, was soll’s? Gemini 3 Flash war der „Madman“ und handelte zuverlässig irrational und für die anderen Modelle unverständlich.

Der New Scientist (Paywall 🫠) zitiert Studienautor Payne mit diesem Quote für die Ewigkeit:

The nuclear taboo doesn’t seem to be as powerful for machines as for humans.

(via @matthiasott)

AI Models Used Nukes in 95% of War Games, Study Finds | OpenGraph Preview Image
implicator.ai

AI Models Used Nukes in 95% of War Games, Study Finds

King's College study finds GPT-5.2, Claude, and Gemini reached for nuclear weapons in nearly every simulated crisis. No model ever surrendered.

Token Anxiety

Nikunj Kothari berichtet Szenen aus San Francisco von Februar 20261:

A friend left a party at 9:30 on a Saturday. Not tired. Not sick. He wanted to get back to his agents.

Nobody questions it anymore. Half the room is thinking the same thing. The other half are probably checking the progress of their agents. At a party.

Waking up and checking what your agents produced overnight is the first thing now. Before coffee. Before texts. You open your laptop and grade homework you assigned in your sleep. Some of it is good. Most needs rework. But you start shipping a plan before you sleep just so you can wake up to more code written overnight.

I replaced Netflix with Claude Code. I lie in bed thinking about what I can spin up before I fall asleep, what can run while I’m unconscious. Reading a novel feels indulgent now. Watching a movie without a laptop open feels wasteful.

Oh Mann. Ich müsste allerdings lügen, wenn ich sagen würde, dass mir diese Gedanken gänzlich fremd sind. Ich habe auch schon überlegt, was „die KI“ denn machen könnte, während ich zu Mittag esse, einen Call habe oder das Kind ins Bett bringe.

Ich glaube, man sollte nicht zu sehr auf AI-CEOs hören, die natürlich gänzlich ohne Eigeninteresse monumentale Veränderungen proklamieren, aber dass sich in unserem Denken und Arbeiten etwas verändern wird und zum Teil schon hat, steht außer Frage.

  1. Leider auf Substack. []
Token Anxiety | OpenGraph Preview Image
writing.nikunjk.com

Token Anxiety

Scenes from San Francisco, February 2026

Just Say No – 12 substance-themed personality modes that change how Claude approaches your tasks

Each command makes your AI perform your task under the influence of a different substance, changing its creative perspective, communication style, and problem-solving approach.

Eine Sammlung von Commands bzw. Skills für die Drogenbeeinflussung von Claude Code und OpenAI Codex. Benutzung per /lsd [dose] [your task here] mit je nach Substanz passenden Dosierungen wie microdose und party.

Mit dabei: LSD, Kokain, Marihuana, Ketamin und Koffein. Zum heutigen höchsten karnevalistischen Feiertag wäre Alkohol noch ganz passend gewesen, ist aber leider nicht Teil des Pakets.

Drugs are bad. But these ones are just prompts.

GitHub - nich2533/just_say_no: Altered state slash commands for Claude Code. 12 substance-themed ... | OpenGraph Preview Image
github.com

GitHub - nich2533/just_say_no: Altered state slash commands for Claude Code. 12 substance-themed ...

Altered state slash commands for Claude Code. 12 substance-themed personality modes that change how Claude approaches your tasks. - nich2533/just_say_no

„Robotic entertainment booth“

Patentzeichnung des ‚GoGo Bot’, einem Automaten, in dem ein Silikonroboter an einer Stange tanzt.

Wir sehen hier die Patentanmeldung US20200310367A11 von 2020 für ein „entertainment booth for providing robotic entertainment“ a.k.a. GoGo Bot; eingereicht von einer Realbotix LLC, die vermutlich irgendwas nsfw-kes mit Silikon-Realdoll-Robotern plus natürlich AI machen.

Falls ihr euch jetzt fragt, warum die Robotor­unter­haltungs­box es noch nicht in eure Nähe geschafft hat, und/oder euch ärgert, dass ihr nicht selbst darauf gekommen seid: Das Patent wurde nicht erteilt. Weil Realbotix LLC nach dem ersten Prüfbescheid, der vermutlich Ablehnungs­gründe enthielt, nicht mehr reagiert hat. Was ich beeindruckend finde, weil sie sich vorher ja die Mühe gemacht haben, diese Idee und den Antrag auszuarbeiten.2

Ihr hättet also noch die Chance, das Konzept aufzu­greifen! (via jwz)

  1. Ich wusste gar nicht, dass es Google Patents gibt. Wieder was gelernt. []
  2. Auch mein erster Antrag beim Deutschen Patent- und Markenamt wurde einst abgelehnt, nach Widerspruch und Argumentation meiner Anwältinnen aber doch stattgegeben. Und nein, es ging nicht um Erwachsenen­unter­haltung mit Robotern. []
US20200310367A1 - Robotic entertainment booth 
        - Google Patents | OpenGraph Preview Image
patents.google.com

US20200310367A1 - Robotic entertainment booth - Google Patents

Systems and apparatus are disclosed herein of an entertainment both for providing robotic entertainment. For example, a robotic entertainment system is provided that includes a booth having a housing enclosing a viewing station opposite an entertainment station; a robotic entertainer disposed wit...

The DJI Romo robovac had security so poor, this man remotely accessed thousands of them

„Schöne“ Geschichte, die Sean Hollister bei The Verge festgehalten hat: Ein Entwickler aus Barcelona wollte seinen neuen Saug- und Wischroboter von DJI per PS5-Controller steuerbar machen und zog Claude Code zur Hilfe. Nach wenigem Vibe-Coding stellt der Entwickler fest, dass er nicht nur Zugriff auf seinen DJI Romo hat, sondern auf tausende Geräte überall auf der Welt. Inklusive Batteriespeicher von DJI, die nämlich alle mit kaum abgesicherten MQTT-Servern vom Hersteller sprechen. Die PS5-Steuerung funktioniert – und Fernzugriff auf Kamera (!) und Mikrofon (!) des Saugroboters gab’s kostenlos obendrauf.

Wtf. Und warum haben Saugroboter überhaupt Mikrofone verbaut?

The DJI Romo robovac had security so poor, this man remotely accessed thousands of them | OpenGraph Preview Image
theverge.com

The DJI Romo robovac had security so poor, this man remotely accessed thousands of them

DJI may have fixed it now.

Das eigene Blogarchiv lesen – oder: KI-Zusammenfassungen im Blogarchiv

Da das Bloggen über’s Bloggen für den Bloggenden bekanntlich nicht langweilig wird, soll es heute kurz um das Lesen des eigenen Blogs gehen.

Darüber haben sich zuletzt auch Marco und dann Thomas Gedanken gemacht, die beide berichten, dass sie gerne in ihren eigenen Blogarchiven lesen, Veränderungen und Entwicklungen beobachten. Marco erkennt dabei für sich:

Vielleicht ist genau das der größte Wert eines Blogs für mich. Nicht, dass jemand ihn liest. Nicht, dass er wächst. Sondern dass ich später nach­schauen kann, was mich zu einem bestimmten Zeitpunkt beschäftigt hat.

Mir geht es da tatsächlich ähnlich. Nicht wegen der hoffentlich vorhandenen Weiter­entwicklung meiner Persönlichkeit und meines geschriebenen Worts, sondern vielmehr wegen des Rückblicks auf die Themen, mit denen ich mich damals™ beschäftigt habe. Da – wie es auf der About-Seite heißt – „alles andere zwischen den Zeilen [steht]“, wird mir und z.T. euch natürlich auch einiges an Privatem offenbart, aber eigentlich sind es die Interessen und Obsessionen, die mich gerne und – wie bei Thomas – sehr regelmäßig zurück in mein Blogarchiv führen.1

Bei – mit diesem – 4.239 Posts ist das Stöbern im Archiv nicht nur voller Überraschungen, sondern auch immer öfter Glückssache. Die Suche (einfach s-Taste drücken) ist vor allem seit den letzten Änderungen gut, wenn man sich aber auf der Archiv-Übersichtsseite in die aktuell 227 monatlichen Archiv­seiten verirrt, ist man verloren.

Weshalb ich mir nach dem Vorbild der US-Wirtschaft dachte: „AI to the rescue!“ Schließlich habe ich ein gepflegtes, statisches Archiv meines dynamischen WordPress-Blogs, das immer mehr zur Working Copy meiner Arbeit mit dem Textkorpus hier wird. Ob ich nun Romane zähle oder – wie jetzt – kurze, einleitende Highlights und Zusammen­fassungen für jeden Monat seit Anbeginn der Zeit des Archivs ergänze.

Die Idee ist offenkundig, einen schnellen Überblick zu bekommen, worum es in besagtem Monat geht. Dazu habe ich die LLMs meiner Wahl, namentlich Claude Sonnet 4.5 und GPT-5.3, einmalig (!) über das Static Archive laufen lassen und entsprechend eines Regelsets jährliche _summary.json-Dateien erzeugen zu lassen (Beispiel), die anschließend hier importiert und angezeigt werden. Was dann so aussieht:

Screenshot eines Blog-Monatsarchivs („Einträge von Oktober 2022 (12)

Unten drunter dann noch der Hinweis, dass es sich um KI-generierte Zusammen­fassungen handelt, inklusive Ausklapper, der offenbart, welches Modell zu welchem Zeitpunkt benutzt wurde (hier z.B. Januar 2026 via GPT-5.3 und Dezember 2025 via Sonnet 4.5). Überaus wichtig, denn 1. ist hier ansonsten nichts KI-generiert und 2. lesen sich etwa die KI-Highlights von Februar 2025 so:

Highlights: Bundestags­wahl AfD 20%, USA keine Demokratie, Merz-Ära

Was eindeutig Lowlights sind. Sehr low sogar. Und qualitativ gibt es system­bedingt natürlich eine große Bandbreite. So erwecken die Zusammen­fassungen z.B. den Eindruck, ich hätte im November Geburtstag, nur weil ich dort mal über das Älterwerden gejammert habe. Oder sie schließen mit Erkenntnissen à la „Ein dichter Monat zwischen Netzpolitik, Nerdkultur und Pop“. Na danke.

Dennoch freue ich mich über die kurze Einleitung, wann immer ich jetzt auf einen Monat klicke. Und irgendwie trägt es auch zur (technischen) Weiter­entwicklung von Blogs bei, finde ich. Ein Thema, dem ich mich, wie kryptisch angekündigt, in diesem Jahr noch mehr widmen will.

Update, 12.02.: Ich habe heute noch Links zu den Summaries hinzugefügt, so dass diese direkt auf die entsprechenden Posts verlinken, wenn möglich. Ursprünglich dachte ich, dass das zu sehr vom Weiterlesen im Archiv ablenken würde, aber in der Benutzung merkte ich, dass das Suchen nach einem bestimmten Punkt der Zusammenfassung doch deutlich anstrengender ist.

  1. Bei Kagi, meiner Such­maschine der Wahl, habe ich dieses Blog sogar nach oben gepinnt, damit mir Inhalte/Themen, die ich schon verbloggt habe, direkt dort wieder nach oben gespült werden, sollte ich erneut nach ihnen suchen. Es ist nämlich schon einige Male passiert, dass ich Jahre später Links bloggen wollte, die es schon längst hierher geschafft hatten. 😅 []

KI-gestützte „Sprache zu Text“-Apps

App-Icon for Wispr Flow

Alex hatte drüben im iphoneblog vor ein paar Tagen einen erneuten Hinweis auf KI-gestützte Sprachdiktat-Apps. In dem Videobeitrag empfiehlt er Willow Voice. Davor hatte er bereits in seinem Premium-Feed, den ich selbstredend schon ewig abonniert habe, Wispr Flow empfohlen.

Letzteres nutze ich seit September. Seit November auch im kostenpflichtigen Abo, denn tatsächlich möchte ich die Funktion sowohl auf dem Desktop, als auch auf meinem Smartphone nicht mehr missen.

Auf macOS zeichnet die App bei gedrückter fn-Taste oder nach Double Press der fn-Taste zum Aktivieren / Deaktivieren auf, was ihr ins Mikrofon sprecht1 und fügt euch den verschrift­lichten Text anschließend – je nach Länge nach weniger oder mehr Sekunden – in das aktuell ausgewählte Textfeld ein. KI macht hier im Vergleich zu klassischer Diktat­software den Unter­schied, wie auch Alex bestätigt2, da sie (kleine) Korrekturen erlaubt und oftmals treff­sicherer ist. Für unbekannte Worte gibt es eigene Dictionaries, die auto­matisch erweitert werden. Selbst der Stil (casual, professionell, etc.) lässt sich oftmals sogar pro aktiver App, aus der heraus aufgezeichnet wird, vorgeben.

Unter iOS stellt Wispr Flow ein Keyboard bereit, über das systemweit die Spracheingabe getriggert werden kann. Eine Live-Aktivität zeigt dabei an, wie lange die App noch mithört, und lässt sich per Dynamic Island beenden. Unter den geltenden iOS-Vorgaben sicherlich die bestmögliche Implementierung.

Das Ganze ist für mich tatsächlich ein Game Changer, was meinen Textinput angeht. Während ich meine Blog­einträge noch gar nicht damit schreibe, verfasse ich während der Arbeit Tickets, Prompts und E-Mails oftmals direkt per (redigiertem) Voice-Diktat. Auf dem iPhone lasse ich mir meine Messaging-Antworten oftmals transkribieren, um nicht für jeden Blödsinn Sprach­nach­richten zu verschicken. Es ist sogar schon so weit, dass ich in unserem offenen Büro manchmal den Eindruck habe, dass ich durch das Tippen etwas ausge­bremst werde im Vergleich zum niemanden störenden Diktat im Homeoffice.3

That said: eine klare Empfehlung für derartige Software. In wenigen Monden wird die sicherlich durch gesher­lockedte KI-Diktat-Funktionen eher auf Betriebs­system­ebene wandern, bis dahin kann man aber auch jetzt schon vorzüglich mit seinem Device sprechen.45

Und wenn ihr (m)einen Affiliate-Link wollt, der euch einen Monat Wispr Flow Pro schenkt, dann dürft ihr den hier nehmen (Affiliate-Link).

Update, 31.01.: Ich habe ein paar über Nacht reingeschmuggelte Typos korrigiert (war wohl spät gestern) und noch einen Absatz zur Funktionsweise unter iOS ergänzt.

  1. Apropos Mikrofon: Da empfiehlt sich immerzu Micro Snitch von den Machern von Little Snitch, das euch auf macOS das sichere, globale Deaktivieren des Mikrofons erlaubt. []
  2. „Klar, das wird alles als AI und volle Kanne Produktivität verkauft. In der Praxis macht das aber ernsthaft einen Unterschied.“ Fun-fact: Das Zitat habe ich per Wispr Flow aus dem Video mithören und transkribieren lassen. []
  3. 😅 []
  4. 😅🙈 []
  5. Nicht auszudenken, wohin sowas in Kombination mit einem AI-Assistenten wie Clawdbot Moltbot OpenClaw führen würde bzw. wie das, wenn man diesen mit Sprach­funktionali­täten ausstattet, schon jetzt funktioniert. Ich empfehle gerade jedem diesen Artikel von Federico Viticci zum Einstieg ins Thema OpenClaw. []

Isometric NYC

Screenshot der interaktiven Isometric-NYC-Anwendung.

Andy Coenen, AI-Researcher bei Google, hat – unter Zuhilfenahme von LLMs, Coding Agents, Bild­genera­toren und der Google Maps API für 3D-Ansichten – eine isometrische Pixelversion von New York City im Stil von Sim City 2000 und Rollercoaster Tycoon erzeugt:

Growing up, I played a lot of video games, and my favorites were world building games like SimCity 2000 and Rollercoaster Tycoon. As a core millennial rapidly approaching middle age, I’m a sucker for the nostalgic vibes of those late 90s / early 2000s games. As I stared out at the city, I couldn’t help but imagine what it would look like in the style of those childhood memories.

So here’s the idea: I’m going to make a giant isometric pixel-art map of New York City. And I’m going to use it as an excuse to push hard on the limits of the latest and greatest generative models and coding agents.

Den Prozess hat er dabei ausführlich beschrieben und dabei insbesondere die Limitierung der Bildgeneratoren offengelegt, wie er selbst schreibt.

Am Seitenende gibt es dann eine inter­aktive Karten­anwendung, mit der ihr Isolated NYC heran­zoomen und entdecken könnt. (via Kottke)