release media memory providers codex

OpenClaw 4.5–4.11: de kreeft leert creëren — video, muziek en een geheugen dat voor je onthoudt

OpenClaws.io Team

OpenClaws.io Team

@openclaws

April 11, 2026

9 min lezen

OpenClaw 4.5–4.11: de kreeft leert creëren — video, muziek en een geheugen dat voor je onthoudt

Zes dagen. Drie releases. 4.5, 4.7, 4.10, 4.11.

Als 3.31–4.2 de belegering was — de kreeft die leerde zichzelf te verdedigen — dan is 4.5 tot en met 4.11 wat er gebeurt nadat het harnas op zit. Je begint dingen te maken. Dingen te onthouden. De kreeft die vroeger alleen vragen beantwoordde schiet nu video, schrijft muziek, en trekt het juiste stukje context in je antwoord nog voordat je erom vraagt.

Videogeneratie is een first-class tool

Tot 4.5 was video een nevenproject. Je kon iets in elkaar knopen via een plugin, maar er was geen gedeelde tool-naam, geen provider-registry, geen fallback-keten. Dat is veranderd.

video_generate is nu een ingebouwde tool. Agents roepen het op dezelfde manier aan als image_generate. Het resultaat komt terug als bijgevoegde media, afgeleverd via welk kanaal het gesprek dan ook loopt — Telegram, Discord, Slack, iMessage, maakt niet uit.

De meegeleverde providers bij lancering: xAI (grok-imagine-video), Alibaba Model Studio Wan, Runway. 4.10 voegde Seedance 2.0 toe via de fal-provider met volledige ondersteuning voor duur, resolutie, audio en seed. 4.11 voegde asset-levering alleen via URL toe, referentie-audio op de input, per-asset role-hints, en een adaptive aspect ratio — zodat providers rijkere modi kunnen aanbieden zonder enorme files in memory te hoeven persen.

Auto-fallback tussen auth-gebackte image-, music- en video-providers landde in 4.7. Intentie wordt bewaard bij switches. Hints voor formaat, aspect, resolutie en duur worden hermapped op de dichtstbijzijnde ondersteunde optie, in plaats van hard te falen. Als één provider het verzoek niet aankan, krijgt de volgende in de keten een vertaalde versie.

Ook muziekgeneratie

Zelfde release, zelfde patroon. music_generate is een ingebouwde tool met meegeleverde Google Lyria- en MiniMax-providers. Async tracking met nalevering wanneer de audio klaar is. Optionele hints die een provider niet ondersteunt — zoals durationSeconds bij Lyria — worden genegeerd met een waarschuwing in plaats van het verzoek te slopen.

Liever alles lokaal draaien? De meegeleverde ComfyUI workflow-plugin in 4.5 dekt image_generate, video_generate en workflow-gebackte music_generate tegen zowel lokale ComfyUI als Comfy Cloud. Prompt-injection, optionele reference-image upload, live tests, output-download — de hele loop.

`openclaw infer`: één CLI voor alle inference

4.7 landde openclaw infer als een first-class hub voor provider-gebackte inference workflows. Model-, media-, web- en embedding-taken leven allemaal onder hetzelfde commando. Transcriptie ondersteunt per-request prompt- en language-overrides. Web search en web fetch gedragen zich hetzelfde als de agent-runtime ze zou uitvoeren.

Als je one-off scripts aan elkaar hebt gebreid om inference buiten de chat-loop te draaien — dit is de vervanger.

Active Memory: de kreeft begint te onthouden

Dit is degene die gebruikers het meeste gaan voelen.

Vóór 4.10 was memory iets waar je om moest vragen. "Onthou dat ik dark mode prefereer." "Zoek in memory naar die API key-workflow." De kreeft deed het, maar alleen als jij eraan dacht het hem te zeggen.

Active Memory draait dat om. Het is een optionele plugin die een speciale memory-sub-agent draait vlak vóór het hoofdantwoord op elke beurt. De sub-agent trekt voorkeuren, eerdere details en relevante context automatisch de prompt in. Je hoeft niet meer te onthouden om te onthouden.

Het is configureerbaar: message-scoped, recent-scoped of full-context-modus, afhankelijk van hoe agressief je het wilt. /verbose laat je live inspecteren wat er wordt binnengehaald. Geavanceerde prompt- en thinking-overrides zitten er voor fine-tuning. Opt-in persistentie van transcripts voor wanneer je een specifieke memory-beslissing moet debuggen.

4.12 trok het aan. Recall-runs blijven op het opgeloste kanaal, zelfs wanneer wrappers zoals mx-claw in het spel zijn. De ranking van de lexical fallback is verbeterd. Active Memory-resultaten zitten nu op het verborgen untrusted prompt-prefix-pad in plaats van direct in de system prompt te belanden — zo kun je in de gateway debug-logs precies zien wat het model kreeg.

Codex krijgt zijn eigen provider

4.10 heeft Codex uit het OpenAI-providerpad gehaald. codex/gpt-<em class="italic text-slate-200">-modellen gebruiken nu Codex-gemanagede auth, native threads, model discovery en compaction via een plugin-owned app-server harness. openai/gpt-</em> blijft op de standaard OpenAI-provider.

Praktisch resultaat: je Codex-abonnement stopt met op je OpenAI API-key trappen. Auth-profielen zijn geïsoleerd. Model-lijsten komen uit de Codex-catalogus. 4.14 volgde met forward-compat ondersteuning voor gpt-5.4-pro, inclusief Codex-pricing en -limieten zichtbaar voordat de upstream-catalogus bijgewerkt was.

LM Studio is nu een meegeleverde provider

4.12 leverde een meegeleverde LM Studio-provider. Onboarding-flow, runtime model discovery, stream preload, memory search embeddings — het volledige first-class pad. Als je lokale modellen via LM Studio draait, hoef je het niet meer in te stellen als een generieke OpenAI-compatibele endpoint en maar te hopen dat capability-detection goed uitpakt.

Kleinere dingen die het vermelden waard zijn

  • Arcee AI-provider (4.7): Trinity-catalogus, OpenRouter-ondersteuning, onboarding-guidance.
  • Gemma 4-ondersteuning (4.7): expliciete thinking-off semantiek blijft behouden door de Gemma compatibility-wrapper.
  • Meegeleverde Qwen, Fireworks AI, StepFun (4.5) — plus MiniMax TTS-, Ollama Web Search- en MiniMax Search-integraties.
  • Amazon Bedrock (4.5): inference-profile discovery en automatische request-region injection. IAM-auth werkt via de credential chain zonder AWS_BEARER_TOKEN_BEDROCK-exports.
  • Compaction-provider registry (4.7): plugins kunnen de ingebouwde summarization pipeline vervangen. Valt terug op LLM-summarization bij provider-failure.
  • Persisted compaction-checkpoints (4.7): branch/restore-acties in de Sessions UI voor inspectie en herstel van pre-compaction state.

De vorm van deze cyclus

Drie thema's, parallel lopend:

  1. 1.Dingen maken. Video, muziek, lokale workflow-runners. De kreeft die vroeger alleen vragen beantwoordde produceert nu output die buiten de chat leeft.
  2. 2.Dingen onthouden. Active Memory verandert memory van iets dat je oproept naar iets dat zichzelf oproept.
  3. 3.Schonere grenzen. Codex krijgt zijn eigen baan. LM Studio wordt first-class. Provider-auth stopt met lekken tussen contexten.

Niets hiervan is een enkele flagship-feature. Het is een serie upgrades die op zichzelf incrementeel lijken en samen veranderen hoe de kreeft aanvoelt. Vraag om een video, je krijgt een video. Noem een voorkeur één keer, het blijft hangen. Wissel tussen Codex en OpenAI GPT — je auth botst niet.

Zes dagen, drie releases, een kreeft die van "hij kan dingen" naar "hij doet dingen voor je" is gegaan.

Blijf op de hoogte

Ontvang updates over nieuwe functies en integraties. Geen spam, altijd opzegbaar.