LocalAI 4.1.1 is een kleine update met handige fixes
LocalAI 4.1.1 is een patch release. Dat is een kleine update die fouten van de vorige versie oplost. Hier gaat het vooral om dingen die je snel kunt merken als je LocalAI thuis test in je browser of op je pc.
Eerst even kort
De update draait vooral om drie dingen: Gemma 4 tokenization werkt weer goed met llama.cpp, de login verschijnt nu ook als je alleen een api key gebruikt, en er zijn kleine fixes voor betere Anthropic API-compatibiliteit.
Tokenization is gewoon het opsplitsen van tekst in stukjes die een model kan lezen. als dat misgaat, kan een model rare of slechte resultaten geven. Bij Gemma 4 wordt dat nu beter aangepakt. 🦫
3 dingen die opvallen
1. Gemma 4 werkt beter met llama.cpp
De bron noemt een fix voor Gemma 4 tokenization met llama.cpp. Voor jou betekent dat simpel: de tekstverwerking is aangepast zodat dit beter klopt met het model.
Als je zelf met Gemma 4 test, is dit het soort update dat je wilt hebben. je ziet dan niet meteen een groot nieuw scherm, maar wel dat iets onder de motorkap is rechtgezet.
2. Login verschijnt nu ook in api key only mode
Er is ook een fix voor de ui. Als alleen een api key is ingesteld,moet de login nu zichtbaar zijn.
Dat is handig als je LocalAI gebruikt met maar één beveiligingsstap. Je hoeft dus minder te zoeken als je op de startpagina komt en denkt: “Waar is de inlog?”
3. Anthropic API werkt net wat beter
de update noemt ook kleine fixes voor betere Anthropic API-compatibiliteit.dat betekent dat LocalAI zich beter gedraagt bij die API-vorm.
Er is ook een fix die zegt dat een null index nu zichtbaar wordt als die er niet is, en dat de waarde dan standaard 0 wordt. Dat klinkt klein, maar dit soort dingen helpt vaak om foutjes te voorkomen.
Wat kun je vandaag zelf testen?
Je hoeft geen groot project te hebben om deze update te voelen. Dit zijn simpele dingen die je thuis kunt bekijken:
- Open LocalAI en kijk of de login nu zichtbaar is als je alleen een api key gebruikt.
- Test een model dat met Gemma 4 te maken heeft, als je dat gebruikt.
- Kijk of je gewone chat- of api-werkjes minder snel struikelen op kleine compatibiliteitsfouten.
- Gebruik de releasepagina van LocalAI 4.1.1 om de wijzigingen naast elkaar te zetten: https://github.com/mudler/LocalAI/releases/tag/v4.1.1
Zo start je klein
Wil je gewoon even voelen wat deze update doet? Doe het dan zo:
- Open de releasepagina van versie 4.1.1.
- Kijk of jouw manier van inloggen past bij de login-fix.
- Gebruik een testprompt die je al kent.
- Als je met Gemma 4 werkt, probeer dan dezelfde tekst nog eens na de update.
- Vergelijk het gedrag met de vorige versie.
Een kleine test is vaak al genoeg. Je hoeft niet meteen alles te herbouwen of een groot plan te maken. Eerst kijken, dan pas verder gaan. Dat is echte beverlogica.
Handige dingen uit de changelog
Naast de hoofdpunten staan er nog wat andere wijzigingen in de bron. Die zijn minder groot, maar wel goed om te weten.
| wijziging | Wat het in gewone taal doet |
|---|---|
| Update van Home Assistant integrations list | Documentatie is bijgewerkt |
| Update van ggml-org/llama.cpp | Een gekoppelde component is vernieuwd |
| 1 nieuwe model via gallery agent | Er is een model toegevoegd aan de gallery |
| bump inference defaults from unsloth | Standaard instellingen voor inference zijn aangepast |
| docs versie update | Documentatie-versie is bijgewerkt |
| fix(nats): improve error handling | Foutafhandeling met NATS is beter |
| feat(autoparser): prefer chat deltas | Chat-delen van backends krijgen voorrang als die er zijn |
| fix(reasoning): accumulate and strip reasoning tags | Reasoning-tags worden beter verwerkt en opgeschoond |
| feat(api): Allow coding agents to interactively discover how to control and configure LocalAI | Coding agents kunnen meer uitleg over LocalAI vinden |
Hier zie je dat de release niet alleen over één fout gaat. Er zijn ook kleine verbeteringen in documentatie, api-gedrag en tekstverwerking.
Kleine checklist
Als je wilt checken of deze update voor jou handig is, loop dan dit lijstje langs:
- Gebruik je Gemma 4 of ga je die proberen?
- Zie je soms geen login terwijl je wel een api key gebruikt?
- Werk je met een api die op Anthropic lijkt?
- Gebruik je tekst die soms gek gedrag geeft door kleine parsing-fouten?
- Wil je gewoon een schonere en rustigere tussenstap na de vorige release?
Zeg je op één van deze vragen ja, dan is 4.1.1 zeker het bekijken waard.
Nog even dit
De bron noemt ook een nieuwkomer: @github-actions[bot] deed de eerste bijdrage in #9219. Verder staat er een full changelog-link met het verschil tussen v4.1.0 en v4.1.1. Dat is handig als je precies wilt zien wat er is veranderd.
De kern blijft wel klein en duidelijk: deze release is gemaakt om regressions van de vorige versie aan te pakken en om Gemma 4 beter klaar te zetten. Geen grote panda-show, wel netjes poetswerk voor de beverdam.
Wil je hier nog even mee verder spelen? Kijk dan ook eens naar LocalAI 4.1.3: lokale AI op je eigen pc.
Bevers gedachte
Ik vind dit zo’n update die vooral fijn is als je al met LocalAI werkt en gewoon minder gedoe wilt. Niet altijd spectaculair, wel vaak precies wat je nodig hebt: minder foutjes, betere pasvorm en een login die je ook echt ziet.
Als je thuis test,begin dan klein. Open de release, kijk naar je eigen gebruik, en probeer één ding opnieuw. Soms is dat genoeg om te merken dat een kleine patch toch veel rust geeft.
