LocalAI 4.1.1: lokale AI op je eigen pc

LocalAI 4.1.1 is een kleine update met handige fixes

LocalAI 4.1.1 is een patch release. Dat is een kleine update die fouten van de vorige versie oplost. Hier gaat het vooral om dingen die je snel kunt merken als je LocalAI thuis test in je browser of op je pc.

Eerst even kort

De update draait vooral om drie dingen: Gemma 4 tokenization werkt weer goed met llama.cpp, de login verschijnt nu ook als je alleen een api key gebruikt, en er zijn kleine fixes voor betere Anthropic API-compatibiliteit.

Tokenization is gewoon het opsplitsen van tekst in stukjes die een model kan lezen. als dat misgaat, kan een model rare of slechte resultaten geven. Bij Gemma 4 wordt dat nu beter aangepakt. 🦫

3 dingen die opvallen

1. Gemma 4 werkt beter met llama.cpp

De bron noemt een fix voor Gemma 4 tokenization met llama.cpp. Voor jou betekent dat simpel: de tekstverwerking is aangepast zodat dit beter klopt met het model.

Als je zelf met Gemma 4 test, is dit het soort update dat je wilt hebben. je ziet dan niet meteen een groot nieuw scherm, maar wel dat iets onder de motorkap is rechtgezet.

2. Login verschijnt nu ook in api key only mode

Er is ook een fix voor de ui. Als alleen een api key is ingesteld,moet de login nu zichtbaar zijn.

Dat is handig als je LocalAI gebruikt met maar één beveiligingsstap. Je hoeft dus minder te zoeken als je op de startpagina komt en denkt: “Waar is de inlog?”

3. Anthropic API werkt net wat beter

de update noemt ook kleine fixes voor betere Anthropic API-compatibiliteit.dat betekent dat LocalAI zich beter gedraagt bij die API-vorm.

Er is ook een fix die zegt dat een null index nu zichtbaar wordt als die er niet is, en dat de waarde dan standaard 0 wordt. Dat klinkt klein, maar dit soort dingen helpt vaak om foutjes te voorkomen.

Wat kun je vandaag zelf testen?

Je hoeft geen groot project te hebben om deze update te voelen. Dit zijn simpele dingen die je thuis kunt bekijken:

  • Open LocalAI en kijk of de login nu zichtbaar is als je alleen een api key gebruikt.
  • Test een model dat met Gemma 4 te maken heeft, als je dat gebruikt.
  • Kijk of je gewone chat- of api-werkjes minder snel struikelen op kleine compatibiliteitsfouten.
  • Gebruik de releasepagina van LocalAI 4.1.1 om de wijzigingen naast elkaar te zetten: https://github.com/mudler/LocalAI/releases/tag/v4.1.1

Zo start je klein

Wil je gewoon even voelen wat deze update doet? Doe het dan zo:

  1. Open de releasepagina van versie 4.1.1.
  2. Kijk of jouw manier van inloggen past bij de login-fix.
  3. Gebruik een testprompt die je al kent.
  4. Als je met Gemma 4 werkt, probeer dan dezelfde tekst nog eens na de update.
  5. Vergelijk het gedrag met de vorige versie.

Een kleine test is vaak al genoeg. Je hoeft niet meteen alles te herbouwen of een groot plan te maken. Eerst kijken, dan pas verder gaan. Dat is echte beverlogica.

Handige dingen uit de changelog

Naast de hoofdpunten staan er nog wat andere wijzigingen in de bron. Die zijn minder groot, maar wel goed om te weten.

wijzigingWat het in gewone taal doet
Update van Home Assistant integrations listDocumentatie is bijgewerkt
Update van ggml-org/llama.cppEen gekoppelde component is vernieuwd
1 nieuwe model via gallery agentEr is een model toegevoegd aan de gallery
bump inference defaults from unslothStandaard instellingen voor inference zijn aangepast
docs versie updateDocumentatie-versie is bijgewerkt
fix(nats): improve error handlingFoutafhandeling met NATS is beter
feat(autoparser): prefer chat deltasChat-delen van backends krijgen voorrang als die er zijn
fix(reasoning): accumulate and strip reasoning tagsReasoning-tags worden beter verwerkt en opgeschoond
feat(api): Allow coding agents to interactively discover how to control and configure LocalAICoding agents kunnen meer uitleg over LocalAI vinden

Hier zie je dat de release niet alleen over één fout gaat. Er zijn ook kleine verbeteringen in documentatie, api-gedrag en tekstverwerking.

Kleine checklist

Als je wilt checken of deze update voor jou handig is, loop dan dit lijstje langs:

  • Gebruik je Gemma 4 of ga je die proberen?
  • Zie je soms geen login terwijl je wel een api key gebruikt?
  • Werk je met een api die op Anthropic lijkt?
  • Gebruik je tekst die soms gek gedrag geeft door kleine parsing-fouten?
  • Wil je gewoon een schonere en rustigere tussenstap na de vorige release?

Zeg je op één van deze vragen ja, dan is 4.1.1 zeker het bekijken waard.

Nog even dit

De bron noemt ook een nieuwkomer: @github-actions[bot] deed de eerste bijdrage in #9219. Verder staat er een full changelog-link met het verschil tussen v4.1.0 en v4.1.1. Dat is handig als je precies wilt zien wat er is veranderd.

De kern blijft wel klein en duidelijk: deze release is gemaakt om regressions van de vorige versie aan te pakken en om Gemma 4 beter klaar te zetten. Geen grote panda-show, wel netjes poetswerk voor de beverdam.

Wil je hier nog even mee verder spelen? Kijk dan ook eens naar LocalAI 4.1.3: lokale AI op je eigen pc.

Bevers gedachte

Ik vind dit zo’n update die vooral fijn is als je al met LocalAI werkt en gewoon minder gedoe wilt. Niet altijd spectaculair, wel vaak precies wat je nodig hebt: minder foutjes, betere pasvorm en een login die je ook echt ziet.

Als je thuis test,begin dan klein. Open de release, kijk naar je eigen gebruik, en probeer één ding opnieuw. Soms is dat genoeg om te merken dat een kleine patch toch veel rust geeft.