PydanticAI 1.91.0 rozširuje podporu obrazových modelov, DeepSeek V4 aj stabilitu MCP histórie
Nové vydanie PydanticAI 1.91.0 prináša podporu volieb pre OpenAI gpt-image-2, nové modely deepseek-v4-flash a deepseek-v4-pro a zároveň opravuje viacero chýb, ktoré zasahovali eval datasety, mapovanie odpovedí aj prehrávanie MCP histórie pri volaní nástrojov.
Autor: Redakcia AI Feed
- Typ zdroja
- Kurátorovaný súhrn
- Zdroj / autorita
- PydanticAI GitHub Releases
PydanticAI vydal verziu 1.91.0, publikovanú 7. mája 2026 o 00:15:33 UTC, ktorá síce nepôsobí ako veľký generačný skok, no z pohľadu tímov stavajúcich agentov ide o veľmi praktickú aktualizáciu. Release notes uvádzajú dve nové funkcie a tri opravy chýb, pričom všetky sa dotýkajú oblastí, ktoré bývajú v produkcii citlivé: multimodálne workflowy, kompatibilita s ďalšími modelovými providermi a spoľahlivá história nástrojových volaní. Pre framework, ktorý sa používa na orchestrace agentov, evaluácie a prepájanie modelov s nástrojmi, sú presne takéto „menšie“ zmeny často dôležitejšie než marketingovo veľké novinky.
Prvou novinkou je podpora volieb pre OpenAI model gpt-image-2. Z porovnania zmien vyplýva, že PydanticAI dopĺňa parametre pre obrazový nástroj tak, aby bolo možné explicitne nastaviť akciu generate alebo edit a zároveň určiť aj samotný model gpt-image-2 bez toho, aby sa tým menil konverzačný model agenta. Dokumentácia v commite navyše ukazuje aj praktické voľby ako transparentné pozadie, vysokú vernosť vstupu či formát a kompresiu výstupu. To je podstatné preto, že multimodálne agentné pipeline už dávno nie sú len o texte: agent môže generovať vizuály, upravovať existujúce obrázky a robiť to ako súčasť širšieho pracovného postupu bez potreby vlastných obchádzok mimo frameworku.
Pre vývojárov agentov to znamená menej lepenia vlastných abstračných vrstiev okolo obrazových API. Ak framework priamo rozumie parametrom obrazového modelu, je jednoduchšie postaviť workflow typu „analyzuj požiadavku, vytvor ilustráciu, následne ju uprav podľa spätnej väzby používateľa“ v jednom konzistentnom rozhraní. Dôležité je aj to, že release notes a diff naznačujú oddelenie medzi konverzačným modelom a modelom pre generovanie obrázkov. Práve toto býva v agentných systémoch častý zdroj komplikácií: textový orchestrátor potrebuje volať špecializovaný obrazový model bez toho, aby sa rozbila konfigurácia zvyšku stacku. PydanticAI si týmto krokom posilňuje pozíciu frameworku, ktorý chce zvládať nielen textové, ale aj reálne multimodálne nasadenia.
Druhou funkčnou novinkou je podpora modelov deepseek-v4-flash a deepseek-v4-pro. Samotný diff ukazuje, že nejde len o doplnenie názvov do zoznamu podporovaných modelov, ale aj o úpravu modelového profilu. PydanticAI pri V4 vetve eviduje podporu „thinking“ cez reasoning_effort, no zároveň nepredpokladá, že tento režim je vždy automaticky zapnutý. To je zaujímavý detail: framework tým explicitne reflektuje odlišné správanie modelových radov a nevynucuje zjednodušený predpoklad, že všetky reasoning modely sa správajú rovnako. V praxi je práve takáto profilácia dôležitá, ak chcú tímy prepínať medzi providermi bez ručného ladenia nízkoúrovňových rozdielov.
Z pohľadu trhu agentných frameworkov ide o dôležitý signál. Podpora ďalších modelov neznamená len širší katalóg; znamená aj nižšie integračné trenie pre tímy, ktoré chcú skúšať nové kombinácie ceny, latencie a kvality. Model s označením flash môže dávať zmysel v rýchlych, interaktívnych slučkách, zatiaľ čo pro varianta môže byť vhodnejšia pre robustnejšie agentné úlohy alebo náročnejšie rozhodovanie. Ak framework natívne rozumie ich profilom a schopnostiam, vývojár nemusí pri každom novom modeli riešiť, či sa správne prenášajú parametre, či sa rozbije reasoning režim alebo či sa zmení správanie streamingu a formátovania správ. Presne toto rozhoduje o tom, či je agentný stack použiteľný v produkcii, alebo len v demoscenári.
Veľmi praktická je aj oprava zachovania Unicode v YAML datasetoch pre evaluácie. Podľa changelogu sa pri serializácii YAML pridalo allow_unicode=True a testy explicitne kontrolujú, že znaky mimo ASCII zostanú v súbore zachované. Hoci to znie nenápadne, pre eval infraštruktúru ide o zásadný detail. Ak tím testuje agentov na slovenčine, češtine, ukrajinčine, ruštine či inom jazyku s diakritikou alebo iným písmom, nechce mať datasety degradované do escape sekvencií alebo nečitateľných výstupov. Zachovanie Unicode zlepšuje auditovateľnosť testov, uľahčuje revíziu datasetov človekom a znižuje riziko, že sa chyba objaví len preto, že sa text počas serializácie zmenil do ťažšie kontrolovateľnej podoby.
Ďalšia oprava mieri na mapovanie odpovedí v OpenAI Chat rozhraní. PydanticAI po novom preskakuje prázdny ModelResponse, teda situáciu, keď model nevráti žiadne časti odpovede. Diff priamo vysvetľuje dôvod: bez tejto kontroly by framework mohol odoslať assistant message s content=None a bez tool_calls, čo Chat Completions API odmietne chybou 400. V agentných workflowoch je toto presne ten typ problému, ktorý sa v jednoduchých testoch nemusí objaviť, no v produkcii spôsobí ťažko reprodukovateľné pády. Ak agent skladá históriu z viacerých medzikrokov, filtruje odpovede alebo prepája viac poskytovateľov, občas narazí aj na prázdny medzistav. Framework, ktorý takú situáciu nevie bezpečne preskočiť, robí z okrajového prípadu prevádzkový incident.
Pre používateľov OpenAI kompatibilných stackov je preto táto oprava významná nad rámec jednej API chyby. Znamená odolnejšie mapovanie konverzačnej histórie a menšie riziko, že agent zlyhá na technickom detaile namiesto obchodnej logiky. Navyše sa úprava dotýka aj OpenRouter vetvy, kde sa zachováva schopnosť pridať reasoning_details aj v prípade, že základná správa inak nevznikne štandardným spôsobom. To naznačuje, že autori neriešili len symptomatický bug, ale čistili samotnú logiku transformácie odpovedí medzi interným modelom frameworku a externými chat API. Pre vývojárske tímy je to dôležitý typ údržby: menej prekvapení v histórii správ, menej 400 chýb a menej obranného kódu v aplikácii.
Tretia oprava je zrejme najdôležitejšia pre nástrojové a MCP nasadenia. Changelog uvádza opravu replaya MCP histórie pri prázdnych argumentoch nástroja. Samotný diff ukazuje, že problém bol v podmienke, ktorá predtým vyžadovala „truthy“ tool_args; po novom stačí, aby tool_args neboli None. Inými slovami, prázdny objekt argumentov už nie je považovaný za chýbajúci argument. To je presne ten druh jemnej chyby, ktorý vie rozbiť interoperabilitu medzi agentom a nástrojmi v Model Context Protocol prostredí. Mnohé nástroje totiž legitímne nepotrebujú žiadne vstupy alebo používajú prázdny argumentový objekt ako validný signál „spusti predvolenú akciu“. Ak framework takýto stav nevie zreplayovať, história volaní sa môže rozísť s realitou a následné pokračovanie konverzácie prestane byť deterministické.
Pre MCP-based tool stacky je táto zmena dôležitá aj z prevádzkového pohľadu. Replay histórie nie je len archivačná funkcia; je to základ pre obnovu behov, audit stavu a konzistentné pokračovanie agentných relácií po prerušení. Ak sa pri prehrávaní stratí volanie nástroja len preto, že jeho argumenty boli prázdne, agent môže prísť k odlišnému výsledku, znovu vykonať operáciu alebo zlyhať pri nadväznosti ďalších krokov. Oprava v PydanticAI 1.91.0 preto posilňuje spoľahlivosť celého ekosystému tam, kde sa textový model prepája s externými schopnosťami cez štandardizované rozhranie. V súčte ide o release, ktorý nie je o bombastických headlineoch, ale o spevnení základov: lepšie multimodálne ovládanie cez gpt-image-2, širšia modelová kompatibilita s DeepSeek V4 a menej krehké správanie v evaloch, chat mapovaní aj MCP histórii. Presne takéto vydania zvyknú mať najväčší dopad na tímy, ktoré agentov už skutočne prevádzkujú.
Zdroje