Kanadský register AI ukazuje limity transparentnosti vo verejnej správe
Nový paper na arXiv analyzuje kanadský federálny register AI systémov a tvrdí, že samotná evidencia technických opisov nestačí, ak zakrýva ľudské rozhodovanie, neistotu a sociotechnický kontext nasadenia.
Autor: Redakcia AI Feed
- Typ zdroja
- Kurátorovaný súhrn
- Zdroj / autorita
- arXiv
Výskum bezpečnosti a regulácie AI sa často sústreďuje na veľké abstraktné rámce, no nový paper „Bureaucratic Silences“ ide oveľa konkrétnejšou cestou. Autori analyzujú kanadský federálny AI register, ktorý mal od novembra 2025 slúžiť ako nástroj transparentnosti vo verejnej správe, a tvrdia, že samotná existencia registra ešte nezaručuje skutočnú zodpovednosť. Ich argument je jednoduchý, no dôležitý: registre nie sú neutrálne zrkadlá reality, ale aktívne formujú to, čo sa o AI systémoch vôbec považuje za viditeľné a relevantné.
Autori sa opreli o kompletný dataset 409 systémov a použili rámec ADMAPS, ktorý je prispôsobený algoritmickému rozhodovaniu vo verejnom sektore. Výsledkom je pomerne ostrá kritika. Podľa práce až 86 percent registrovaných systémov slúži interne na efektivitu a register systematicky potláča opis ľudskej diskrečnej práce, tréningu personálu aj manažovania neistoty. Inými slovami: verejnosť síce dostane technický záznam o tom, že systém existuje, no oveľa menej sa dozvie o tom, ako sa s ním reálne pracuje a kde v procese ostáva priestor pre ľudské rozhodovanie.
To je dôležitá lekcia aj mimo Kanady. Regulácia AI sa v mnohých krajinách opiera o dokumentáciu, reporting a registre, lebo sú relatívne politicky priechodné. Paper však pripomína, že ak sú tieto artefakty navrhnuté príliš technokraticky, môžu vytvárať ilúziu transparentnosti bez skutočnej contestability. Štát tak povie, že systém zverejnil, no občan stále nevie, aké neistoty s ním súvisia, kto ho obsluhuje, kde presne ovplyvňuje rozhodovanie a ako možno spochybniť jeho výstup.
Pre európske prostredie je to zvlášť relevantné. Aj v EÚ sa stále viac diskutuje o povinnostiach okolo dokumentácie, governance a sledovateľnosti generatívnych a vysokorizikových systémov. Táto práca naznačuje, že samotné checklisty a registre nestačia, ak sú postavené tak, že z AI robia „spoľahlivý nástroj“ a nie „sporný zásah do rozhodovacieho procesu“. V praxi to znamená, že regulačný dizajn musí zachytiť nielen technické parametre, ale aj sociálny a organizačný kontext používania.
Silnou stránkou práce je práve premostenie medzi dátovou analýzou a politickou interpretáciou. Autori nepolemizujú o tom, či registre treba, ale upozorňujú, že ich forma môže skryto určovať hranice zodpovednosti. To je pre tvorcov politík nepríjemná, ale užitočná správa. Transparentnosť nie je len o publikovaní položiek v databáze. Je aj o tom, či zverejnený formát umožňuje pochopiť mocenské vzťahy, neistoty a prevádzkové kompromisy spojené s nasadením systému.
Z pohľadu AI trhu je paper dôležitý aj preto, že ukazuje posun diskusie od „či regulovať“ k „ako presne navrhnúť nástroje zodpovednosti“. Mnohé štáty aj firmy sa budú snažiť plniť regulačné povinnosti cez rôzne registre, model cards, system cards a interné evidencie. Otázka znie, či tieto artefakty budú mať reálnu vysvetľovaciu hodnotu, alebo sa stanú len formou compliance divadla, ktoré zakrýva zásadné otázky o praxi používania.
Pre AI Feed je táto práca dôležitá najmä ako korekcia príliš technického pohľadu na governance. Budúcnosť regulácie sa nebude rozhodovať len pri tréningových dátach a výkonnostných metrikách, ale aj pri tom, ako sú AI systémy opisované verejnosti a či tieto opisy umožňujú spochybnenie, audit a demokratickú kontrolu. Kanadský príklad tak môže slúžiť ako včasné varovanie aj pre ďalšie krajiny: register bez kontextu môže pôsobiť transparentne, a pritom skryť presne to, čo by malo byť predmetom verejného záujmu.
Zdroje