OpenAI rozširuje Trusted Access for Cyber na GPT-5.5 a spúšťa GPT-5.5-Cyber
OpenAI posúva svoj kontrolovaný prístup pre obrancov v kyberbezpečnosti na GPT-5.5, pridáva špecializovaný model GPT-5.5-Cyber a pritvrdzuje podmienky overenia aj zabezpečenia účtov.
Autor: Redakcia AI Feed
- Typ zdroja
- Oficiálny zdroj
- Zdroj / autorita
- OpenAI
OpenAI rozširuje program Trusted Access for Cyber na novú generáciu modelov GPT-5.5 a zároveň otvára limitovaný preview modelu GPT-5.5-Cyber. Firma tým nemení len názov modelu v cenníku alebo marketingovej ponuke. Ide o posun v tom, ako chce rozdeliť prístup k výkonným kyberbezpečnostným schopnostiam podľa úrovne dôvery, spôsobu použitia a typu organizácie, ktorá o ne žiada. V praxi to znamená, že nie každý používateľ dostane rovnaké odpovede ani rovnakú ochotu modelu pomáhať pri bezpečnostných úlohách.
Trusted Access for Cyber funguje ako režim, v ktorom OpenAI po overení identity a účelu používania znižuje časť automatických odmietnutí pri legitímnych obranných úlohách. Pri bežnom GPT-5.5 sú ochrany nastavené všeobecne a model sa pri rizikovejších bezpečnostných požiadavkách skôr zastaví. Overení obrancovia však môžu po schválení získať prístup k presnejším odpovediam pri vyhľadávaní zraniteľností, triedení incidentov, analýze škodlivého kódu, reverznom inžinierstve bináriek, tvorbe detekčných pravidiel alebo overovaní, či záplata skutočne zabrala.
Najdôležitejšia novinka je rozdelenie prístupu do viacerých vrstiev. OpenAI explicitne opisuje rozdiel medzi základným GPT-5.5, GPT-5.5 s Trusted Access for Cyber a novým GPT-5.5-Cyber. Kým prvá vrstva ostáva všeobecným modelom s bežnými poistkami, druhá vrstva je určená pre autorizované obranné workflowy a tretia má byť najpovolenejšia, no zároveň pod najprísnejšou kontrolou. GPT-5.5-Cyber smeruje najmä k špecializovaným scenárom, ako sú autorizovaný red teaming, penetračné testovanie v kontrolovanom prostredí alebo validácia obranných opatrení v kritickej infraštruktúre.
Pre firmy a verejné inštitúcie je zaujímavé, že OpenAI otvorene priznáva kompromis medzi užitočnosťou a rizikom. Model má byť pri overených používateľoch menej náchylný zablokovať aj tie prompty, ktoré sa podobajú útočným technikám, ak je ich cieľom obrana alebo testovanie vlastného prostredia. Firma pritom tvrdí, že aj v tomto režime má ďalej blokovať požiadavky smerujúce ku krádeži prihlasovacích údajov, stealth technikám, perzistencii, nasadeniu malvéru alebo k zneužívaniu cudzích systémov. To je podstatné, pretože komerční zákazníci nechcú len silnejší model, ale aj zrozumiteľný rámec zodpovednosti pri jeho nasadení.
S novým režimom prichádza aj tvrdšie bezpečnostné minimum na strane používateľa. OpenAI zavádza povinnosť phishingu odolného zabezpečenia účtu pre členov programu, ktorí pristupujú k najpovolenejším kyber modelom. Od júna 2026 budú jednotlivci potrebovať Advanced Account Security a organizácie môžu túto požiadavku splniť aj cez vlastné jednotné prihlasovanie s phishingu odolnou autentifikáciou. V praxi je to dôležitý signál: firma nechce rozširovať citlivé možnosti bez toho, aby súčasne zdvihla latku ochrany identity na strane zákazníka.
Z pohľadu trhu je táto správa dôležitá z dvoch dôvodov. Po prvé, OpenAI zjavne vidí kyberbezpečnosť ako samostatný vertikálny segment, kde nestačí univerzálny chatbot. Po druhé, buduje model distribúcie, v ktorom schopnosť modelu nebude jednotná pre všetkých, ale viazaná na proces overenia, auditovateľnosť a konkrétne pracovné prípady. Takýto prístup sa môže stať vzorom aj pre ďalšie oblasti s vysokým rizikom, napríklad biobezpečnosť, finančné vyšetrovanie alebo citlivé podnikové operácie.
Pre bezpečnostné tímy to znamená, že AI sa posúva od pomocníka pri sumarizácii logov k nástroju, ktorý môže priamo zrýchľovať technickú obranu. OpenAI ako príklady uvádza tvorbu proof-of-conceptov na validáciu opráv v autorizovanom prostredí, kontrolu kódu, analýzu vzoriek malvéru či podporu pri patch validation. Ak sa takýto režim osvedčí, podnikové SOC tímy a konzultantské firmy môžu dostať model, ktorý nielen vysvetľuje, ale reálne šetrí hodiny ručnej práce pri uzatváraní incidentov a testovaní zraniteľností.
Zároveň to však nie je správa o „uvoľnení bŕzd“. Skôr ide o jemnejšie odstupňovanie prístupu podľa toho, kto model používa a na čo ho používa. OpenAI sa tak snaží premeniť bezpečnostné obmedzenia z hrubej plošnej bariéry na jemnejší systém povolení, verifikácie a priebežného dohľadu. Pre AI ekosystém je to dôležitý precedens: čoraz menej bude rozhodovať len to, čo model technicky vie, a čoraz viac aj to, v akom režime, s akým overením a s akou zodpovednosťou sa jeho schopnosti sprístupnia konkrétnym používateľom.
Zdroje