EN CZ DE PL HU SK

OpenAI opravila chybu umožňující únik dat z ChatGPT a zranitelnost tokenů GitHubu v nástroji Codex

Společnost OpenAI opravila dvě bezpečnostní chyby, které mohly být zneužity k neoprávněnému přístupu k citlivým informacím. První z nich se týkala možnosti exfiltrace dat z prostředí ChatGPT, druhá pak zranitelnosti v nástroji Codex, jež mohla vést ke kompromitaci tokenů GitHubu.

Podle dostupných informací byly obě slabiny odstraněny a uživatelé ani organizace nemusí podnikat žádné další kroky, pokud využívají aktuální verze služeb. Opravy však znovu upozorňují na rostoucí význam zabezpečení AI platforem, které jsou stále častěji nasazovány v podnikové i vývojářské praxi.

Chyba v ChatGPT mohla umožnit únik dat

Jedna z opravených chyb souvisela s možností získat data z prostředí ChatGPT způsobem, který neměl být možný. Šlo o scénář, v němž bylo možné obejít očekávané hranice přístupu k datům a získat informace, které měly zůstat oddělené.

Takový typ problému je v oblasti generativní AI obzvlášť citlivý, protože chatovací systémy často pracují s interními firemními dokumenty, zdrojovým kódem, přihlašovacími údaji, obchodními informacemi nebo osobními daty. Jakmile by se podařilo tato data exfiltrovat, dopady by mohly být značné jak pro jednotlivce, tak pro firmy.

Codex a riziko úniku GitHub tokenů

Druhá chyba se týkala nástroje Codex a možnosti ohrožení tokenů GitHubu. Tyto tokeny slouží k autorizaci přístupu k repozitářům, automatizačním procesům i dalším vývojářským operacím. Pokud by byly kompromitovány, útočník by mohl získat přístup ke zdrojovým kódům, CI/CD prostředím nebo související infrastruktuře.

Právě tokeny představují v moderním vývojovém prostředí velmi citlivý bezpečnostní prvek. Jejich zneužití může vést nejen ke krádeži kódu, ale také k vkládání škodlivých změn, manipulaci s build procesy nebo dalším útokům na dodavatelský řetězec softwaru.

Výzkumníci upozornili na širší rizika AI nástrojů

Celý incident zároveň ukazuje, že AI asistenti a nástroje pro generování kódu se stávají atraktivním cílem bezpečnostních výzkumníků i útočníků. S rostoucím nasazením těchto platforem se zvyšuje i množství citlivých dat, která jimi procházejí.

Bezpečnost AI služeb tak dnes nespočívá jen v ochraně samotného modelu, ale také v zabezpečení integrací, pluginů, autentizačních mechanismů, přístupových tokenů a způsobu, jakým systém nakládá s kontextem a uživatelskými daty.

Důraz na bezpečnost AI v podnikovém prostředí roste

Pro firmy, které AI nástroje nasazují do vývoje nebo interních procesů, je tato událost dalším připomenutím, že je nutné věnovat pozornost správě oprávnění, segmentaci přístupu, ochraně tajných údajů i průběžnému monitoringu.

Zejména v případech, kdy jsou AI platformy propojené s repozitáři, cloudovými službami nebo interní dokumentací, může i zdánlivě omezená zranitelnost otevřít cestu k mnohem širšímu kompromitování prostředí.

Jak ukazuje tento případ, bezpečnost generativní AI už není okrajové téma, ale plnohodnotná součást moderní kybernetické obrany.

Zdroj: thehackernews.com

Zdroj: IT SECURITY NETWORK NEWS  

Napsat komentář