EN CZ DE PL HU SK

Anthropic spouští Claude AI pro zdravotnictví se zabezpečeným přístupem ke zdravotním záznamům

Anthropic spouští Claude AI pro zdravotnictví se zabezpečeným přístupem ke zdravotním záznamům

Anthropic se stala nejnovější společností zabývající se umělou inteligencí (AI), která oznámila novou sadu funkcí umožňujících uživatelům její platformy Claude lépe porozumět jejich zdravotním informacím.

V rámci iniciativy nazvané Claude for Healthcare společnost uvedla, že američtí předplatitelé plánů Claude Pro a Max se mohou rozhodnout poskytnout Claude zabezpečený přístup k jejich laboratorním výsledkům a zdravotním záznamům prostřednictvím připojení k HealthEx a Function, přičemž integrace Apple Health a Android Health Connect budou spuštěny později tento týden prostřednictvím aplikací pro iOS a Android.

„Po připojení může Claude shrnout lékařskou historii uživatelů, vysvětlit výsledky testů srozumitelným jazykem, detekovat vzorce napříč fitness a zdravotními metrikami a připravit otázky na schůzky,“ uvedla společnost Anthropic. „Cílem je učinit rozhovory pacientů s lékaři produktivnějšími a pomoci uživatelům zůstat dobře informovanými o jejich zdraví.“

Tento vývoj přichází pouhé dny poté, co OpenAI představila ChatGPT Health jako vyhrazené prostředí pro uživatele, kde mohou bezpečně propojit lékařské záznamy a wellness aplikace a získat personalizované odpovědi, přehledy laboratorních výsledků, výživová doporučení a nápady na jídla.

Společnost také zdůraznila, že integrace jsou navrženy s ohledem na soukromí a uživatelé mohou výslovně zvolit, jaký druh informací chtějí s Claude sdílet, a kdykoli mohou odpojit nebo upravit oprávnění Claude. Stejně jako u OpenAI nejsou zdravotní data používána k trénování modelů.

Toto rozšíření přichází uprostřed rostoucí kontroly nad tím, zda systémy AI dokážou vyhnout se nabízení škodlivých nebo nebezpečných rad. Nedávno Google zasáhl a odstranil některá svá AI shrnutí poté, co bylo zjištěno, že poskytují nepřesné zdravotní informace. Jak OpenAI, tak Anthropic zdůraznily, že jejich AI nabídky mohou dělat chyby a nejsou náhradou za profesionální zdravotní rady.

V zásadách přijatelného použití Anthropic uvádí, že kvalifikovaný odborník v oboru musí zkontrolovat vygenerované výstupy „před šířením nebo dokončením“ v případech vysokého rizika souvisejících se zdravotními rozhodnutími, lékařskou diagnostikou, péčí o pacienty, terapií, duševním zdravím nebo jiným lékařským poradenstvím.

„Claude je navržen tak, aby zahrnoval kontextová upozornění, přiznával svou nejistotu a směřoval uživatele k odborníkům ve zdravotnictví pro personalizované vedení,“ uvedla společnost Anthropic.

Zdroj: thehackernews.com

Napsat komentář