Seminář AI v kontextu medicíny
Problémy využití AI v medicíně a jejich možná řešení
  • Na semináři budeme diskutovat následující otázky a problémy.
  • Zamyslete se nad nimi, a následně k alespoň 3 z nich navrněte možnou odpověď či řešení (technické, legislativní, metodologické, ekonomické, či jiné).
  • Řešení nemusí být dokonalé a promyšlené do všech detailů, může být i jen částečné, stačí stručně popsat hlavní ideu řešení.
  • Diskuze a další zvažování, vylepšování a kombinování jednotlivých návrhů bude součástí semináře.
  • Explicitní četba není zadána, místo četby se věnujte přemýšlení :-) Ale může samozřejmě být dobrý nápad si k některým problémům či vašim návrhům dohledat a prozkoumat nějaké další zdroje.
Deadline na vyplnění je středa 15.5. 14:30.
Sign in to Google to save your progress. Learn more
Anonymizace dat
Existuje zjevný rozpor mezi snahou anonymizovat data a potřebou zachytit všechny podstatné rysy důležité pro trénování AI modelů: pokud toho zachovám v datech příliš mnoho, mohou data obsahovat citlivé informace snadno přiřaditelné ke konkrétní osobě; pokud toho zachovám příliš málo, můžu vynechat údaje podstatné pro určení správné diagnózy. Jak byste tento problém řešili? Můžete uvažovat o různých údajích, které mohou být důležité, například: pohlaví, věk, socioekonomický status, rasa, měsíc narození, fotografie obličeje, fotografie celého těla (s oblečením či bez), audiozáznam řeči, videozáznam chůze, mimiky či gestikulace...
Etika sběru a využití dat
Zjevně se střetávají různé zájmy: ochrana osobnosti (možnost zneužití osobních údajů) versus osobní zájem využití údajů pro dobro daného jednotlivce (např. stanovení diagnózy pro danou osobu) versus veřejný zájem sběru dat pro dobro společnosti (zejména využití dat o jednotlivcích pro trénování AI modelů). Jaká pravidla byste zde nastavili, aby jednotlivé zájmy byly ve vhodné rovnováze?
Zneužití medicínských dat
Jakými způsoby by mohla být zneužita medicínská data sbíraná pro využití v automatizovaném zpracování?
Zodpovědnost za automatizované rozhodnutí
Pokud použijeme automatizovaný systém například pro stanovení diagnózy, návrh léčby či provedení léčebné procedury, kdo nese zodpovědnost za chybu tohoto systému? Výrobce systému, provozovatel systému, ošetřující lékař, pacient, někdo jiný...? Jak byste systém nasadili takovým způsobem, aby například lékař mohl smysluplně nést celou zodpovědnost či její část? Jaký má vliv typ chyby, tj. přiřazení diagnózy zdravému/nepřiřazení diagnózy nemocnému/přiřazení špatné diagnózy nemocnému?
Přehnaná důvěra v AI
Při vysoké úspěšnosti nasazeného AI systému hrozí riziko příliš velkého spoléhání lékařů/pacientů na předpovědi AI systému, které ale nemusejí být vždy správné. Lékař či pacient tak může slepě důvěřovat rozhodnutí systému, který považuje za chytřejší než je on sám, a to i v případě, kdy se systém zjevně mýlí. Jak byste tento problém řešili?
Biases a velikost dat
Pro některé situace může být obtížné získat dostatečně velká data bez závažných zkreslení. Zamyslete se, o jaké situace se například může jednat. (Mimochodem, částečně mají stejný problém i lékaři, kteří jednak mají problém rozpoznat vzácné nemoci se kterými se nikdy nesetkali, jednak se disproporčně častěji setkávají s nemocnými oproti zdravým, a jednak se specialisté typicky setkávají s pacienty, kteří mají problémy v rámci jejich specializace.) Jak by bylo možné tyto problémy řešit?
Kulturní a rasové biasy
Do jaké míry jsou data sbíraná např. v USA použitelná například v Evropě, v Asii, v Africe? Jaké byste očekávali problémy? A jak byste je řešili?
Dostupnost zdravotnictví
Jak může AI zlepšit a jak zhoršit dostupnost zdravotní péče a rovnost v dostupnosti péče? Uvažujte například o ekonomické síle, vzdělání, bydlišti (v rámci státu i v rámci světa), jazykové bariéře, apod. Pokud vidíte i možná zhoršení, navrhněte, jak se jim bránit.
Overtreatment
Hrozí podle vás kvůli nasazení automatizovaných technologií overdiagnosis a overtreatment? Tedy diagnóza a léčba onemocnění, které pacienta nijak neohrožuje na životě a neprojevuje se žádnými příznaky (taková léčba je zbytečná, není ekonomická, navíc může pacienta zatížit negativními vedlejšími účinky). Pokud ano, jak byste tento problém minimalizovali? Můžete se zamyslet, zda vaše odpověď souvisí například se závažností onemocnění, vedlejšími efekty léčby, ekonomickými faktory, apod.
Shoda cílů pacienta a strojového učení
Na přednášce bylo zmíněno riziku neshody mezi cíli strojového učení (typicky minimalizovat chybu či šířeji maximalizovat délku dožití pacienta) a životními hodnotami pacientů. Jak byste tento problém řešili?
Vysvětlitelnost vs úspěšnost
Metody vykazující nejvyšší úspěšnost často nejsou dobře vysvětlitelné (typicky hluboké neuronové sítě); transparentní metody typicky mají úspěšnost nižší (např. rozhodovací stromy). Jak byste tato kritéria vyvážili? Uvažujte například o diagnostice nemoci, kde máte na výběr mezi transparentní metodou s úspěšností 80% a netransparentní metodou s úspěšností 95%. Jaká jsou rizika použití méně transparentní metody?
Kyberbezpečnost
Jaká rizika vidíte z pohledu kyberbezpečnosti a jak byste je řešili? Můžete se zamyslet i nad související otázkou možných střetů zájmů farmaceutické firmy, která vyvíjí diagnostickou metodu a zároveň prodává lék na diagnostikovanou nemoc (viz též overdiagnosis a overtreatment).
Kontext
V závěru přednášející zmínil jev, kdy se v médiích mluví o klíšťové encefalitidě, načež ordinace zaplní lidí, kteří si falešně diagnostikují klíšťovou encefalitidu. Zamyslete se nad dalšími možnými souvislostmi, kdy aktuální kontex má vliv na pacienty. Může jít o závažný jev, který je nutné řešit? Jak byste toto zohlednili v AI metodách?
Další
Napadají vás jiné, výše nezmíněné problémy? V čem spočívají? Jak moc jsou závažné? Jak byste je řešili?
Submit
Clear form
Never submit passwords through Google Forms.
This content is neither created nor endorsed by Google. Report Abuse - Terms of Service - Privacy Policy