Ha élet vagy halál orvosi válságban van, bízhat-e a mesterséges intelligenciában (AI) a legjobb döntés meghozatalában?

  • Facebook
  • Mint
  • Twitter
  • Pinterest
  • LinkedIn
  • Digg
  • Del
  • Tumblr
  • VKontakte
  • Nyomtatás
  • Email
  • Flattr
  • Reddit
  • Puffer
  • Szeretem
  • Weibo
  • Zseb
  • Xing
  • Odnoklassniki
  • WhatsApp
  • Meneame
  • Blogger
  • amazon
  • Yahoo levelezés
  • Gmail
  • AOL
  • Newsvine
  • HackerNews
  • Evernote
  • Az én helyem
  • Mail.ru
  • Viadeo
  • Vonal
  • Flipboard
  • Hozzászólások
  • Fincsi
  • SMS
  • Viber
  • Távirat
  • Iratkozz fel
  • Skype
  • Facebook Messenger
  • Kakao
  • LiveJournal
  • Sóvárog
  • Edgar
  • Fintel
  • Keverd össze
  • Instapaper
  • Link másolása

A világ klinikáin a mély tanulásnak nevezett mesterséges intelligencia egy olyan típusa kezdi kiegészíteni vagy helyettesíteni az embereket olyan általános feladatokban, mint például az orvosi képek elemzése. Már a bostoni Massachusettsi Általános Kórházban „az évente elvégzett 50 000 szűrővizsgálat mindegyikét feldolgozzuk a mély tanulási modellen keresztül, és ezeket az információkat a radiológusnak adjuk át” - mondja Constance Lehman, a kórház emlőképészeti részlegének vezetője.

A mély tanulás során, a mesterséges intelligencia egyfajta részhalmazának, amelyet gépi tanulásnak neveznek, a számítógépes modellek lényegében arra tanítják magukat, hogy nagy adatsorokból jósoljanak. A technológia nyers ereje drámai módon javult az elmúlt években, és ma már az orvosi diagnosztikától kezdve az online vásárláson át az autonóm járművekig mindenben alkalmazzák.

De a mély tanulási eszközök aggasztó kérdéseket is felvetnek, mert olyan módon oldják meg a problémákat, amelyeket az emberek nem mindig tudnak követni. Ha a modellbe betáplált adatok és az általa szállított kimenet közötti kapcsolat kifürkészhetetlen - egy úgynevezett fekete dobozba rejtve -, hogyan lehet megbízni benne? A kutatók körében egyre nagyobb a felhívás annak tisztázására, hogy a mély tanulási eszközök hogyan hoznak döntéseket - és vita folyik arról, hogy mit követelhet az ilyen értelmezhetőség és mikor van rá igazán szükség. Különösen nagy a tét az orvostudományban, ahol életek állnak a vonalon.

Ennek ellenére a lehetséges előnyök egyértelműek. A Mass General mammográfiai programjában például a jelenlegi mély tanulási modell segít kimutatni a sűrű mellszövetet, amely a rák kockázati tényezője. Lehman és Regina Barzilay, a Massachusettsi Műszaki Intézet informatikusa pedig egy újabb mély tanulási modellt hoztak létre, hogy megjósolják a nők öt éven át tartó mellrák kialakulásának kockázatát - az ellátás tervezésének kritikus eleme. A kutatók azt találták, hogy 2019-ben mintegy 40 000 nő mammográfiájának retrospektív vizsgálata során a mély tanulási rendszer lényegesen felülmúlta a jelenlegi arany-standard megközelítést egy körülbelül 4000 ilyen nőből álló tesztcsoporton. Most, hogy további tesztelés alatt áll, az új modell bekerülhet a kórház rutin klinikai gyakorlatába.

bízhat-e

Ami azt a vitát illeti, hogy az emberek valóban megérthetik-e a mély tanulási rendszereket, Barzilay szilárdan ül a táborban, hogy ez lehetséges. A fekete doboz problémáját „mítosznak” nevezi.

A mítosz egyik része szerinte az, hogy a mély tanulási rendszerek nem tudják megmagyarázni az eredményeiket. De "rengeteg módszer létezik a gépnyelven, amely lehetővé teszi az eredmények értelmezését" - mondja. Véleménye szerint a mítosz másik része az, hogy az orvosoknak meg kell érteniük, hogy a rendszer hogyan hozza meg a döntését annak felhasználása érdekében. De az orvostudomány olyan fejlett technológiákkal van tele, amelyek oly módon működnek, amelyeket a klinikusok valóban nem értenek - például a mágneses rezonancia képalkotás (MRI), amely kezdetben összegyűjti a mammográfiai adatokat.

Ez nem válaszol minden orvos aggodalmaira. Számos gépi tanulási eszköz továbbra is fekete doboz, „amely az esetleges kísérő indoklás nélkül hozza meg az ítéleteket” - jegyzi meg orvosok és kutatók egy csoportja a BMJ Clinical Research nemrégiben megjelent cikkében. "Sokan úgy gondolják, hogy új technológiaként a bizonyítási teher a gépi tanuláson áll, hogy beszámoljon az előrejelzéseiről" - folytatják a cikk szerzői. "Ha az orvosok nem értik, miért diagnosztizálta az algoritmus, akkor a betegeknek miért kell megbízniuk az ajánlott kúrában?"

A gépi tanulást tanulmányozó informatikusok körében pedig „az értelmezhetőségnek ez a vitája teljesen lesiklott a sínről” - mondja Zachary Lipton, a Carnegie Mellon Egyetem informatikusa. Gyakran az értelmezhetőségért kínált modellek egyszerűen nem működnek jól, mondja, és zűrzavar van abban, hogy a rendszerek valójában mit nyújtanak.

"Vannak olyan emberek a területen, akik képesek forgatni a forgattyút, de valójában nem tudják, mit csinálnak" - teszi hozzá -, és valójában nem értik, amit csinálnak. "

A mély tanulási eszközök az ideghálózatok koncepciójára építenek, eredetileg az emberi agy ihlette és olyan csomópontokból áll, amelyek kissé úgy működnek, mint az agysejtek. A mély tanulási modellek ezen mesterséges idegsejtek több rétegét egyesítik a fejlődő kapcsolatok hatalmas hálójává. A modellek pedig olyan szinteken zsonglőrködnek adatokkal, amelyek messze meghaladják az emberi elme által követhető szintet.

A modellek működésének megértése egyes alkalmazásokban sokkal fontosabb, mint mások. Az aggodalom, hogy az Amazon tökéletes javaslatokat kínál-e nagynénje születésnapi ajándékára, nem egyezik-e például azzal, hogy aggódik az orvosok által a daganatok vagy a közelgő szívrohamok észleléséhez használt eszközök megbízhatósága miatt.

Az informatikusok sokféle megközelítést próbálnak megtenni, hogy a mély tanulás kevésbé átláthatatlan legyen, legalábbis társaik számára. Az emlőrák kockázatának modellje például hőtérképes megközelítést alkalmazhat, lehetővé téve a radiológusok számára a mammográfiai kép azon területeinek nagyítását, amelyekre a modell figyel, amikor jósol. Ezután a modell kibonthatja és kiemelheti a látottakat leíró szövegrészleteket.

A mély tanulási modellek más régiók képeit is bemutathatják, amelyek hasonlóak ezekhez a megcélzott területekhez, és az emberi szakértők ezután felmérhetik a gép választásait. Egy másik népszerű technika a matematikát alkalmazza, amely azonnal érthetőbb az adatok részhalmazaira annak becslésére, hogy a mély tanulási modell hogyan kezeli a teljes adatkészletet.

"Többet megtudunk arról, hogy milyen magyarázatok meggyőzőek az emberek számára, amikor ezeket a modelleket integrálják az ellátásba, és láthatjuk, hogyan segíthet az emberi elme az előrejelzéseik ellenőrzésében és érvényesítésében" - mondja Barzilay.

Londonban a Moorfields Eye Hospital és a DeepMind, a Google Alphabet anyavállalat leányvállalatának csapata szintén mélyreható magyarázatokat igyekszik bemutatni. Mély tanulást alkalmaztak a páciens szkennelésének osztályozásához. A rendszer háromdimenziós szemellenőrzéseket végez, elemzi azokat, és olyan eseteket választ ki, amelyek sürgős áttételre szorulnak - és ugyanúgy működik, vagy jobban, mint az emberi szakértők. A modell számos lehetséges magyarázatot ad és értékel az egyes diagnózisokról, és megmutatja, hogyan jelölte meg a páciens szemének részeit.

A mély tanulás klinikára juttatásának általános stratégiájaként „a legfontosabb a legjobb rendszer kiépítése, de aztán annak viselkedésének elemzése” - mondja Anna Goldenberg, a torontói SickKids Kutatóintézet genetikai és genombiológiai vezető tudósa. a klinikusokkal, hogy készítsenek egy modellt, amely megjósolhatja a szívleállásokat. „Azt hiszem, mindkettőt szeretnénk. Azt hiszem, ez elérhető. ”

Az olyan modellek, mint a Mass General's és a Moorfields, jól megtervezettek, orvosok véleményével és klinikai eredményekkel rendelkeznek szakértők által áttekintett tudományos publikációkban, és szilárd műszaki alapokon nyugszanak. De az értelmezhetőség kevés kísérlete eljut idáig - mondja Lipton.

Gyakrabban az ilyen értelmezések nem mutatnak valódi kapcsolatot a bemenő adatok és a kijövő adatok között. "Alapvetően az emberek megnézték a csinos képeket, és kiválasztották azt a képet, amely először is úgy néz ki, mint amit látni akartak" - teszi hozzá Lipton. "Egyre inkább azzal zárul le, hogy az emberek csak spagettit dobnak a falra, és magyarázatnak nevezik."

Még akkor is, ha az informatikusok megtalálják a módját annak, hogy megmutassák a mély tanulási eszköz működését, az orvosoké lesz a végső szó arról, hogy a magyarázatok elegendőek-e. Az orvosokat nem csak az elméleti pontosság érdekli - tudniuk kell, hogy a rendszer működik a való világban.

Például, amikor az orvosok megpróbálnak észrevenni egy kis daganatot vagy a közelgő szívmegállás korai jeleit, „a hamis pozitívok nem annyira problémásak, mert a klinikusok megpróbálják elkerülni a dolgok késői észlelését” - mondja Goldenberg. - De a hamis negatívumok valóban nagy problémát jelentenek. Ha azonban a hamis pozitív eredmények aránya túl magas, akkor az orvosok egyáltalán nem figyelhetnek a rendszerre.

Amikor az orvosok látják a mély tanulási rendszerben figyelembe vett klinikai tényezőket, könnyebb számukra az eredmények értelmezése. "Anélkül, hogy ezt megértenék, gyanúsak" - mondja Goldenberg. „Nem kell pontosan megérteniük a rendszer működését és a mély tanulást. Meg kell érteniük, hogy a rendszer hogyan hozna döntést hozzájuk képest. Tehát néhány esetet a rendszer ellen vetnek, és megnézik, mit csinál, majd megnézik, bíznak-e benne. ”

A mély tanulási tanulmányokat a megfelelő, meglévő egészségügyi nyilvántartások nagy számának elemzésével kell kezdeni, állítják szakértők. Bizonyos esetekben, például Goldenberg szívmegállási modelljénél, a következő lépés lehet egy olyan kísérlet lefuttatása, amelyben „hagyhatjuk működtetni a rendszert, megkapjuk a valós idejű inputokat, de nem adunk visszajelzést a klinikusnak, és látjuk a különbséget a gyakorlat és az, amit rendszerünk jósol. ”

„Mielőtt túlságosan az ujjával mutogatnánk az AI-re, meg kell vizsgálnunk minden más, hamis pozitív és hamis negatív érett gyakorlatunkat, valamint minden más, fekete dobozos gyakorlatot olyan publikációk alapján, amelyeket a valóságban kevés orvos olvas el részletesen, ”- mondja Isaac Kohane, a Harvard Medical School bioinformatikusa és orvosa.

Mivel az AI csak a gyakorlatban van, nem látott ugyanolyan átvilágítást, mint néhány más technológia - tette hozzá Kohane. "És mivel nem úgy néz ki, mint a vérvizsgálat vagy a képalkotó vizsgálat, az egészségügyi ellátórendszer vagy a szabályozó hatóságok még nem találták ki a helyes módot annak biztosítására, hogy tudjuk, elfogadhatóan biztonságos, bármi is legyen elfogadható."

Kohane szerint a legnagyobb gondja az, hogy senki sem tudja, mennyire jól működnek az új modellek. "Jobban kell aggódnunk amiatt, hogy mi a hamis pozitív arány, és mi a hamis negatív arány ezeknek a programoknak az idővel" - teszi hozzá -, hogy még ha fekete dobozban is alkalmazzák őket, mint a többi gyógyszert, akkor is kellően megbízható. ”