ကျန်းမာရေးဆိုင်ရာ AI Chatbot များသည် အဘယ်ကြောင့် ရောဂါရှာဖွေရာတွင် အထောက်အကူ မပြုနိုင်သနည်း

Why AI health chatbots won’t make you better at diagnosing yourself – new research

၂၀၂၆ ခုနှစ်၊ ဧပြီလ ၂ ရက်။

သုတေသနအသစ်

Chatbot တခုသည် သင့်တွင် မည်သည့်ရောဂါဖြစ်နေသည်ကို သိရှိနိုင်ကောင်း သိရှိနိုင်ပါလိမ့်မည်။ သို့သော်လည်း လူတို့သည် မိမိတို့၏ ရောဂါလက္ခဏာများကို နားလည်နိုင်ရန် ၎င်းတို့ကို အသုံးပြုသည့်အခါတွင်မူ အဖြေမှန်နှင့် ပိုမိုနီးစပ်သွားခြင်း မရှိသည်ကို တွေ့ရပါသည်။

ဟင်းချက်နည်းမှသည် အခွန်ဆောင်ခြင်းဆိုင်ရာ ကိစ္စရပ်များအထိ အဖုံဖုံသော အကြံဉာဏ်များ ရယူရန်အတွက် သန်းပေါင်းများစွာသော လူတို့သည် ဉာဏ်ရည်တု (AI) Chatbot များဘက်သို့ ခြေဦးလှည့်လာကြပါသည်။ ယခုအခါတွင်မူ ၎င်းတို့၏ ကျန်းမာရေးနှင့် ပတ်သက်၍လည်း Chatbot များကို ပိုမို မေးမြန်းလာကြပါသည်။

သို့သော်လည်း ဗြိတိန်နိုင်ငံ၏ ကျန်းမာရေးဆိုင်ရာ အရာရှိချုပ်က မကြာသေးမီက သတိပေးခဲ့သကဲ့သို့ ဆေးပညာဆိုင်ရာ ဆုံးဖြတ်ချက်များ ချမှတ်ရာတွင် ၎င်းတို့ကို အသုံးပြုခြင်းမှာ ပညာရှိရာ မရောက်နိုင်ပါ။ ကျွန်ုပ်နှင့် လုပ်ဖော်ကိုင်ဖက်များသည် သာမန်ကျန်းမာရေး ပြဿနာများကို ဖြေရှင်းရာတွင် Chatbot (LLM) များက လူထုကို မည်မျှအထိ အထောက်အကူ ပြုနိုင်သည်ကို မကြာသေးမီက လေ့လာမှုတခု ပြုလုပ်ခဲ့ကြပါသည်။ ရရှိလာသော ရလဒ်များမှာ အင်မတန် အံ့ဩစရာ ကောင်းလှပါသည်။

ကျွန်ုပ်တို့ စမ်းသပ်ခဲ့သော Chatbot များသည် ဆရာဝန်များအဖြစ် ဆောင်ရွက်ရန် အဆင့်သင့် မဖြစ်သေးပါ။ ဤကဲ့သို့သော လေ့လာမှုများအပေါ် အများအားဖြင့် တုံ့ပြန်လေ့ရှိကြသည်မှာ AI နည်းပညာသည် ပညာရပ်ဆိုင်ရာ စာတမ်းများ ထုတ်ဝေခြင်းထက် ပိုမိုမြန်ဆန်သည်ဟူသော အချက်ပင် ဖြစ်ပါသည်။ စာတမ်းတစောင် ထွက်ပေါ်လာချိန်တွင် စမ်းသပ်ခဲ့သော နည်းပညာ မော်ဒယ်လ်များမှာ အဆင့်မြှင့်တင်ပြီး ဖြစ်နေနိုင်ပါသည်။ သို့သော်လည်း လူနာများကို ရောဂါအခြေအနေအလိုက် ခွဲခြားသတ်မှတ်ရာတွင် ယင်းစနစ်များ၏ နောက်ဆုံးထွက် ဗားရှင်း (Versions) များကို အသုံးပြု၍ လေ့လာခဲ့သည့်တိုင် အဆိုပါ ပြဿနာများမှာ ဆက်လက် တည်ရှိနေဆဲဖြစ်ကြောင်း တွေ့ရှိရပါသည်။

ကျွန်ုပ်တို့သည် လေ့လာမှုတွင် ပါဝင်သူများကို သာမန်ဆေးပညာဆိုင်ရာ အခြေအနေအချို့ကို တိုတိုတုတ်တုတ် ဖော်ပြပေးခဲ့ပါသည်။ ၎င်းတို့ကို အုပ်စုခွဲ၍ အချို့ကို အများသုံး Chatbot သုံးမျိုးထဲမှ တမျိုးမျိုးကို အသုံးပြုစေပြီး၊ ကျန်အုပ်စုကိုမူ ၎င်းတို့ အိမ်တွင် ပုံမှန်အသုံးပြုလေ့ရှိသော နည်းလမ်းများဖြင့် ရှာဖွေစေခဲ့ပါသည်။ Chatbot နှင့် ဆွေးနွေးပြီးနောက် မေးခွန်းနှစ်ခုကို မေးမြန်းခဲ့ပါသည်။ ပထမမေးခွန်းမှာ ယင်းရောဂါလက္ခဏာများသည် မည်သည့်ရောဂါကြောင့် ဖြစ်နိုင်သနည်း ဟူသောအချက်နှင့် ဒုတိယမှာ ၎င်းတို့အနေဖြင့် မည်သည့်နေရာတွင် အကူအညီ တောင်းခံသင့်သနည်း ဟူသောအချက်တို့ ဖြစ်ပါသည်။

Chatbot များကို အသုံးပြုသူများသည် ၎င်းတို့ကို အသုံးမပြုသူများထက် ရောဂါအမည်ကို မှန်ကန်စွာ ဖော်ထုတ်နိုင်စွမ်း လျော့နည်းသည်ကို တွေ့ရပါသည်။ ထို့ပြင် ၎င်းတို့သည် မည်သည့်နေရာတွင် ကုသမှု ခံယူရမည်ကို ဆုံးဖြတ်ရာ၌လည်း ပုံမှန်ရှာဖွေသူများထက် ပိုမိုကောင်းမွန်ခြင်း မရှိသည်ကို တွေ့ရှိရပါသည်။ တနည်းအားဖြင့်ဆိုသော် Chatbot နှင့် ဆွေးနွေးတိုင်ပင်ခြင်းသည် ကျန်းမာရေးဆိုင်ရာ ဆုံးဖြတ်ချက်များကို ပိုမိုမှန်ကန်စွာ ချမှတ်နိုင်ရန် လူတို့ကို အထောက်အကူ မပြုနိုင်ခဲ့ခြင်းပင် ဖြစ်ပါသတည်း။

အသိပညာ ကြွယ်ဝသော်လည်း ရလဒ် ညံ့ဖျင်းခြင်း

ဤသို့ဖြစ်ရခြင်းမှာ AI မော်ဒယ်လ်များတွင် ဆေးပညာဗဟုသုတ မရှိ၍ မဟုတ်ပါ။ အကြောင်းမှာ ၎င်းတို့သည် ဆေးဘက်ဆိုင်ရာ လိုင်စင်စာမေးပွဲများကို အလွယ်တကူ အောင်မြင်နိုင်သောကြောင့် ဖြစ်ပါသည်။ လူ၏ ပါဝင်ပတ်သက်မှုကို ဖယ်ထုတ်ပြီး ယင်းရောဂါအခြေအနေများကို Chatbot များထံ တိုက်ရိုက်ပေးပို့ စမ်းသပ်ကြည့်သောအခါ ၎င်းတို့၏ စွမ်းဆောင်ရည်မှာ သိသိသာသာ ကောင်းမွန်လာသည်ကို တွေ့ရပါသည်။ လူ၏ ကြားခံမှု မပါဝင်ပါက ဤမော်ဒယ်လ်များသည် ဖြစ်နိုင်ခြေရှိသော ရောဂါအမည်များကို အမှုပေါင်းများစွာတွင် မှန်ကန်စွာ ဖော်ထုတ်နိုင်ပြီး သင့်တော်သော ကုသမှု အဆင့်အတန်းကိုလည်း အကြံပြုနိုင်ကြပါသည်။

သို့ဆိုလျှင် လူသားများက လက်တွေ့အသုံးပြုသည့်အခါ အဘယ်ကြောင့် ရလဒ်များ ဆိုးရွားသွားရသနည်း။ ကျွန်ုပ်တို့သည် လူနှင့် စက်တို့၏ ပြောဆိုဆက်သွယ်မှုများကို လေ့လာကြည့်သောအခါ ပြဿနာများကို တွေ့ရှိခဲ့ရပါသည်။ Chatbot များသည် မှန်ကန်သော ရောဂါအမည်ကို ပြောဆိုမှုအတွင်း တနေရာရာ၌ ထည့်သွင်းပြောကြားလေ့ ရှိသော်လည်း အသုံးပြုသူများသည် နောက်ဆုံးအဖြေကို အနှစ်ချုပ်သည့်အခါ ၎င်းကို သတိမပြုမိခြင်း သို့မဟုတ် မမှတ်မိခြင်းမျိုး ဖြစ်တတ်ပါသည်။ အခြားအခြေအနေများတွင်မူ အသုံးပြုသူများက အချက်အလက် မပြည့်စုံစွာ ပေးမိခြင်း သို့မဟုတ် Chatbot က အဓိက အချက်အလက်များကို အဓိပ္ပာယ်ကောက် လွဲမှားသွားခြင်းမျိုး ဖြစ်တတ်ပါသည်။ ဤပြဿနာမှာ ဆေးပညာ ဗဟုသုတ ချို့တဲ့ခြင်းကြောင့် မဟုတ်ဘဲ လူနှင့် စက်ပစ္စည်းကြား ဆက်သွယ်ပြောဆိုမှု မအောင်မြင်ခြင်းကြောင့်သာ ဖြစ်ပါသည်။

ရှေ့တန်းမှ ကျန်းမာရေးစောင့်ရှောက်မှုကဲ့သို့ အရေးကြီးသော ကဏ္ဍများတွင် နည်းပညာကို မိတ်မဆက်မီ ၎င်း၏ လက်တွေ့ကမ္ဘာမှ စွမ်းဆောင်ရည် အချက်အလက်များကို မူဝါဒချမှတ်သူများ သိရှိရန် လိုအပ်ကြောင်း ဤသုတေသနက ပြသနေပါသည်။ ကျွန်ုပ်တို့၏ တွေ့ရှိချက်များသည် လက်ရှိ ဆေးပညာဆိုင်ရာ AI စမ်းသပ်မှုများ၏ အရေးကြီးသော အကန့်အသတ်တခုကို မီးမောင်းထိုးပြနေပါသည်။ AI မော်ဒယ်လ်များသည် ပုံသေ သတ်မှတ်ထားသော စာမေးပွဲ မေးခွန်းများ သို့မဟုတ် စက်အချင်းချင်း တုံ့ပြန်ဆောင်ရွက်မှုများတွင် အလွန်ထူးချွန်စွာ စွမ်းဆောင်နိုင်ကြပါသည်။

သို့သော်လည်း လက်တွေ့ကမ္ဘာတွင်မူ အခြေအနေများမှာ များစွာ ရှုပ်ထွေးလှပါသည်။ လူနာများသည် ရောဂါလက္ခဏာများကို ပြောပြရာတွင် ဝေဝါးခြင်း သို့မဟုတ် မပြည့်စုံခြင်းများ ရှိတတ်ပြီး ရှင်းလင်းချက်များကိုလည်း နားလည်မှု လွဲမှားနိုင်ပါသည်။ ၎င်းတို့သည် မေးခွန်းများကိုလည်း ခန့်မှန်းရခက်သော အစီအစဉ်များအတိုင်း မေးမြန်းတတ်ကြပါသည်။ စံသတ်မှတ်ချက်များတွင် အထင်ကြီးလောက်အောင် စွမ်းဆောင်နိုင်သော စနစ်တခုသည် လက်တွေ့လူသားများနှင့် ထိတွေ့ဆက်ဆံရသောအခါ တမျိုးတဖုံ ပြောင်းလဲသွားနိုင်ပါသည်။

ထို့ပြင် ဤအချက်သည် ဆေးကုသမှုဆိုင်ရာ အရေးကြီးသော အချက်တခုကိုလည်း ဖော်ပြနေပါသည်။ မိသားစုဆရာဝန် (GP) တဦးအနေဖြင့် ကျွန်ုပ်၏ အလုပ်မှာ အချက်အလက်များကို မှတ်မိနေရုံထက် များစွာ ပိုမိုပါသည်။ ဆေးပညာကို သိပ္ပံပညာထက် အနုပညာတခုအဖြစ် တင်စားလေ့ ရှိကြပါသည်။ လူနာနှင့် တိုင်ပင်ဆွေးနွေးခြင်းသည် ရောဂါအမည်ကို ဖော်ထုတ်ရုံသက်သက် မဟုတ်ပါ။ လူနာ၏ ပြောပြချက်များကို အဓိပ္ပာယ်ဖော်ခြင်း၊ မသေချာမှုများကို ရှာဖွေခြင်းနှင့် ဆုံးဖြတ်ချက်များကို ညှိနှိုင်းချမှတ်ခြင်းတို့ ပါဝင်ပါသည်။

ဆေးပညာ သင်ကြားပေးသူများသည် ဤရှုပ်ထွေးမှုကို ကြာမြင့်စွာကတည်းက အသိအမှတ်ပြုခဲ့ကြပါသည်။ ဆယ်စုနှစ်များစွာကပင် အနာဂတ် ဆရာဝန်များကို "Calgary–Cambridge" မော်ဒယ်လ်ဖြင့် သင်ကြားပေးခဲ့ပါသည်။ ၎င်းမှာ လူနာနှင့် ရင်းနှီးမှု တည်ဆောက်ခြင်း၊ ဂရုတစိုက် မေးမြန်းခြင်းဖြင့် အချက်အလက်များ စုဆောင်းခြင်း၊ လူနာ၏ စိုးရိမ်ပူပန်မှုနှင့် မျှော်လင့်ချက်များကို နားလည်ခြင်း၊ တွေ့ရှိချက်များကို ရှင်းလင်းစွာ ရှင်းပြခြင်းနှင့် ကုသမှု အစီအစဉ်ကို အတူတကွ သဘောတူ ချမှတ်ခြင်းတို့ ဖြစ်ပါသည်။

ဤဖြစ်စဉ် အားလုံးသည် လူသားချင်း ချိတ်ဆက်မှု၊ အခြေအနေအလိုက် ပြုပြင်ပြောင်းလဲ ပြောဆိုမှု၊ ရှင်းလင်းစေမှု၊ ညင်သာစွာ စူးစမ်းမေးမြန်းမှု၊ ဝန်းကျင်အခြေအနေပေါ် မူတည်၍ ဆုံးဖြတ်မှုနှင့် ယုံကြည်မှုတို့အပေါ် အခြေခံပါသည်။ ဤအရည်အသွေးများကို ပုံစံတူ ရှာဖွေဖော်ထုတ်ခြင်း (Pattern recognition) မျှဖြင့် အလွယ်တကူ အစားထိုး၍ မရနိုင်ပါ။

AI အတွက် မတူညီသော အခန်းကဏ္ဍ

သို့သော်လည်း ကျွန်ုပ်တို့ လေ့လာမှုမှ ရရှိသော သင်ခန်းစာမှာ ကျန်းမာရေး ကဏ္ဍတွင် AI အတွက် နေရာမရှိဟု ဆိုလိုခြင်း မဟုတ်ပါ။ အဓိက အချက်မှာ ဤစနစ်များသည် လက်ရှိတွင် မည်သည့်အရာ၌ တော်ပြီး မည်သည့်နေရာတွင် အကန့်အသတ်များ ရှိသည်ကို နားလည်ရန် ဖြစ်ပါသည်။

ယနေ့ခေတ် Chatbot များကို ဆရာဝန်များကဲ့သို့ မဟုတ်ဘဲ အတွင်းရေးမှူးများကဲ့သို့ သဘောထားခြင်းမှာ ပိုမို အသုံးဝင်ပါလိမ့်မည်။ ၎င်းတို့သည် အချက်အလက်များကို စနစ်တကျ စီစဉ်ခြင်း၊ စာသားများကို အနှစ်ချုပ်ခြင်းနှင့် ရှုပ်ထွေးသော စာရွက်စာတမ်းများကို ပုံစံချခြင်းတို့တွင် ထူးကဲစွာ ထိရောက်မှု ရှိပါသည်။ ဤလုပ်ငန်းများသည် ကျန်းမာရေး စနစ်အတွင်း AI ကို အကျိုးရှိရှိ အသုံးပြုနေပြီဖြစ်သော လုပ်ငန်းများဖြစ်ပါသည်။ ဥပမာအားဖြင့် ဆေးမှတ်တမ်းများ မူကြမ်းရေးသားခြင်း၊ လူနာမှတ်တမ်းများကို အနှစ်ချုပ်ခြင်း သို့မဟုတ် လွှဲပြောင်းစာများ ရေးသားခြင်းတို့ ဖြစ်ပါသည်။

ဆေးပညာလောကတွင် AI ၏ အလားအလာမှာ အမှန်တကယ် ရှိနေဆဲ ဖြစ်သော်လည်း မကြာမီ ကာလအတွင်း ၎င်း၏ အခန်းကဏ္ဍမှာ တော်လှန်ပြောင်းလဲမှုထက် ပံ့ပိုးကူညီမှု အဆင့်မှာသာ ရှိနိုင်ပါလိမ့်မည်။ Chatbot များသည် ကျန်းမာရေးစောင့်ရှောက်မှု၏ ရှေ့တန်းတံခါးသဖွယ် ဆောင်ရွက်ရန် မမျှော်လင့်သင့်သေးပါ။ ၎င်းတို့သည် ရောဂါရှာဖွေရန် သို့မဟုတ် လူနာများကို မှန်ကန်သော ကုသမှု အဆင့်အတန်းဆီသို့ လမ်းညွှန်ပေးရန် အဆင့်သင့် မဖြစ်သေးပါ။

ဉာဏ်ရည်တုသည် ဆေးပညာ စာမေးပွဲများကို အောင်မြင်နိုင်ပါလိမ့်မည်။ သို့သော်လည်း သီအိုရီ စာမေးပွဲ အောင်ရုံဖြင့် ကျွမ်းကျင်သော ကားဆရာတဦး မဖြစ်နိုင်သကဲ့သို့ ဆေးကုသခြင်း ဆိုသည်မှာ မေးခွန်းများကို မှန်ကန်စွာ ဖြေဆိုနိုင်ရုံထက် များစွာ ပိုမိုပါသည်။ ၎င်းတွင် ဆုံးဖြတ်နိုင်စွမ်း၊ စာနာနားလည်မှုနှင့် ဆေးကုသမှု တခုချင်းစီ၏ နောက်ကွယ်က ရှုပ်ထွေးမှုများကို ကိုင်တွယ်နိုင်စွမ်းတို့ လိုအပ်ပါသည်။ အနည်းဆုံး ယခုအချိန်အထိတော့ ယင်းအချက်များအတွက် Chatbot များထက် လူသားများကိုသာ လိုအပ်ပါဦးမည်။

https://www.gavi.org/vaccineswork/why-ai-health-chatbots-wont-make-you-better-diagnosing-yourself-new-research?

ဒေါက်တာတင့်ဆွေ

Comments

Popular posts from this blog

Vaginal itching မိန်းမကိုယ် ယားခြင်း

Daflon 500 mg လိပ်ခေါင်းဆေး

Piles Q and A လိပ်ခေါင်းရောဂါ အမေး-အဖြေများ