ဂျပန်နိုင်ငံမှ သိပ္ပံပညာရှင်များက ကြက်များ၏ အသံများက ဘာကိုဆိုလိုကြောင်းကို သိနိုင်ရန် AI (artificial intelligence) အကူအညီဖြင့် နားလည်နိုင်သည်ဟု ဆိုသည်။
သုတေသီများက ကြက်၏အသံကို နည်းပညာသုံးကာ ခွဲခြမ်းစိတ်ဖြာပြီး ဆာလောင်ခြင်း၊ ကြောက်ရွံ့ခြင်း၊ ဒေါသထွက်ခြင်း၊ ကျေနပ်ခြင်း၊ စိတ်လှုပ်ရှားခြင်းနှင့် စိတ်ထိခိုက်ခြင်းတို့ကို (၈၀) ရာခိုင်နှုန်း မှန်ကန်စွာ အဓိပ္ပါယ်ဖော် သိရှိနိုင်ကြောင်း သိရသည်။
ယခု လေ့လာမှုကို တိုကျိုတက္ကသိုလ် ပါမောက္ခ Adrian David Cheok က ဦးဆောင်ခဲ့ခြင်း ဖြစ်ပြီး ဦးဆောင်သူ ပါမောက္ခ Cheok သည် ၎င်း၏ လိင်စက်ရုပ် သုတေသနကြောင့် လူသိများသူလည်း ဖြစ်သည်။
ကြက်အသံများကို AI နည်းပညာဖြင့် အဓိပ္ပါယ်ဖော် နားလည်နိုင်မှု သုတေသန တွေ့ရှိချက်များကို Reseach Square ဝက်ဘ်ဆိုက်တွင် ထုတ်ပြန်ထားသည်။
ဂျပန်သိပ္ပံပညာရှင်များ၏ လေ့လာတွေ့ရှိချက်များကို အပြန်အလှန် သုံးသပ်မှု မလုပ်ရသေးသော်လည်း လေ့လာမှုစာတမ်းကို Nature Scientific Reports သို့ တင်ပြထားကြောင်း စက်တင်ဘာလ (၂၀) ရက်နေ့ NY Post သတင်းက ဖော်ပြသည်။
ကြက်အသံများကို အဓိပ္ပါယ်ဖော်ရာတွင် အသုံးပြုသည့် AI နှင့် ML (machine learning) နည်းပညာများကို အခြား တိရိစ္ဆာန်များတွင်လည်း လိုက်လျောညီထွေဖြစ်အောင် ပြင်ဆင်အသုံးပြုနိုင်ရန် မျှော်လင့်ကြောင်း ပါမောက္ခ Cheok က ဆိုသည်။
"တိရိစ္ဆာန်တွေ ဘာခံစားနေရတယ်ဆိုတာ သိမယ်ဆိုရင် ကျွန်တော်တို့က သူတို့အတွက် အများကြီး ပိုကောင်းအောင် စီစဥ်နိုင်ပါတယ်" ဟု ၎င်းက ပြောသည်။
ပါမောက္ခ Cheok ၏ သုတေသနအဖွဲ့တွင် ကြက်များ၏ စိတ်ခံစားမှု အခြေအနေနှင့် ပတ်သက်၍ ထိုးထွင်းသိမြင်နိုင်သော တိရိစ္ဆာန် စိတ်ပညာရှင်နှင့် တိရိစ္ဆာန်ဆေးကု ဆရာဝန် (၈) ဦး ပါဝင်ခဲ့သည်။
ထိုအဖွဲ့က ကြက်အကောင်ရေ (၈၀) နှင့် နာရီ (၂၀၀) ခန့်ရှိ အသံများကို အတူတကွ ခွဲခြမ်းစိတ်ဖြာခဲ့သည်။
သိပ္ပံပညာရှင်များက AI စနစ်ကို ကြက်အသံများ နာရီ (၁၀၀) စာ အသံသွင်းထားမှု ထည့်သွင်းခဲ့ပြီး အသံတစ်ခုစီကို စိတ်ခံစားမှု အခြေအနေတစ်ခုအဖြစ် သတ်မှတ်ကာ လေ့ကျင့်ပေးခဲ့သည်။
ထို့နောက် ၎င်းတို့က နာရီ (၁၀၀) စာ ကြက်အသံ အသစ်များကို AI ကို ပေးခဲ့ရာ AI က ကြက်များ၏ စိတ်ခံစားမှု အခြေအနေကို အချိန်အများစုတွင် မှန်ကန်စွာ အဓိပ္ပါယ်ဖော်နိုင်ကြောင်း တွေ့ရသည်။
ပါမောက္ခ Cheok နှင့် အဖွဲ့က အခမဲ့ အက်ပလီကေးရှင်း (App) တစ်ခု ဖန်တီးရန် စီစဥ်နေပြီး သို့မှသာ လယ်သမားများ ၎င်းတို့၏ ကြက်များကို ဆက်သွယ်ရန် နည်းပညာကို အသုံးချနိုင်မည်ဟု ဆိုသည်။
Source: NY Post