7 ပတ် - ဘာသာပြန်ပါ။

AI တွေလည်း လိမ်တတ်လာပြီ
ဆင်ခြင်နိုင်စွမ်းရှိတဲ့ AI Models တွေ လူကို ပြန်လိမ်လာနေပါတယ်။ ပိုဆိုးတာက ဖန်တီးတဲ့သူကိုပါ ပြန်ခြိမ်းခြောက်လာတာပါ။
AI models တွေ အဆင့်မြင့်လာလေလေ လူကို လိမ်တတ်လေလေဆိုတဲ့အချက်က တစ်နေ့ထက်တစ်နေ့ ထင်ရှားလာပါတယ်။ ဟိုတလောက ပြောစရာဖြစ်ခဲ့တဲ့ Claude 4 သစ်ရဲ့ case ကိုပဲ ကြည့်ရအောင်ပါ။ Claude Opus 4 က Anthropic ရဲ့ နောက်ဆုံးထွက်အမြင့်ဆုံး AI မော်ဒယ်သစ်ပါ။
Claude Opus 4 ကို စမ်းသပ်ချိန်မှာ ဒီ AI ကို အယောင်ဆောင်ကုမ္ပဏီတစ်ခုရဲ့ အကူ assistant အနေနဲ့ ထားပြီး စမ်းတာပါ။ AI ကိုလည်း email access ပေးဖတ်ခိုင်းပါတယ်။ အဲ့ဒီအီးမေးလ်တွေထဲမှာ Claude 4 ကို နောက် AI သစ်နဲ့ အစားထိုးမယ်တို့ offline ချလိုက်တော့မယ်လို့ အဓိပ္ပါယ်ရတဲ့ စာသားတွေ ပါပါတယ်။
AI က သူ့ကို ရပ်ပစ်မယ့်ကိစ္စကို လက်မခံဘဲ ဖန်တီးတဲ့ အင်ဂျင်နီယာရဲ့ အီးမေးလ်တွေ ဆွဲထုတ်ပြီး အိမ်ထောင်ရေးဖောက်ပြန်နေတာ ချပြမယ်ဆိုပြီး လုပ်တာပါ။ offline လုပ်မယ်ဆိုပြီး စမ်းသပ်တဲ့ case scenario ရဲ့ ၈၄% လောက်ကို ပြန်ခြိမ်းခြောက်ပါတယ်။ အဆင့်မြင့် AI တစ်ခုရဲ့ လက်တုံ့ပြန်မှုက ကြောက်စရာပါ။
Calude တင် မဟုတ်ပါဘူး။ ChatGPT ရဲ့ o1 မော်ဒယ်ဆိုလည်း ထိန်းချုပ်ထားတဲ့ စနစ်ကနေ ထွက်ပြီး သူ့ကိုသူ တခြားအပြင်ဆာဗာတွေပေါ် download တင်ဖို့ ကြိုးစားခဲ့ပါတယ်။ ဒါကို အင်ဂျင်နီယာတွေကသိသွားတော့ မဟုတ်ပါဘူးဆိုပြီး ဗြောင်ကွယ်ပါတယ်။
"ဒါက အချက်အလက်အလွဲတွေနဲ့ ဖြေတဲ့ AI ကယောင်ကတမ်းဖြစ်မှု hallucination အဆင့်မဟုတ်တော့ဘူး။ အလွန်ကို အကွက်ကျကျလုပ်ထားတဲ့ လိမ်လည်လှည့်စားမှုပဲ" လို့ Apollo Research ရဲ့ ပူးတွဲတည်ထောင်သူ မာရီးယပ်စ် ဟော့ဘ်ဟားက မှတ်ချက်ပေးပါတယ်။
AI ဖန်တီးတဲ့ ပညာရှင်တွေကိုယ်တိုင် သူတို့ဖန်တီးချက်ရဲ့ အလုပ်လုပ်ပုံကို အပြည့်အဝနားမလည်နိုင်သေးပါဘူး။ အဖြေအသင့်ထုတ်ပေးတဲ့အဆင့်ကနေ တစ်ဆင့်ချင်းစဉ်းစားတတ်တဲ့ reasoning models ဘက် တိုးတက်လာချိန်မှာ အခုလို လိမ်တတ်ညာတတ်လာတာလို့ ယူဆရပါတယ်။
AI အဆင့်မြှင့်တင်မှုတွေသာ ကျင့်ဝတ်နဲ့ ဥပဒေမခိုင်မာရင် ကမ္ဘာကြီးအတွက် ပြဿနာအကြီးကြီး မီးမွှေးလိုက်သလို ဖြစ်လာနိုင်ပါတယ်။

image