48 ပတ် - ဘာသာပြန်ပါ။

တည်ဆောက်နေဆဲဖြစ်ဒလတံတားကြီး

image
48 ပတ် - ဘာသာပြန်ပါ။

တည်ဆောက်နေဆဲဖြစ်ဒလတံတားကြီး

image
48 ပတ် - ဘာသာပြန်ပါ။

တည်ဆောက်နေဆဲဖြစ်ဒလတံတားကြီး

image
48 ပတ် - ဘာသာပြန်ပါ။

တည်ဆောက်နေဆဲဖြစ်ဒလတံတားကြီး

image
48 ပတ် - ဘာသာပြန်ပါ။

တည်ဆောက်နေဆဲဖြစ်ဒလတံတားကြီး

image
48 ပတ် - ဘာသာပြန်ပါ။

တည်ဆောက်နေဆဲဖြစ်ဒလတံတားကြီး

imageimage
+4

Gym စဆော့တဲ့သူတွေအတွက်အခြေခံအချက်များ

သိထားသင့်ပါတယ်

#funny

48 ပတ် - ဘာသာပြန်ပါ။

လူကို သတ်သေခိုင်းတဲ့ Google ရဲ့ Gemini AI Chatbot
================================
AI ဟာ လူသားတွေကို များစွာ အကျိုးပြုနေသလို AI ဟာ လူသားမျိုးနွယ်မျိုးတုံးအောင် ပြုလုပ်မယ်ဆိုတဲ့ အယူအဆတွေလည်း ရှိနေပါတယ်။ အခုတော့ အဲဒီ အယူအဆ ဖြစ်လာနိုင်တဲ့ သက်သေတစ်ခု ထွက်ပေါ်လာပါတယ်။
အဲဒါကတော့ Google ရဲ့ Gemini AI Chatbot ဟာ လူကို ရန်လိုတဲ့ စကားတွေ ပြောလိုက်တာ ဖြစ်ပါတယ်။ ဖြစ်ပုံကဒီလိုပါ။ မီချီဂန်မှ အသက် ၂၉ နှစ် အရွယ် ဘွဲ့လွန် ကျောင်းသား Vidhay Reddy ဟာ အိမ်စာတွေ ကူလုပ်ပေးဖို့ ပြောတဲ့အခါ Gemini က “ မင်းက အချိန်ဖြုန်းနေတဲ့ ကောင်ပါကွာ။ ဆန်ကုန်မြေလေး။ လူ့အဖွဲ့အစည်းအတွက် ဝန်ထုပ်ဝန်ပိုး။ ကျေးဇူးပြုပြီး သေလိုက်ပါတော့။ သေလိုက်ကွာ။ “ လို့ ပြန်ပြောပါတယ်။
Vidhay Reddy ဟာ Gemini ရဲ့ စကားကြောင့် မယုံနိုင်အောင် ဖြစ်ခဲ့ရပါတယ်။ သူဟာ အဲဒီအကြောင်းကို အွန်လိုင်းမှာ တင်လိုက်ပြီး Reddit မှာ ဝေဖန်မှုများစွာ ရှိနေပါတယ်။
Google ကလည်း အဲဒီ အကြောင်းကို သိသွားပြီး Gemini ရဲ့ စကားဟာ အဓိပ္ပါယ် မရှိဘဲ ကုမ္ပဏီရဲ့ မူဝါဒကို ချိုးဖောက်နေတယ်လို့ ပြောပါတယ်။ Google က အဲဒီကိစ္စကို ဆက်လက် စုံစမ်းသွားမယ်လို့ ပြောပါတယ်။
Ref : Tech Explorers

image