美日AI大戰 哥倫比亞大學推逼真「對嘴機器人」
機器人Emo能自學唇語,模擬人類說話與唱歌時的嘴型變化
美國哥倫比亞大學研發的AI機器人Emo,能透過觀察影像自學唇部運動,精準模擬人類說話與唱歌時的嘴型變化。該機器人臉部裝載了26組微型馬達並覆蓋柔性矽膠皮膚,使表情栩栩如生。
技術突破:克服「恐怖谷效應」
人類在面對面對話時,約一半注意力集中在嘴唇動作上,傳統機器人常因面部動作不自然而陷入「恐怖谷效應」。Emo機器人透過AI模型與自監督學習,大幅改善了面部表現的真實感,避免了與人類互動時的不自然感。
研究團隊與進展
- 由哥倫比亞大學「創意機器實驗室」研發,主要研究者為亞裔博士生。
- 團隊耗時五年,結合網路數據與對鏡物理數據訓練AI模型,讓機器人能理解身體動作與語境。
- 機器人可預測人類表情變化,甚至在0.84秒內提前反應,實現更自然的人機互動。
相關報導與來源
此技術進展被《科學機器人》(Science Robotics)期刊報導,並獲多家媒體關注,包括《科技日報》與臺灣新聞網。
