Meta推TRIBE v2腦模型,可預測人類大腦反應、準確度提高2~3倍
重點新聞摘要
Meta最新發布的TRIBE v2(Trimodal Brain Encoder)模型,能夠預測人類大腦對影像與聲音的反應,並透過整合語言、音樂與視覺訊號,建立在約500小時的fMRI資料基礎上,實現對人類大腦反應的精準預測。
技術細節
- TRIBE v2模型結合語言、音樂與視覺訊號,用以模擬人類大腦對多模態刺激的反應。
- 模型訓練資料來自約500小時的fMRI(功能性磁力共振)資料,確保數據真實性與代表性。
- AI模型能預測人類大腦對特定刺激的反應,準確度比先前版本提高2至3倍,顯示其在腦科學與人工智慧交叉領域的重大進展。
