智能體=新型攻擊入口?模型上線前,OpenAI內部到底審什麼?董事會成員首次詳解

智能體=新型攻擊入口?模型上線前,OpenAI內部到底審什麼?董事會成員首次詳解

OpenAI內部安全審查機制

在AI模型上線前,OpenAI會進行嚴格的內部審查,以確保模型不會被濫用或成為新型攻擊入口。審查內容涵蓋模型的輸出行為、潛在偏見、安全性以及對社會的影響。

董事會成員與組織架構

OpenAI的董事會由多位資深人士組成,包括獨立董事Bret Taylor(主席)、Adam D’Angelo博士、Sue Desmond-Hellmann博士、Zico Kolter博士、美國陸軍退役將軍Paul M. Nakasone、Adebayo Ogunlesi、Nicole等。這些成員負責監督AI技術的發展方向與倫理規範。

AI安全挑戰的演進

當前AI安全的核心挑戰已超越“模型會不會說錯話”,更涉及模型可能被惡意利用,成為攻擊工具或傳播後門的途徑。例如,通過Windows快捷方式文件(.LNK)傳播REMCOS後門,已顯示出新型攻擊手段的複雜性。

相關技術動態

  • OpenAI發佈旗艦AI模型GPT-5:具備高精度與編程能力,可能進一步推動AI技術發展。
  • 新型攻擊手段:利用LNK文件作為載體傳播後門,顯示攻擊入口的多樣化。

來源:https://36kr.com/p/3804300079243009

返回頂端