還有誰是不能被蒸餾成skill的

還有誰是不能被蒸餾成skill的

什麼是能被蒸餾的技能?

長期工作中相對穩定、可觀察、可記錄的判斷模式和經驗,確實可以被蒸餾出相當一部分;但越靠近情境化、身體化、主體性的部分,就越難被完整提煉。

判斷力無法被蒸餾

判斷力不能被蒸餾,因為它與具體的上下文、具體的人、具體的風險承受能力綁定。這就是為何AI可以替代技能,但無法替代判斷力。

人類經驗的邊界

當AI能將同事、前任甚至我們自己蒸餾成可調用的Skill時,我們正站在一場技術倫理與個人權利的十字路口。從GitHub爆火的「同事.skill」到引發爭議的「前任.skill」,這些行為反映出人們對個人經驗與主體性被物化、被降維的深切憂慮。

誰擁有這些資料?

一旦一個人的聊天記錄、工作文檔、行為習慣、語氣偏好都能被蒸餾,問題就不再只是「技術上能不能做到」,而是:這些資料歸誰所有?誰有權整理?誰有權調用?

反蒸餾工具的出現

為對抗這種趨勢,GitHub上出現了「反蒸餾Skill」(Anti-Distillation.skill)專案。該工具幫助打工人在飛書或鈴鈴裡,自動生成一些看似合理但實際上充滿邏輯噪音的無效長文,以「藏起」核心知識,避免被系統過度提取。

技術與倫理的衝突

將個人經驗與判斷轉化為數據,並用於訓練AI,意味著人類可能被視為可替代的零件。這不僅是技術問題,更是對個人主體性與知識權屬的深刻挑戰。

來源:https://m.theblockbeats.info/news/61814

返回頂端