還有誰是不能被蒸餾成skill的
什麼是能被蒸餾的技能?
長期工作中相對穩定、可觀察、可記錄的判斷模式和經驗,確實可以被蒸餾出相當一部分;但越靠近情境化、身體化、主體性的部分,就越難被完整提煉。
判斷力無法被蒸餾
判斷力不能被蒸餾,因為它與具體的上下文、具體的人、具體的風險承受能力綁定。這就是為何AI可以替代技能,但無法替代判斷力。
人類經驗的邊界
當AI能將同事、前任甚至我們自己蒸餾成可調用的Skill時,我們正站在一場技術倫理與個人權利的十字路口。從GitHub爆火的「同事.skill」到引發爭議的「前任.skill」,這些行為反映出人們對個人經驗與主體性被物化、被降維的深切憂慮。
誰擁有這些資料?
一旦一個人的聊天記錄、工作文檔、行為習慣、語氣偏好都能被蒸餾,問題就不再只是「技術上能不能做到」,而是:這些資料歸誰所有?誰有權整理?誰有權調用?
反蒸餾工具的出現
為對抗這種趨勢,GitHub上出現了「反蒸餾Skill」(Anti-Distillation.skill)專案。該工具幫助打工人在飛書或鈴鈴裡,自動生成一些看似合理但實際上充滿邏輯噪音的無效長文,以「藏起」核心知識,避免被系統過度提取。
技術與倫理的衝突
將個人經驗與判斷轉化為數據,並用於訓練AI,意味著人類可能被視為可替代的零件。這不僅是技術問題,更是對個人主體性與知識權屬的深刻挑戰。
