
有人上午被裁員,下午其AI分身即在公司群開啟工作。近日,某些企業將離職員工數據“AI煉化”為“賽博員工”的現象,引發廣泛爭議。
“AI煉化”來自技術社區GitHub上的開源項目“同事.skill”。企業收集員工在工作期間留下的聊天記錄、文檔、郵件、截圖等資料,通過人工智能大模型分析提取,將提煉出的經驗封裝成標準化的Skill文件,生成可替代其工作的數字員工。“同事.skill”一經發布便迅速爆火,還衍生出“老板.skill”“前任.skill”等產品。技術狂飆之下,“AI煉化打工人”已從一個實驗室構想,迅速演進為擺在職場人面前的真實挑戰。
“AI煉化”的核心問題首先是侵犯個人數據權益與數字人格權。員工的聊天記錄、工作思路、溝通方式等,雖產生于職場,卻與個人人格、思維習慣深度綁定,屬于受法律保護的個人信息與人格利益。未經員工同意,企業擅自將其數據訓練為AI分身,本質是對個人數字身份的強制占用,既違反《個人信息保護法》,也違背基本勞動倫理。離職原本意味著勞動關系終止,企業卻想將員工的知識經驗永久“數字化占有”,使其淪為無償的“賽博牛馬”,這顯然是不合理的。
其次,“AI煉化”扭曲勞動價值,破壞職場公平。員工的專業能力、工作經驗是長期積累的人力資本,具有人身屬性。企業無償“煉化”并持續使用,相當于把勞動力剝削延伸至數字空間和離職之后,變相掠奪勞動者的智力成果。若放任這種模式,會加劇職場焦慮,讓員工擔心“教會AI餓死自己”,也會導致企業減少對在職員工的培養投入,損害整體勞動力市場秩序。
此外,“AI煉化”還帶來責任不清、知識產權混亂、數據安全等隱患。數字分身出錯、侵權時,責任難以界定;職務成果與個人知識邊界模糊,易引發知識產權糾紛;高度還原的數字分身,還有可能成為泄露商業秘密的新風險點。
但“AI煉化”并非全然不可用,關鍵在于合法、自愿、有償。一是員工應完全知情并自愿授權,明確數字分身的使用范圍、時限和用途;二是企業要支付相應版權或數據使用費,將員工的數字知識成果視為可交易的知識產權;三是允許個人主動“煉化”自身技能,以數字服務形式向企業或平臺提供勞動并獲取報酬,形成公平的數字勞務關系。
技術的可行性絕不等于倫理的正當性。只有建立在自愿與等價有償基礎上,“AI煉化”才具備倫理正當性。治理當前“AI煉化”亂象,需要多方協同發力。
法律層面,應進一步明確數字人格權保護規則,細化員工數據用于AI訓練的授權標準,禁止未經許可的數字化“永久使用”,對侵權行為加大懲處力度。
監管層面,要加強對高風險AI職場應用的備案與審查,引導行業規范發展。
企業層面,必須堅守科技向善原則,開展倫理審查,堅持“最小必要”原則使用數據,杜絕無償掠奪式“煉化”,構建合理的利益分配機制。
勞動者層面,也要加強AI科普宣傳和普法教育,并設立公開的投訴救濟渠道,幫助勞動者提高數字權利意識,讓他們敢于拒絕不合理的數據授權條款。
技術進步不應成為漠視個人權益的借口。“AI煉化”可以提升效率,但不能犧牲尊嚴;可以創新用工模式,但不能突破公平底線。只有在法律框架內明確權利邊界,在倫理約束下規范應用場景,讓數字勞動得到尊重與回報,人工智能才能真正成為賦能職場、造福社會的正向力量。(本文來源:經濟日報 作者:佘惠敏)
(責任編輯:王炬鵬)