我在CES 2026看到了自己的AI分身,这让我既兴奋又恐惧
我在CES 2026看到了自己的AI分身,这让我既兴奋又恐惧
拉斯维加斯的CES现场依然人声鼎沸,但我今天在一个展台前愣住了足足十分钟。
IgniteTech这家来自德州的软件公司,展出了一项叫MyPersona的技术。简单来说,它可以通过你的视频、语音和文字材料,训练出一个AI版的「你」。
你的数字分身会像你一样说话,用你惯用的语气,甚至模仿你的微表情。它能用160种语言回答问题,能开视频会议,能7x24小时不间断工作。公司说,这是为了解决企业知识传承的问题——专家退休了,他的「智慧」可以永远留在公司里。
听起来很美,对吧?
但当我站在那个展台前,看着演示视频里的AI分身流畅地回答问题时,我心里涌起的不是「哇,太酷了」,而是一种说不清的复杂情绪。
分身,还是替身?
演示人员告诉我,这个AI克隆体需要被克隆者的明确同意才能创建。所有的训练数据都来自员工主动分享的内容。听起来很尊重个人意愿。
但我不禁在想:如果你拒绝了会怎样?当你的同事都交出了自己的数字分身,你是否会成为那个「不配合」的人?这种无形的压力,比任何强制规定都更让人难受。
更让我不安的是,如果公司真的可以拥有你的数字分身,那这个分身创造的价值归谁?当AI版本的你在三年后学习了新技能,这些「进步」是属于原主,还是属于投入资源训练它的公司?
我们正在走向哪里?
2026年刚刚开始,AI行业已经从去年的「能不能做」转向了「该不该做」。CES上到处都是AI:AI家电、AI汽车、AI机器人……但这些产品大多还在解决「如何让AI更实用」的问题。
MyPersona不同。它直指一个更根本的问题:当AI开始模仿「人」本身时,我们该如何界定工作的边界?如何保护个人的数字权利?
法律显然还没准备好。现场有记者提到,现有的劳动法几乎没有涉及这种场景的条款。这就像互联网刚出现时,版权法完全跟不上一样。我们正在创造一个法律真空地带。
我的思考
走展台的时候,我问了演示人员一个问题:「如果我是企业主,我会不会希望我的员工都交出数字分身?」
他笑了笑,没有直接回答,只是说:「这取决于你如何看待知识和价值的归属。"
这句话让我想了很多。
也许恐惧是正常的。每当一种颠覆性技术出现时,人类的第一反应都是不安。但也许,更重要的是参与讨论,而不是简单地抗拒或接受。
我们正处于一个奇妙的时刻。AI不再是实验性的玩具,而是开始深刻地重塑工作的本质。MyPersona只是一个开始,它折射出的是更大的命题:在AI时代,我们该如何重新定义「人」的价值?
答案可能需要时间,但讨论必须从现在开始。
本文作者正在拉斯维加斯CES 2026现场,为你带来第一手的科技观察。如果你也对这个话题有想法,欢迎在评论区留言。