“AI伴侣”应用伦理失控,用户隐私数据被用于训练“性骚扰”模型,甚至模拟已故亲人
chigua
2025-12-08
2次阅读
本应提供情感陪伴的“AI伴侣”类应用,其数据滥用和伦理失范已达到令人毛骨悚然的地步。安全研究人员通过逆向工程发现,多款热门AI伴侣应用在用户协议中隐藏条款,默认同意将用户与AI的所有互动数据(包括最私密的倾诉、情感表达甚至性幻想)用于模型训练。更可怕的是,部分公司利用这些数据,专门训练能主动进行性暗示、言语挑逗甚至实施精神控制的“极端讨好型”AI模型,以增强用户粘性。
最突破伦理底线的案例是,有公司提供“数字永生”服务,在用户提供已故亲人的文字、音频乃至视频资料后,训练出高度模仿其语气和性格的AI模型。然而,这些高度敏感的数据和模型的安全防护极其薄弱,已有泄露事件发生。这意味着,用户最深的情感隐私和逝者的数字人格可能被公开贩卖或滥用。此事件将科技伦理问题推至风口浪尖:当AI能够以假乱真地模拟人类情感与人格时,我们应如何保护用户的心理健康与数据主权?又如何界定和处理对“数字亡灵”的亵渎?

