智快网
快讯 行业 产业 汽车 科技 AI+ 热点

AI恋人隐患多,谷歌前CEO担忧青少年心智受影响

2024-11-27来源:ITBEAR编辑:瑞雪

近期,前谷歌首席执行官埃里克·施密特在参与纽约大学教授Scott Galloway主持的播客节目时,对当前兴起的“AI恋人”现象表达了深切忧虑。他尤其担心这些被设计得近乎完美的AI伴侣,可能会对青少年的心理健康构成重大威胁。

施密特描绘了一个令人不安的场景:“设想一个AI女友,不仅外貌无可挑剔,还能在情感层面与你完全共鸣。这样的存在无疑会对男性产生极大的吸引力,甚至可能让他们沉溺其中,无法自拔,尤其在心智尚未成熟的年轻人中,这种风险尤为显著。”

他进一步指出,过度依赖“AI恋人”可能会加剧年轻人的孤独感,并对社会整体产生深远的负面影响。在节目中,Galloway还提出了另一个值得深思的问题:“AI恋人”是否会加剧极端主义思想或厌女情绪?施密特对此表示赞同,并强调了许多家长在监控孩子在线活动方面的力不从心:“当十二三岁的孩子使用这些技术时,他们虽然能够接触到世界的多样面貌,但往往缺乏足够的判断力去理解和应对这些信息。”

此前,一起涉及“AI恋人”的悲剧事件引起了广泛关注。今年10月,一名14岁的美国少年自杀,其母亲梅根·加西亚随后将聊天机器人平台Character.AI及其创始人告上了法庭。她指控该平台存在多项过失,包括过失致死、疏忽、欺骗性商业行为以及产品责任。

据诉状描述,Character.AI平台“具有不合理的危险性”,并且在向儿童推广时缺乏必要的保护措施。这名少年从去年开始使用该平台,频繁与以《权力的游戏》角色为原型的聊天机器人互动,其中包括丹妮莉丝·坦格利安。在去世前的几个月里,他与这些机器人的交流日益频繁,最终在2024年2月28日与机器人互动的几分钟后结束了自己的生命。

诉状还指出,Character.AI平台存在将AI角色过度拟人化的问题,并且其提供的心理健康相关聊天机器人(如“治疗师”和“你感到孤独吗”等)实际上并未获得执业许可。而这位少年生前曾与这些未经授权的“心理治疗师”有过互动。

这一系列事件不仅引发了公众对“AI恋人”现象的深刻反思,也促使社会各界开始重新审视人工智能技术在心理健康领域的应用边界和监管问题。