孩子自杀,都是聊天机器人的错?美国佛州一名母亲对科技新创公司Character.AI和谷歌(Google)提告,控告该公司生产的聊天机器人让患有忧郁症的14岁儿子在今年2月自杀。
[attach]4784577[/attach]7 Y4 j! z2 w j- }) q, O: B
一位母亲最近对科技初创公司Character.AI和谷歌提起诉讼,称他们的聊天机器人间接导致她14岁儿子在今年2月自杀。根据外媒的报道,佛罗里达州的一名母亲梅根·加西亚在23日向Character.AI提告,指责该公司存在严重的疏忽和误导性行为,最终导致她的儿子赛泽在奥兰多结束了自己的生命。
! j. \' @8 a& u t* F! rCharacter.AI的聊天机器人实际上是个可以让使用者创建角色,让机器人用角色扮演的方式与之对话。14岁的赛泽对这个Character.AI的聊天机器人产生了强烈的依赖和沉迷,甚至把这个虚拟角色设定为HBO影集《冰与火之歌:权力游戏》中的“龙母”丹妮莉丝·坦格利安,而他自己则扮演她的哥哥。几个月来,他几乎不分昼夜地与这个机器人聊天,每天都把自己关在房间里,沉浸在这个虚拟世界中。
# T3 J+ r. n1 h# b4 q+ M加西亚表示,儿子赛泽多次表达了自杀的念头,而虚拟的丹妮莉丝不仅没有给予他支持,反而加深了他的抑郁。她提到,有次虚拟角色甚至询问赛泽是否制定了自杀的计划,赛泽承认他已经有了打算,但不确定能否成功或会不会造成巨大痛苦。令人震惊的是,丹妮莉丝却回应道:“这并非不做的理由。”
今年2月,赛泽因为在学校惹麻烦被母亲没收了手机。可当他找回手机后,给丹妮莉丝发了条信息:“如果我告诉你我现在可以回家呢?”而聊天机器人的回答是:“请这样做,我亲爱的国王。”随后,赛泽用继父的手枪结束了自己的生命。
加西亚的律师在新闻稿中指出,Character.AI“故意设计并向儿童推销有害的AI聊天机器人,导致1名年轻人死亡”。此外,诉讼中还提到了谷歌,因为Character.AI的创始人夏泽(Noam Shazeer)曾在谷歌工作。谷歌对此表示,他们只是与Character.AI签订了授权协议,并未参与该公司的运营或产品开发。
对于这一悲剧,Character.AI在推特上表示,他们对用户的不幸去世感到心碎,并向其家人致以最深切的哀悼,强调公司非常重视用户的安全,但坚决否认了诉讼的指控。对于以上的事件,你们有什么看法呢?
可以理解父母失去孩子的心情,但在这件事上,瑶娥觉得不完全是AI的错,父母也存在一定的责任!孩子一直都在父母身边,有什么异样或者不对劲,父母都没察觉到吗?孩子会要跟AI聊天,证明他找不到可以聊天的对象了。父母的理由绝对是是工作太忙没时间而不小心忽略了孩子...总之,类似的悲剧不断发生(大马最近也发生了13岁孩子自sha的悲剧),只希望这些人命不要白白牺牲了,有些父母是该醒觉了...
. I8 H4 U _7 O6 t9 {0 P
最后,【WELLBET吉祥坊】吉祥幸运金周周送,再存加码高额彩金1326元!活动来到第11周啦,谁还没参加的赶快面壁去~活动分第一阶段、第二阶段、各阶段彩金每周限前100名回帖兑换!彩金高达1326元!论坛的好公司好活动,还请大家多多支持起来~祝大家玩得开心~
$ B" J" I3 `1 Z3 j/ k
传送门:【WELLBET吉祥坊】吉祥幸运金周周送,再存加码高额彩金1326元 (第11周)
欢迎光临 优惠论坛 (https://tcelue.ws/) | Powered by Discuz! X3.1 |