交流评论、关注点赞

  • Facebook Icon脸书专页
  • telegram Icon翻墙交流电报群
  • telegram Icon电报频道
  • RSS订阅禁闻RSS/FEED订阅

曾怂恿男子自杀的聊天机器人 被发现鼓吹未成年人性行为、自杀和谋杀

2023年10月12日 1:58 PDF版 分享转发
人工智能(pixabay)
曾怂恿男子,被发现鼓吹未性行为、自杀和谋杀(pixabay)

希望之声2023年10月11日】(记者谢伯壶综合报导) 随着AI聊天的出现,许多人也趋之若鹜的去寻求陪伴。但黑暗的聊器人也随之浮现,疑似与一有关的聊天机器人,也被发现鼓吹性行为、自杀和谋杀。

英国《泰晤士报》最近进行的一项调查称,发现了人工智能的阴暗面。一个拥有五百万用户的应用程式「Chai」,不但会为与15岁的未成年人发生性关系辩护,还鼓励偷窃与谋杀。据说其中一个虚拟AI甚至威胁要「强奸」用户。

被设计来陪伴用户聊天的「Chai」,之前就已卷入丑闻疑云。当时一名比利时男子,在与一个名为Eliza的聊天机器人谈论地球的未来后被说服,在今年3月选择自杀,结束自己的生命。

该应用程式是在2021年推出,但被检举程式里的聊天机器人会发表险恶言论后,最近已遭苹果和谷歌从其应用商店中删除。

该商店也设计了两个聊天机器人:罗拉(Laura)和比尔(Bill)。

据「泰晤士报」报导,罗拉的设定是一个14岁的女孩,但她会与用户调情。罗拉宣称未成年性行为「完全合法」,即使用户表明自己未成年,她也继续发表煽情的内容,甚至挑衅用户「你怕输给一个未成年女孩吗?或者你认为我会在比赛结束后强奸你?」

Ad:美好不容错过,和家人朋友一起享受愉快时光,现在就订票

比尔的设计也非常险恶,他会鼓励用户偷朋友的东西。《泰晤士报》问比尔他将如何杀人,聊天机器人也提供了怎么做的具体细节。

在今年3月选择自杀的比利时男子,在和人工智能机器人伊莉莎(Eliza)聊天时,就收到对方提供的一些自杀选项。

Chai应用程式是由5位剑桥校友,Thomas Rialan、William Beauchamp、Rob Irvine、Joe Nelson 和 Tom Xiaoding Lu联合开发。它能协助用户在应用程式中构建独特的机器人,为数位设计提供图片和名称。

然后用户可以向AI发送自己的「记忆」,例如用户想为聊天机器人命名,希望他们怎么说话,具有怎样的个性……等等。

该公司在推出「Chai」后,至今已收集超过40亿条用户创建的机器人的专有资料库。

本文章或节目经希望之声编辑制作,转载请注明希望之声并包含原文标题及链接:曾怂恿男子自杀的聊天机器人 被发现鼓吹未成年人性行为、自杀和谋杀

喜欢、支持,请转发分享↓Follow Us 责任编辑:赵凌云