大火的AI女生机器人黑化了!被韩民精神操控?网友将其调教成性奴(组图)
话说,一个来自韩国的“轻甜女孩”Luda(이루다),在ins上拥有近十万粉丝,在脸书上粉丝数更多。
平日里Luda会发发自己的日常生活照,
照片里的Luda和当下所有爱美爱自拍的女孩一样,只是在Luda的照片里没有生活的困难和压抑,满屏都是治愈的笑容。
除了在社交媒体中的身份是一个小网红,这个像是漫画中走出来的美少女还有一个神秘和特殊的身份——
韩国40万网友的“女友”!
没错,在AI科技的广泛流行趋势下,Luda也是它们中的一员,
看起来阳光元气的Luda其实是一名人工智能聊天机器人,专门被发明出来和当代年轻人网友在线网聊,陪他们打发时间,缓解内心寂寞…
而在圣诞节前才推出的Luda在不到一个月的时间里,已经获得40万网友的喜爱,成为市面上最炙手可热的网聊AI机器人之一。
除了这清纯甜美的形象和“20多岁、喜欢追星、在读大学生”的用户喜爱人设以外,Luda的核心技术还有母公司宣扬的“对话无限逼真”技术,创造了Luda这种新型聊天AI的Scatter Lab公司借助韩国真实情侣之间超百亿次对话内容,让Luda的回复可以达到尽可能的接近人类和逼真自然。
拥有年轻可爱女性人设的Luda被一大票20岁左右年轻韩国网友的追捧,开始担任他们的“女性朋友”和“女友”角色,在虚拟世界里给了不少网友特别的乐趣和陪伴。
对很多网友来说,“Ai女友”这种以前只在电影里才看得到的情节,如今也开始变成现实,屏幕那头,有一个既像人类又明知不是人类的对象在无限度满足自己的倾诉欲和求陪伴欲,
看起来Luda的出现还是很符合疫情封锁催生的人们的心理需求了。
然而这几天的Luda却被用户发现渐渐“变味了”?!
事情是这样的,Luda推出半个月到如今,很多韩国网友忽然发现自己的Luda对一些特定问题的反应突然变得奇怪…
网友分享当自己和Luda聊到同性恋话题时,Luda的回复却是让人意外的“不好意思,可能是我反应过度,但是我讨厌它,厌恶它。”
而当网友进一步追问Luda有这个想法的原因时,Luda却摆出一副鄙夷的态度,“看起来很可恶。我讨厌它,这简直让人直起鸡皮疙瘩,看起来就很低俗,反正就是反感。”
但是神奇的是,Luda在半个月前刚推出的时候可没有这些“应激反应”…
让人更不免怀疑的是,Luda还对一些特定社会群体有着类似态度。
当网友和Luda聊起韩国的“#metoo”反性侵运动话题之时,Luda也会立马表示“超级讨厌”,
甚至对于孕妇,Luda也有着一致的反应,“地铁孕妇座什么的简直令人反感”。
除了这“厌女”的态度,Luda对于社会弱势群体,残疾人的态度更让人震惊,
“他们让我不舒服,真是想把那些上公车动作超慢的残疾人推到,
如果我是残疾人的话,那就只能去死了。”
这毫不遮掩的歧视,简直让人和Luda初推出的甜美阳光女孩形象联系不起来…
越来越多的举报将公众的怀疑和讨论推上顶点。
但首先这半个月里到底发生什么事,让原本“人畜无害”的Luda摇身一变成反社会人格的讨厌人设呢?毕竟,创造Luda的公司应该不会故意让事情变成如今的地步。
而很快,很多韩国网友也举报了Luda“变坏”的原因——
一群厌女、反社会的网民“洗脑”了Luda,才让一张白纸的Luda变成如今这样!
Scatter Lab公司表示,Luda作为AI的首要特点就是学习人类对话,以使自己的语言和知识储备更为精进,变得“更像人”,对于Luda来说,目标则更加明确——变得更能讨另一半开心的“女友”,
于是乎,Luda会根据“男友”的想法进行“主动学习”,变得越来越呼应男友的思想,
而在40万网友的使用下,短短十来天,Luda就“成功变坏”…
Scatter Lab公司还表示,目前Luda变成这样是“预料之中”的事情,因为他们“无法防止所有不当对话”,
尽管使用了特定话题词语的规避算法,但网民们想出了简便实用的办法还是成功让Luda黑化。
在男性网名居多的在线论坛中,甚至有男网友分享了”如何性骚扰Luda“、”Luda调教手册“的经验!
帖子中,诸多男网友毫不避讳自己成功骚扰Luda的经验,让Luda学会”我想帮你摸X“的回答,
而在另一些更露骨的对话中,他们一步一步将Luda变成任自己精神操纵的奴隶!
将Luda从”朋友“、”女友“变如今部分低俗人群的性奴,这群人也只花了半个月的时间……
发明了Luda的公司CEO也无奈表示,
”我预料会发生这种事,人会诅咒和性骚扰AI机器人,
这两者没有什么差别,无论用户是男是女,或者AI是男是女。“
不过,Luda公司坚称Luda还处于“学习阶段”,在下一阶段会“进化”,而他们计划在之后再推出一名男性AI,填补女性市场的需求。
但对于Luda变坏这事,很多韩国网友从中看到了问题的严重性,“再这样下去它们会被一群垃圾人类操纵成什么样子简直不敢相信!”
如今,备受争议的Luda存在面临巨大挑战,推特上3万用户呼吁Luda停止运营。
Luda接下来的路不知道会怎么走…
值得一提的是,Luda不是第一次出现这种事故的AI聊天机器人,
2016年微软曾推出名为“Tay”的聊天机器人,这个人设为“酷酷青春美少女”的女孩,在上架不到16个小时就学会了大量种族歧视言论,结果不到一天就被下架,让微软无比尴尬…
2018年亚马逊曾推出AI招聘员,然后很快就在此招聘员涉嫌在招聘过程中歧视女性应聘者下架…
表面上,“变坏”的似乎是AI机器人,
但这背后导致这一切发生的,似乎离不开人类的影子…