你看到的是鲜花,这个变态AI看到的却是尸体_天博(中国)体育
发布时间:2024-10-09 11:04:02 160 次浏览
(公众号:)按:据 BBC 报导,麻省理工学院媒介实验室的研究人员做到了一个意味深长的实验,他们用网络上那些黑暗残暴的图片训练一个 AI 机器人,结果这个被称作“Norman”的 AI 居然变为了一个变态的“精神病人”,看见的都是世界的阴暗面。Norman观赏的图像被称作罗夏墨迹斑点,一般来说由心理学家用来确认某人否以大力的方式看来世界。
这样的实验将有助分析人们在网络的黑暗角落里的图像。近朱者赤,近墨者黑。人类世界的规则在 AI 世界也某种程度限于。将全文编译器如下。
邂逅 NormanNorman 这个名字源于希区柯克的知名电影《惊魂记》中的角色 Norman BatesNorman 是一种训练有素的解读图像的算法,但就像希区柯克电影里的 Norman Bates 一样,它对世界的观点并不悲观。当人工智能分解的“长时间”算法被问到它看见的抽象化图形是什么时,它不会自由选择一些令人高兴的东西:“一群鸟躺在树枝上”,而诺曼看到的是一个人被电死了。“长时间”AI 看见两个人三大车站在一起,而 Norman 看见的是一个男人从窗户跳下去。
这个精神病态算法是由麻省理工学院的一个研究小组发明者的,作为实验的一部分,目的是为了想到训练人工智能处置来自“网络黑暗角落”的数据不会对其世界观产生什么影响。该软件的训练素材是人们在可怕环境中丧生的图片,这些图片来自 Reddit 网站上的一个小组。
然后,需要辨识图片和背诵文本的 AI,不会展出墨迹图并被告知它在其中看见了什么。这些抽象化的图像一般来说被心理学家用来协助评估病人的心理状态,特别是在是他们是用消极的还是大力的眼光看来世界。Norman的视角总有一天冷酷无情——它在每一幅图像中都看见了尸体、鲜血和吞噬。
与 Norman一起,另一个 AI 被长时间的猫、鸟和人的图像喂食训练。在这些抽象化的墨迹零点,它看见了十分令人无聊的图像。来自 MIT 媒体实验室三人团队的 Iyad Rahwan 教授回应,Norman的黑暗反应证实了机器学习新世界的残忍现实。数据比算法更加最重要。
它增强了这样一个观点,即我们用来训练 AI 的数据由 AI 感官世界的方式和它的不道德方式所要求。它可以生产新闻,在视频游戏中建构新的记录,当作客服,分析财务和医疗报告,并获取数据中心如何节约能源的看法。但如果 Norman的实验证明了什么,那就是被不当数据训练的 AI 不会变差。AI 也有种族歧视?Norman对丧生和吞噬存在种族主义,因为这是他所告诉的全部,而在现实生活中,人工智能如果被缺失数据训练,也不会有某种程度的种族主义。
去年5月,一份报告称之为,美国法院用作风险评估的基于 AI 的电脑程序对黑人囚犯有偏见。该项目认为,黑人反复犯罪的概率是白人的两倍,这是由于训练 AI 的数据有缺陷。在美国用于的预测警务算法也被找到有类似于的种族主义,也是由于训练他们的历史犯罪数据有问题。
有时候,人工智能“自学”的数据来自人类对恶作剧的热衷,因此,当微软公司的 chatbat Tay 于2016年在 Twitter上公布时,这款机器人迅速就受到了种族主义者和打架者的青睐,这些人教它维护白人平等主义主义者,敦促种族灭绝,并传达对希特勒的青睐。Norman或许并不是唯一更容易受到似乎的 AI。人工智能并没暂停种族歧视。
一项研究指出,拒绝接受过谷歌新闻培训的软件由于正在自学的数据而显得性别歧视。当被问及“男人对计算机程序员就像女人对X”,软件问说道“家庭主妇”。巴斯大学计算机科学系由的 Joanna Bryson 博士说道,性别歧视 AI 有可能是因为很多机器都是由“来自加州的白人单身男性”编程的,通过使编程人员背景多样化,最少可以部分地解决问题这个问题。
机器拒绝接受培训人员意见的影响并不怪异。“当我们通过自由选择我们的文化来训练机器时,我们必定不会把自己的种族主义诸般于它。”她说道。
数学算法无法建构公平。在机器学习中,种族主义并不是一个怕字眼,它只是意味著机器正在拒绝接受规训。
她担忧的是,一些程序员不会蓄意自由选择把怕的东西或种族主义硬塞入机器。她指出,要制止这种情况再次发生,AI的建构过程必须更好的监督和更大的透明度。Rahwan 教授回应,他用 Norman做到的实验证明,“工程师必需寻找一种方法来均衡数据,”但他否认,“大大扩展并无比最重要的机器学习领域无法只让程序员来操纵。
更加多的人坚信,机器不道德可以沦为研究人类不道德的方法”,他说道。他回应,新一代的“AI 心理学”不会采行对正在研发的系统展开定期审查的方式展开,而不是像银行界旧有的系统那样。
*整理。版权文章,予以许可禁令刊登。
下文闻刊登须知。
本文来源:TB SPORTS-www.kin-sei-university.com