中国妇女报数字报纸

2017年4月18星期二
国内统一刊号:CN11-0003

中国妇女报科技新知 田梅:“火眼金睛”领跑影像医学 基因检测真有那么神通广大? 当人工智能学会了性别歧视 研究预测全球变暖不会增加雾霾发生率 创意与发明

按日期检索

12 2013
上个月
下个月

中国妇女报

电子报刊阅读器
我给版面打分

1分   2分   3分   4分   5分  

本版得分:0.0参与评分人数:0

新闻排行榜
版权声明
《中国妇女报》(电子版)的一切内容(包括但不限于文字、图片、PDF、图表、标志、标识、商标、版面设计、专栏目录与名称、内容分类标准以及为读者提供的任何信息)仅供中国妇女报网读者阅读、学习研究使用,未经中国妇女报及/或相关权利人书面授权,任何单位及个人不得将《中国妇女报》(电子版)所登载、发布的内容用于商业性目的,包括但不限于转载、复制、发行、制作光盘、数据库、触摸展示等行为方式,或将之在非本站所属的服务器上作镜像。否则,中国妇女报将采取包括但不限于网上公示、向有关部门举报、诉讼等一切合法手段,追究侵权者的法律责任。
正在加载广告……
放大 缩小 默认

当人工智能学会了性别歧视

人工智能机器人已经不再是新奇之物,但是你知道它们连种族主义和性别歧视都学会了吗?去年三月微软的AI在推特上线,短短24小时之后机器人突然开始污言秽语,被网民戏称为“AI希特勒”。而在今年4月14日的《科学》杂志上,美国普林斯顿大学和英国巴斯大学的一个联合团队发表了最新研究,证实了这一现象:AI也会表现出各种偏见和歧视,这些偏见涉及种族、性别、年龄等。当然这种“歧视”可不是简单的算法错误,而是AI“习得”了人类世界的歧视现象。

该研究主要通过“词汇内嵌”(Word Embedding)这个在机器学习中扮演重要角色的工具进行分析。简单来说,在计算机中人类的词汇是以数字串的形式出现的,所以通过分析哪些数字串更为接近,就可以知道AI被内嵌了哪些关联。除了一些简单的同义词关联,研究者们发现AI还被内嵌了一些更为复杂的关联。比如,“女性”和“女人”会和一些艺术和人文方面的职业联系更密切,而“男性”和“男人”会和一些数学类和工程类的职业联系更密切,和我们真实社会中的规训不谋而合。

研究表明,人类社会中现存的不平等和偏见结构会借助新兴技术而进一步加剧。此外存在另一重风险,程序员并没有为AI配置一套像它的人类朋友一样的道德算法,换句话说,AI并不觉得自己的歧视言论有何不妥。同时,研究者也表示无须过分夸大其危害,毕竟机器人还没有“学会”说谎掩盖真相。真正的问题在于,如何在不剥夺AI对人类语言的理解能力的情况下,消除算法的偏见。

(源自UNESCO媒介与女性教席)

放大 缩小 默认
关于我们 | 联系我们 | 在线投稿 | 手机触屏版
主办单位:中国妇女报社 版权所有:中国妇女报网 2014 COPYRIGHT
备案号:京icp备05037313号