关键词:多样性|谷歌|人工智能|偏见|机器学习|种族主义

谷歌新闻发言人写信CEOSundarPichai周一

  • 时间:
  • 浏览:3

为机器学习的生命而战

亞當·坎贝尔从他的工作中在谷歌离职以表强烈抗议。

上周二,谷歌共享资源一篇网络文章中注重三个色调的女士职工的角度对公平公正和机器学习。

新闻报道让参众两院高新科技义务党团大会的组员写信CEOSundar Pichai周一。

VentureBeat问时,谷歌新闻发言人沒有答复国会议员明确提出的难题可是她说一切提议,该企业减缩多样性提倡“决然是不正确的。

“参众两院组员非常规定在她们的信假如职工工作中学习培训在人工智能开展附加的偏见。”

难题填补:哪些电影导演VPs的人口构成等决策“AI社会道德”https://t.co/4AMFwsbSzh

——Timnit Gebru (@timnitGebru) 今年 5月19日

招骋AI从业人员来源于不一样情况被视作一种偏见内嵌式在人工智能系统软件。

VB Transform 2020 Online - July 15-17. Join leading AI executives: Register for the free livestream.

报导多样性方案减少在谷歌更关键比全世界一切别的企业。

止步不前,迟缓进度的多样性高新科技更关键相比以往如今,基本上全部的科技有限公司——尤其是像amazon那样的企业,谷歌,微软公司,自称为AI企业。

与新闻报道有关谷歌的多样性和多元性交错在一起方案近期泄漏的汇报是有关监控AI自主创业班卓琴和上年Clearview。

在一篇名为“极右翼协助造就世界最强劲的人脸识别技术性,”赫芬顿邮报报导上年Clearview的普遍与白人至上现实主义者,包含人脸识别很感兴趣的合作方来源于期盼不法追踪外国人。

一些人工智能路面正确引导回总理川普就不奇怪。

当OpenAI创办人Elon Musk歇息从争执与Facebook的人工智能基础理论在Twitter上几日前,他把大家“红色药丸,”一位知名的引流矩阵被侵吞的人种或性别歧视倾向的信念。

这周:机器学习科学研究Abeba Birhane,最好毕业论文获得者在AI生产车间NeurIPS 2019灰黑色为她工作中关联伦理道德来处理偏见,以前那样说:

以往几日被种族主义总体目标的优生学家使我意识到,坚持不懈有大量比你认为的种族主义曲柄在学界喷涌长身败名裂的伪科学。

——Abeba Birhane (@Abebab) 今年 5月18日

回望上年Clearview班卓琴和剧情,AI如今研究室科学研究莎拉·迈尔斯西觉得,种族主义和性别歧视倾向的原素存有至今,在机器学习小区刚开始。

“大家必须一个悠长而艰辛的看一个痴迷极右派在科技行业的一些组员,把政冶和互联网的建立和归功于大家剖析人工智能系统软件的关键。

这是一个如今的人工智能。

另一方面,尽管谷歌必须多样性,落伍的流程和新成立公司与白人至上现实主义者寻找政府部门合同书,别的人工智能社会道德小区正勤奋把模糊不清的标准,创建了近些年成身体力行和企业现行政策。

机器学习小区的组员强调,在大会上更完善的征兆像NeurIPS,和近期ICLR不一样工作组的新闻发言人和非州的机器学习小区。

上月,AI从业人员来源于30好几个机构建立了一个目录的10个提议将社会道德标准转换为实践活动,包含偏见悬赏金,类似对防护软件bug悬赏金。

Forward momentum

在全大数字ICLR发布中心思想上台演讲时,教育学家和人种后技术性创作者Ruha本杰明肯定,深度神经网络沒有历史时间或社会背景是“浅薄的学习培训。

“一个无历史时间记述的和性格孤僻的深度神经网络能够 捕捉和控制措施,能够 损害人。

剖析发布在国外國家研究院院刊》上上个月确实发觉,女性和非裔在学界造成科学研究新奇以高些的年利率比白种人男士,但这种奉献通常“掉价和汇兑”的招骋和升职。

进行了猛烈的角逐AI的生命伴随着优化算法所应用的整治或AI政府部门兴趣爱好和具体运用。

协同Stanford-NYU2020年3月发布的研究发现,只能15%的美政府所应用的优化算法被觉得是高宽比繁杂的。

一个案例研究怎样微软公司OpenAI,全球经济合作与发展组织的民主国家将社会道德标准转换为行動还警示说,政府部门和公司将遭遇越来越大的工作压力将服务承诺付诸行动。

谷歌时,一个较大的和有知名度的AI企业今日,将多样化新项目减少公共性对付LGBT聘员上年秋季后,它传出了一个确立的信息内容。

人种偏见早已发觉在全自动语音识别技术特性从iPhone、amazon、谷歌和微软公司。

Bias and better angels

人关注将来的人工智能以及在改进人们日常生活应用应当直率,惊惧的模糊不清界线是不是有偏见的AI是真实的物质(绝大多数)白人种族极端分子或不闻不问。

AI社会发展应当处理,不可以以一样迟缓的进度多样性做为更普遍的技术产业,它应当考虑到“乳白色毁约”扩散的风险在日渐多样化的全球。

自然,另一个是谷歌。

注意美国国会,近半年数据信息隐私法提出要求附加的科学研究优化算法的偏见。

也有的难题是人工智能小区自身将怎样解决谷歌说白了的多样性和缓解或大逆转浅薄的进度。

她说,民权运动转变等导致的恶性事件并不是来源于强劲的决定做某事,但当乏力说动强劲的做正确的事。

英国是一个多样化的國家,英国全国人口普查估算不容易有人种大部分在未来几十年,在很多大城市早已这般。

工程建筑将来非常字面意思是工程建筑和项目投资多样性。

The future

技术性并不孤单。

人工智能,使之前不可能的事情将会的伤残人,或是处理气候问题和COVID-19跨越国界的挑戰,吸引住大家的人的本性。

假如在密名的状况下对NBC新闻来源是精确的,谷歌如今务必决策是不是再次思考多样性行動,結果或与业务流程照常进行。

工程建筑的定义更大的健身运动高新科技进度欠缺多样性的要求以前。

今日优化算法岐视无所不在,它好像不仅是一个能够 接纳的結果一些但期待的結果。

有一种叫法受政冶新闻记者,“全部政府部门说谎的热烈欢迎。

Algorithmic discrimination today is pervasive, and it seems to be not just an acceptable outcome to some but the desired result. AI should be built with the next generation in mind. At the intersection of all these issues are government contracts, and making tools that work for everyone should be an incontrovertible matter of law. Policy that requires system audits and demand routine government surveillance reports should form the cornerstone of government applications of AI that interact with citizens or make decisions about people’s lives. To do otherwise risks a trust crisis.

There’s a saying popular among political journalists that “All governments lie.” Just as governments are held accountable, unspeakably wealthy tech companies who seek to do business with governments should also have to show some receipts. Because whether it’s tomorrow or months or years from now, people are going to continue demand progress.

猜你喜欢