观念 | 把人做决议计划换成算法决议计划就公正了吗?不见得

AI科技评论 / 2018年09月07日 18:32

健康

AI 科技谈论按:《哈佛商业谈论》(Harvard Business Review)最近宣布了一篇文章《不想被成见左右?那就用算法!》作者是亚历克斯·p·米勒。这篇文章谈到,人类常常做出有带有成见性的决议(的确如此),所以他以为更多的地运用算法替代人类做决议是一个不错的挑选。

「怎么前进算法的公正性」是机器学习范畴常常谈及的论题,可是直接以为算法的成见就是比人类少,立刻引起了不少对立之声。在 AI 科技谈论编译的这篇文章里,Rachel Thomas 就逐项提出了自己的辩驳。

他以为米勒疏忽了许多重要的相关要素,包含:

米勒在《不想被成见左右?那就用算法!》中供认,「算法革新」的批判者是在忧虑「算法在运用时会不透明、带有成见,成为无法解说的东西」,但他在自己的文章中却只说到了「成见」,而疏忽了「不透明」和「无法解说」(以及它们和「成见」之间的化学反应)。

人机结合才是最优计划

媒体总是经过人类和机器的比照来证明 AI 的前进,比方咱们常会看到媒体报道,谁才是某项使命的冠军。若考虑到大大都算法一般都是用来做什么的,这种比较其实并不科学,一同这样点评人工智能也非常狭窄。由于在所有事例中,算法都有人类的参加,尤其是在收集数据、拟定决议计划、完结方法、解读成果及因人而异的了解等方面,都会遭到人类的左右。

大都从事人工智能医学运用的研讨人员,事实上并不计划用机器来彻底替代医师,他们只想运用人工智能来协助医师,使他们的决议计划能愈加准确和功率,并前进医疗质量。要知道,史上最强的历来不是人与机器中的一个,而是并肩协作的人类与核算机组成的团队。

米勒(正确地)以为,人类对错常有成见的,然后他比照了几种现有的并不完善的改进计划,想从里边挑出不那么糟糕的一种。但他却并未提出实质性的考虑:怎样才能减少成见,作出更好的决议计划呢?(或许是经过一些人与算法的结合?)我想,这个问题更值得考量。

人机决议计划方法底子不同

算法在实践中运用规模很广,因而也会呈现许多相同的成见,但这种成见却会被以为是正确或客观的成果。米勒的研讨中,把它们拿来做了彻底并排的比照,但他没有注意到实践运用中的差异。

凯茜•奥尼尔(Cathy O Neil)在《炸毁数学的兵器》(Weapons of Math Destruction)中写道,她所批判的那类算法更倾向于祸及贫民。它们专心于处理相对廉价而又大规模的使命,当然,价格低是它的优势。相反,有钱人却常倾向于挑选「人」。要知道,大公司或许贵族学校常倾向于内部引荐或面临面的面试,而不会像财力缺少的企业那样运用机器进行集体挑选。佼佼者往往会动用人力,而机器常被差遣去做相对初级的选拔。

凯茜在书中举了的一个比方,有一位患双相情感妨碍的大学生,他想在暑假里找一份装杂货的作业。但由于他请求的每一家便利店都在运用相同的心思丈量软件来挑选求职者,因而他被每家便利店都拒绝了。这体现出算法的另一危险:即使人类常常有相似的成见,但并不是所有的人都会做出相同的决议。如有可能,他或许能找到一个即使知道他的心思疾病仍然情愿雇佣他的老板。

许多人甘愿信赖算法做出的决议计划,也不肯信赖人类的决议。事实上,规划算法的研讨者们可能对概率和置信区间有更多的了解,但实在运用这些算法的一般群众却不会注意到这一点。即使给了他们推翻算法决议计划的权利,在实践操作他们也不一定情愿这样做。

算法的解说也值得注重

许多关于算法成见的事例,其实都缺少有意义的解说或申述进程。这看似是算法决议计划进程中的特别趋势,或许是由于人们过错地以为算法就是客观的,所以没必要答应对成果进行申述。与此一同,正如上文所说的那样,算法决议计划体系正本是为了减少本钱,假设要答应申述的话,这功夫就白费了。

凯茜·奥尼尔(Cathy O’neil)还说到,有位深受学生、家长和校长喜欢的教师,却莫名被算法开除了。她永久都没方法知道算法是由于什么原因而开除她的!假设有一种相对方便、简略的方法来让她提出申述,乃至即使仅仅让她切当知道这和什么要素有关,这故事就不会那么令人扼腕了。

有一个软件在美国一半以上的州运用着,它会决议每个人承受的医疗保健效劳应该有多少。依据 The Verge 的查询,这种软件在阿肯色州施行后,许多患有严峻残疾的人医疗保健俄然大幅减少。比方,一位患有脑瘫的女人 Tammy Dobbs,她本需求一个协助来协助她完结起床,上厕所,吃东西等日常日子行为的人,但其受助时刻却俄然减少到每周 20 个小时。没有任何人能向她解说为什么医疗保健效劳一会儿变少了。终究,经过法院查询,是该软件的算法错了,因而对糖尿病或脑瘫患者产生了负面影响。可是,像 Tammy Dobbs 相似的许多患者仍然日子在惊骇之中,总忧虑他们的福利又会不可思议地被减少。

这个算法的创造者是一位教授,他从这个软件中赚取版税。可是在被问及此事时,他却以为这是他人的职责。咱们可不能推脱自己的技术问题给他人。

2000 时代中期,科罗拉多州运用了一个独自的核算机体系来断定公共福利,成果被发现有超越 900 条的过错规则被输入到了里边,导致了一系列问题。比方,孕妈妈无法享用医疗补助。律师们一般很难发现这些缝隙,由于这些内部作业机制就像商业秘密相同受维护。所以说,医疗保健、雇佣/辞退、刑事司法和其他会对人们的日子形成重要改动的范畴的决议计划体系,应该创建出一个快速且易于操作的申述机制。这些令人不安的事端中,假设有一种简略高效的方法来纠正算法的过错就好了。犯错是不免的,正因如此,有一个紧密的体系来发现和纠正这些过错是不可或缺的。

杂乱的实践国际的体系

当咱们谈及人工智能时,咱们需求考虑的是在这个实践国际中杂乱的体系。《哈佛商业谈论》中说到的研讨将决议计划当作孤立的行为,并没有考虑所在的环境。就比方判别一个人是否会率直其他罪过,这种决议并不能孤立做出,还需求结合杂乱的法令体系。咱们有必要了解研讨范畴所在的实在环境是怎么交互运作的,一同别疏忽那些可能会遭到影响的人。

在美国的一些法庭上,关于审前保释、量刑和假释有关的判定,都运用了 COMPAS 算法。在 ProPublica 的一项中查询发现,白人被告人的成果误报率是 24%(这儿的误报是说,算法判别这个人开释时是「高危」的,但尔后并没有二进宫),而黑人被告的误报率高达 45%。后来的研讨发现,COMPAS 事实上还不如一个简略的线性方程准确。(你能够在普林斯顿核算机科学学院教授 Arvind Narayanan 的《21个关于公正的界说》中找到更多关于公正的界说,https://www.youtube.com/watch?v=wqamrPkF5kk )。

克里斯蒂安•林(Kristian Lum)是一名统计学博士,也是人权数字剖析集团(Human Rights Digital Analysis Group)的首席数据科学家。她与纽约法令援助协会(NY Legal Aid Society)的律师、前公设辩解人伊丽莎白•本德(Elizabeth Bender)以及一名被捕却无辜的男人,特伦斯•威尔克森(Terrence Wilkerson)一同组织了一个研讨会。他们一同共享了关于法令体系中所存在的缝隙的应对经历,为环绕 COMPAS 的争辩供给了名贵的谈论资料。 Bender 共享说,纽约市的无力担负保释费用、也没有经过审判的被捕公民都会被关押拘禁在 Rikers Island,政府付费的公共辩解人去那里见他们的时分来回各需求两个小时,可是实践面见需求法令效劳的那个人的时刻才不到 30 分钟,假设护卫们动作利索、守时的话(但往往不是这样的)。威尔克森具体介绍了这些无力交纳保释金的无辜被捕者有多么常常赞同签署认罪协议,只为了他们能够更快地出狱。请不要忘了,这些都是发生在一群历来没有上过法庭的人身上!这个圆桌谈论是一个说明实践国际与杂乱体系之间联系的绝比方方,真期望更多的统计学家和核算机科学家能像他们学习。

由此可见,算法或许会加重潜在的社会问题,比方法院和监狱体系啦,跟种族成见挂钩的保释金运用啦等等。所以咱们有职责去了解算法可能会触摸的体系以及它们可能会遇到的问题。

对立成见不是对立算法

大大都对算法成见持对立定见的人,都仅仅在对立不公正的成见,而不是对立算法自身。米勒说,这些批判算法不公正的人「很少问他们剖析的体系在没有算法的情况下运转得有多好」,这表明那些对立者可能并不知道人类带有多少成见,或就仅仅单纯排挤算法。在我开端编撰有关机器学习成见的文章之前,我就花了很多时刻研讨和编撰有关人类的成见(特别是关于它们怎么与科技职业相关的研讨)。

当我在 twitter 上共享有关成见的算法时,常会遭到辩驳,以为我是反算法/科技人士。我有数学的博士学位,我曾做过量化剖析师、数据科学家和软件工程师,并创建了一个免费的在线核算线性代数课程,且与他人协作创立了 fast.ai ,它有面向程序员的深度学习实操课程,并经过算法的奇妙运用赢得了斯坦福大学的核算机视觉速度测验。

我不是仅有这样的人:大大都直抒己见批判带有成见的算法的人,都有核算机科学、数学或统计学博士学位,且继续活泼在他们的范畴里。只需看看 Faireness Accountability and Transparency Conference 的一些发言者就懂了。比方普林斯顿大学的核算机科学教授 Arvind Narayanan,他是 Kaggle 交际网络挑战赛的冠军,也是一门盛行的加密钱银课程的教师,他仍然揭露对立过算法成见。

所以,我期望有关成见算法的谈论不要总是拘泥在这种无关宏旨的当地,而要深化问题的实质。

via fast.ai, AI 科技谈论编译

1. 中国品牌新闻网遵循行业规范,任何转载的稿件都会明确标注作者和来源;2. 中国品牌新闻网的原创文章,请转载时务必注明文章作者和"来源: 中国品牌新闻网",不尊重原创的行为 中国品牌新闻网或将追究责任;3.作者投稿可能会经 中国品牌新闻网编辑修改或补充。