您好,欢迎进入bob最新官网!
媒体报道
推荐产品

媒体报道

bob最新官网:AI和机器学习中暗含的算法偏见

发布日期:2024-04-27浏览次数:
本文摘要:我们又能通过开源社区做到些什么?

我们又能通过开源社区做到些什么?在我们的世界里,算法无处不在,种族主义也是一样。从社会媒体新闻的获取到流式媒体服务的引荐到线上购物,计算机算法,特别是在是机器学习算法,早已渗透到我们日常生活的每一个角落。至于种族主义,我们只必须参照2016年美国议会选举就可以告诉,种族主义是怎样在明处与伺机影响着我们的社会。

很难想象,我们常常忽视的一点是这二者的空集:计算机算法中不存在的种族主义。与我们大多数人的理解忽略,科技并不是客观的。AI算法和它们的决策程序是由它们的研发者塑造成的,他们载入的代码,用于的“训练”数据还有他们对算法展开形变测试的过程,都会影响这些算法今后的自由选择。

这意味著研发者的价值观、种族主义和人类缺失都会体现在软件上。如果我只给实验室中的人脸识别算法获取白人的照片,当遇上不是白人照片时,它会指出照片中的是人类。

这结论并不意味著AI是“可笑的”或是“天知道”,它表明的是训练数据的产于偏差:缺少多种的脸部照片。这不会惹来十分相当严重的后果。这样的例子并不少。全美范围内的州法院系统都用于“黑盒”对罪犯展开宣判。

由于训练数据的问题,这些算法对黑人有偏见,他们对黑人罪犯不会自由选择更长的服刑期,因此监狱中的种族差异不会仍然不存在。而这些都再次发生在科技的客观性伪装成下,这是“科学的”自由选择。

美国联邦政府用于机器学习算法来计算出来福利性开支和各类政府补贴。但这些算法中的信息,例如它们的创造者和训练信息,都很难寻找。这减少了政府工作人员展开不公平补助金发给操作者的几率。

算法种族主义情况还好比这些。从Facebook的新闻算法到医疗系统再行到警用装载照相机,我们作为社会的一部分近于有可能对这些算法输出各式各样的种族主义、性别歧视、仇外思想、社会经济地位种族歧视、证实偏误等等。这些被输出了种族主义的机器不会大量生产分配,将种种社会种族主义潜藏于科技客观性的面纱之下。这种状况意味著无法再继续下去了。

在我们对人工智能展开大大研发研究的同时,必须减少它的研发速度,小心细心地研发。算法种族主义的危害早已充足大了。我们能怎样增加算法种族主义?最差的方式就是指算法训练的数据开始审查,根据微软公司的研究人员所说,这方法很有效地。

数据分布本身就具有一定的种族主义性。编程者手中的美国公民数据分布并不平衡,本地居民的数据少于移民者,富人的数据少于穷人,这是近于有可能经常出现的情况。

这种数据的不平均值不会使AI对我们是社会构成得出结论错误的结论。例如机器学习算法意味着通过统计分析,就得出结论“大多数美国人都是富裕的白人”这个结论。即使男性和女性的样本在训练数据中等量产于,也有可能经常出现种族主义的结果。如果训练数据中所有男性的职业都是CEO,而所有女性的职业都是秘书(即使现实中男性CEO的数量要少于女性),AI也有可能得出结论女性天生不合适做到CEO的结论。

某种程度的,大量研究指出,用作执法人员部门的AI在检测新闻中经常出现的罪犯照片时,结果不会难以置信地偏向黑人及拉丁美洲裔居民。在训练数据中不存在的种族主义还有很多其他形式,意外的是比这里提及的要非常少。但是训练数据只是审查方式的一种,通过“形变测验”找到人类不存在的种族主义也某种程度最重要。

如果获取一张印度人的照片,我们自己的照相机需要辨识吗?在两名某种程度水平的应聘者中,我们的AI否不会偏向于引荐住在市区的应聘者呢?对于情报中本地白人恐怖分子和伊拉克籍恐怖分子,缉毒算法不会怎样自由选择呢?急诊室的照相机可以调至儿童的病历吗?这些对于AI来说是十分复杂的数据,但我们可以通过多项测试对它们展开定义和表达。为什么开源很合适这项任务?开源方法和开源技术都具有很大的潜力转变算法种族主义。

现代人工智能早已被开源软件攻占,TensorFlow、IBMWatson还有scikit-learn这类的程序包都是开源软件。开源社区早已证明它需要研发出有强壮的,经得住严苛测试的机器学习工具。某种程度的,我坚信,开源社区也能研发出有避免种族主义的测试程序,并将其应用于这些软件中。调试工具如哥伦比亚大学和理海大学发售的DeepXplore,强化了AI形变测试的强度,同时提升了其操控性。

还有麻省理工学院的计算机科学和人工智能实验室已完成的项目,它研发出有灵活较慢的样机研究软件,这些应当不会被开源社区接纳。开源技术也早已证明了其在审查和分类大组数据方面的能力。最显著的反映在开源工具在数据分析市场的占有率上(Weka、RapidMiner等等)。

应该由开源社区来设计辨识数据种族主义的工具,早已在网上公布的大量训练数据组比如Kaggle也应该用于这种技术展开辨识检验。开源方法本身十分合适避免种族主义程序的设计。内部谈话、私人软件开发及非民主的决策制定引发了很多问题。

开源社区需要展开软件公开发表的谈话,展开大众化,保持好与大众的关系,这对于处置以上问题是十分最重要的。如果线上社团,的组织和院校需要拒绝接受这些开源特质,那么由开源社区展开避免算法种族主义的机器设计也不会成功很多。我们怎样才需要参予其中?教育是一个很最重要的环节。

我们身边有很多还没有意识到算法种族主义的人,但算法种族主义在法律、社会公正、政策及更加多领域产生的影响与他们息息相关。让这些人告诉算法种族主义是怎样构成的和它们带给的最重要影响是很最重要的,因为想转变目前的局面,从我们自身转行是唯一的方法。对于我们中间那些与人工智能一起工作的人来说,这种交流特别是在最重要。

不论是人工智能的研发者、警方或是科研人员,当他们为今后设计人工智能时,应该十分意识到现今这种种族主义不存在的危险性,很显著,想避免人工智能中不存在的种族主义,就要从意识到种族主义的不存在开始。最后,我们必须环绕AI伦理化创建并强化开源社区。不论是必须创建形变实验训练模型、软件工具,或就是指千兆字节的训练数据中检验,现在早已到了我们利用开源方法来应付数字化时代仅次于的威胁的时间了。


本文关键词:bob最新官网

本文来源:bob最新官网-www.djlivingdead.com

在线留言

24小时服务热线

400-123-4567

13988889999

扫码二维码

如有对我们的苗木有兴趣,请留下您的联系方式我们将在24小时内联系您

在线客服
联系电话
全国免费咨询热线 400-123-4567
  • · 专业的水果运输
  • · 精准的购买方案
  • · 灵活的价格调整
  • · 1对1贴心服务
在线留言
回到顶部