杏耀平台-杏耀注册登录链接

杏耀平台(主管Q554258)自创立以来一直以信誉为重,本站提供多元化娱乐介面及注册登录链结供用户查询,更多杏耀平台相关信息欢迎持续关注本站!

亚历山大·奥卡杏耀平台口碑西奥-科尔特斯(Ale

杏耀平台口碑 亚历山大·奥卡西奥-科尔特斯(Alexandria Ocasio-Cortez)表示,算法可能是种族主义的。这就是为什么她是对的。

 
上周,新当选的美国众议员亚历山大Ocasio-Cortez新闻头条,她说,作为第四届MLK现在事件的一部分,面部识别技术和算法”总是有这些种族不平等被翻译,因为算法仍由人类,人类和这些算法仍盯住基本假设。他们只是自动化。自动化的假设——如果你不修正偏见,那么你只是在自动化偏见。”
 
这是否意味着,理论上基于数学客观事实的算法可能是“种族主义者”?如果是这样,我们能做些什么来消除这种偏见呢?
 
事实证明,算法的输出确实可以产生有偏差的结果。数据科学家说,计算机程序、神经网络、机器学习算法和人工智能(AI)之所以有效,是因为它们从给定的数据中学习如何表现。软件是由有偏见的人编写的,训练数据也是由有偏见的人生成的。
 
机器学习的两个阶段显示了这种偏见是如何潜入到一个看似自动化的过程中的。在第一阶段,杏耀的信誉即训练阶段,算法根据一组数据或某些规则或限制进行学习。第二阶段是推理阶段,在这一阶段中,算法将所学应用到实践中。第二阶段揭示了算法的偏差。例如,如果一个算法只训练有长头发的女人的图片,那么它会认为任何有短头发的人是男人。
 
偏见可以通过许多途径潜入。数据科学培训训练营梅蒂斯(Metis)的高级数据科学家索菲•瑟西(Sophie Searcy)表示:“一个常见的错误是,训练算法根据有偏见的人类过去的决策做出预测。”“如果我用一种算法来自动化一群信贷员之前做出的决定,我可能会走捷径,根据这些信贷员过去的决定来训练算法。但是, 杏耀客服q3451-8577 ,当然,如果这些信贷员有偏见,那么我建立的算法将继续这些偏见。”
 
Searcy以COMPAS为例,COMPAS是美国刑事司法系统用于量刑的预测工具,它试图预测犯罪将在何处发生。ProPublica对COMPAS进行了分析,发现在控制了其他统计解释之后,该工具高估了黑人被告再犯的风险,并始终低估了白人被告的风险。
 
Searcy说,为了帮助克服算法偏见,工程师和数据科学家应该为新问题构建更多样化的数据集,并尝试理解和减轻现有数据集的偏见。
 
预测分析公司Anodot的数据科学家艾拉·科恩(Ira Cohen)说, 杏耀娱乐移动客户端下载。,首先也是最重要的一点是,如果工程师们正在训练一种算法来识别种族或性别属性,那么他们就应该拥有一个对所有人口类型的相对统一表示的训练集。科恩说:“重要的是要从每一人群中选取足够多的样本,即使他们只是被调查人群中的一小部分。”最后,杏耀yl科恩建议在一个包括所有这些人群的测试集上检查偏见。科恩说:“如果某一种族的准确率在统计上明显低于其他种族,那么该算法可能存在偏见,我会对用于该种族的训练数据进行评估。”科恩补充说,例如,如果该算法能正确识别1000张白人面孔中的900张,但只能正确识别1000张亚洲面孔中的600张,那么该算法可能对亚洲人存在偏见。
 
即使是被认为是商业人工智能先驱的谷歌,显然也无法从2015年起为其大猩猩问题找到一个全面的解决方案。《连线》发现,谷歌并没有为其算法找到区分有色人种和大猩猩的方法,只是简单地阻止了其图像识别算法识别大猩猩。
 
谷歌的例子很好地提醒了我们,训练人工智能软件可能是一项困难的练习,特别是当软件没有被一个具有代表性和多样化的群体测试或训练的时候。
杏耀平台-杏耀注册登录链接
上一篇:为什么人会鬼杏耀平台口碑?
下一篇:纽约青少年死于与电杏耀网站子烟有关的肺部疾
隐藏边栏