杏耀平台-杏耀注册登录链接

杏耀平台(主管Q554258)自创立以来一直以信誉为重,本站提供多元化娱乐介面及注册登录链结供用户查询,更多杏耀平台相关信息欢迎持续关注本站!

杏耀主管伦理和人工智能:不道德的优化原则


 
杏耀主管伦理和人工智能:不道德的优化原则



人工智能(AI)正越来越多地部署在我们周围,并可能带来巨大的潜在好处。但人们越来越担心人工智能的不道德使用。安东尼·戴维森教授(Anthony Davison)是EPFL的统计学教授,他和他在英国的同事们从数学角度解决了这些问题,重点关注寻求利润最大化的商业人工智能。
 
例如,一家保险公司利用人工智能为潜在客户寻找决定保费的策略。人工智能将从许多潜在的策略中选择,其中一些可能是歧视性的,或者可能滥用客户数据,从而导致公司受到严重的处罚。在理想的情况下,诸如此类的不道德策略会提前从潜在策略的空间中移除,杏耀主管但人工智能没有道德意识,因此它无法区分道德和不道德的策略。
 
在2020年7月1日发表于《皇家学会开放科学》(Royal Society Open Science)上的一篇论文中,戴维森和他的合著者希瑟•巴特伊(Heather Battey,伦敦帝国学院(Imperial College London))、尼古拉斯•比尔(Nicholas Beale, Sciteb Limited)和罗伯特•麦凯(Robert MacKay,华威大学(University of Warwick))表明,人工智能在许多情况下可能会选择一种不道德的策略。他们将他们的结果表述为“不道德的优化原则”:
 
如果人工智能的目标是最大化风险调整后的回报,那么在温和的条件下,它很可能会选择不道德的策略,除非目标函数充分允许这种风险。
 
这一原则可以帮助风险管理者、监管机构或其他人发现可能隐藏在大战略空间中的不道德战略。在一个理想的世界中,人们会配置人工智能来避免不道德的策略,但这可能是不可能的,因为它们不能事先指定。为了指导人工智能的使用,文章建议如何估计不道德策略的比例和最赚钱策略的分布。
 
“我们的工作可以用来帮助监管人员、合规人员和其他人找到可能隐藏在大战略空间中的有问题的战略。这样的空间可能包含不成比例的许多不道德的策略,检查哪一个应该显示问题可能在哪里出现,从而建议如何修改人工智能搜索算法以避免这些问题,”戴维森教授说。“它还表明,可能有必要重新思考人工智能在非常大的战略空间中的运作方式,以便在学习过程中明确拒绝不道德的结果。”
 
南安普敦大学的温迪·霍尔教授因其研究人工智能带来的潜在实际利益和问题而闻名于世。她说:“这是一篇非常重要的论文。这表明,我们不能仅仅依靠人工智能系统的道德行为,因为它们的目标似乎是中立的。相反,在温和的条件下,人工智能系统将不成比例地找到不道德的解决方案,杏耀平台总代理除非它被精心设计以避免它们。
 
“只有从底层设计出道德行为,并从多种角度考虑这种不道德的优化原则,人工智能的巨大潜在利益才能正确实现。”令人鼓舞的是,这一原则还可以用来帮助发现现有系统中的伦理问题,然后通过更好的设计加以解决。”


 
杏耀主管
杏耀平台-杏耀注册登录链接
上一篇:研究人员发现了多种能够杏耀平台总代理阻止S
下一篇:杏耀主管大约有一半的人使用保健技术与他们的
隐藏边栏