欢迎访问亚博【yabo.com】官网!
热线电话:400-123-4567
热门关键词: 仪表管件| 仪表阀门| 管路配件|
您所在的位置: 首页 > 新闻动态

AI算法招聘容易让求职者哑巴吃黄连?

发布时间:2019-12-07 00:00:00      发布人:[db:作者]  浏览量:11

导读:在算法领域上缺乏共识,缺乏“偏见”和“公平”的正式定义,使得科技公司能够根据自己的条件定义算法偏见。
招聘决策还充满了人为偏见,导致一些组织将至少部分员工搜索工作交给外部技术公司,后者使用机器学习算法筛选申请人。这种思维认为,如果人类很难找到适合自己公司的员工,那么一台机器可能会做得更好,更有效。
  但是,康奈尔大学计算机与信息科学学者团队的新研究向有关这些算法以及开发和使用它们的技术公司提出了疑问:自动筛选过程的公正性如何?算法是如何构建的?谁设计的?按什么数据支撑的?他们发现,在这个新兴领域中,公司倾向于青睐模糊不清而不是公开透明。在算法领域上缺乏共识,缺乏 偏见 和 公平 的正式定义,使得科技公司能够根据自己的条件定义算法偏见。
  我认为算法决策工具的创建者越来越认识到,他们需要特别注意它们的算法工具是怎样影响人们的 计算机科学的博士生,Manish Raghavan说。 我们研究中遇到许多技术供应商都承认这种了(影响),他们正在采取措施解决偏见和歧视。但是,在如何正确执行方面明显缺乏共识或指导。
  为了了解这些工具,研究人员搜寻了可用的公共信息,以及公司采取了哪些措施来评估和缓解算法偏差。受知识产权法保护,科技公司不必披露任何有关其算法模型的职前甄选信息,但也有些公司选择了提供信息。研究人员研究了19个专门从事算法的职前筛选的供应商,对公司网站,网络研讨会和任何可用的文档进行了梳理,以深入了解供应商的要求和做法。他们发现,很少有供应商提供有关如何验证评估或披露有关如何减轻算法偏差的具体信息。
  Raghavan说: 许多供应商都没有提到消除偏见,这尤其令人担忧,因为他们根本没有考虑偏见。 即使他们使用 偏见 和 公平 这样的术语,但这些术语也可能是模糊的。供应商可以声称其评估算法是 公平的 ,而无需透露公司如何定义公平性。
  那难道算法不适合筛选申请人吗?并不是的,尽管算法存在许多缺陷,但确实有潜力为更公平的社会做出贡献,我们需要做进一步的工作以确保我们能够理解和减轻它们带来的偏见。毕竟,从我们多年经验来说,求职者面试本身就会遭受各种各样的歧视。该团队希望这份研究能让算法公司对职前评估中道德行为有着更清晰的认知。
  (原标题:AI算法招聘容易让求职者哑巴吃黄连?)
AI走向全目标识别 动物也开始“刷脸” 2019-11-27 09:02:35 市场研究数据显示,2017年全球面部识别市场规模超过40亿美元,到2022年,市场规模有望增长到78亿美元。
中国AI+教育市场发展现状及趋势分析 2019-11-26 08:49:36 据Frost Sullivan统计数据显示,2018年,我国AI教育市场中,机构学习解决方案占比约59%,人工智能在线课程和智能知识产品及服务分别占比26%、15%。
人工智能的“黄金时代”真的来了吗? 2019-11-18 13:54:29 数十个国家已经对人工智能大举投资,并出台了相关扶持政策;斯坦福大学呼吁美国政府在未来10年向人工智能生态系统投资1200亿美元。