有没有想过你在面试时是否显得紧张,是否说话太快,是否有人会发现你在简历上虚报了经验?
所有文章都来自我们的网站和应用程序
让直接到你的收件箱互动填字游戏,数独和琐事的所有文章从其他在你的地区
在未来,生成式人工智能技术将能够告诉……但它会首先提醒你的潜在雇主。
人工智能工具正越来越多地应用于招聘和人力资源领域,一家澳大利亚初创公司已经根据人工智能软件主持的预筛选面试,对潜在的求职者进行排名。
但在联邦政府关于为人工智能设置强制性护栏的磋商中,这些用途已被确定为潜在的高风险,技术专家表示,人工智能的部署可能会“令人不安”。
他们警告说,如果在没有适当的人为监督的情况下使用这项技术来纠正偏见,就像海外的一些案例一样,诉讼将随之而来。
多年来,人力资源一直是技术的热门目标,但随着生成式人工智能的发展,它的使用也在增加。
布里斯班的初创公司Zeligate在发现了这项技术在帮助澳大利亚和海外招聘过程中的潜力后,推出了这项技术。
“我们认为招聘助理具有全球应用能力,因为很明显,简历、面试,所有这些都是你在世界各地的标准流程,”主管罗布·奥利弗说。
“有很多高素质的求职者申请工作,但企业没有足够的资源或时间来回应每个人,所以很多人就退出了招聘过程。”
该公司已经筹集了550万美元的种子基金,利用其人工智能招聘助手Zeli根据求职者的简历以及他们在人工智能主持的视频面试中的表现对求职者进行评分。
在人工智能面试之后,求职者的分数(满分为100分)和成绩单会被送到招聘人员手中,候选人不仅会根据他们的经验,还会根据他们的举止进行评判。
他说:“我们会做一些情绪分析,评估他们的声音是否自信,他们是否说话太快,以及他们的总体举止。”
“随着技术的进一步发展,我们将开始引入迈尔斯-布里格斯和候选人可以通过的其他(性格)评估工具。”
Zeligate首席执行官丹佛?奈杜(Denver Naidoo)表示,人工智能评估并不能最终决定一个人是否被聘用,因为招聘人员可以阅读面试记录或观看面试录音,以寻找“某种无法衡量的个人魅力或明星品质”。
但他表示,人工智能工具最大的好处之一是它更注重事实,而不是感觉。
“真正的好处是它没有偏见——它是基于数学的,”奈杜先生告诉AAP。
“它只在事实上起作用,所以如果你想雇佣一个有五年市场营销经验的人,而他们只有三年,很明显他们不完全符合要求,这就是泽利会谈论的事实。”
但在其他国家,人工智能在就业中的使用被认为是有风险的,在政府的《安全与负责任的人工智能咨询文件》中,人工智能被标记为强制性护栏的潜在目标。
这份报告将于10月4日前接受提交。报告称,企业在使用人工智能进行招聘评估之前,应仔细考虑存在偏见的风险。
咨询文件称:“例如,确定个人是否适合某项工作的自动简历扫描服务将被视为高风险系统。”
“这是因为它有可能影响一个人的工作机会,以及对某些群体的歧视。”
论文中引用的一个例子是亚马逊使用的一种人工智能工具,直到它发现该软件歧视女性候选人。
皇家墨尔本理工大学人类-人工智能信息环境中心主任丽莎·吉文表示,人工智能工具在从该公司以前的招聘模式中学习后产生了偏见。
她说:“如果一个数据集有一种内在的偏见——在这种情况下,申请人中男性的比例很高——当系统开始过滤未来的申请时,它只是在复制这种偏见。”
“它必须经过有效的训练,才能忽略性别。”
吉文教授表示,基于技术的歧视也可能适用于候选人的地点、种族、文化背景或年龄,如果人工智能工具被用于其他人力资源领域,可能会影响晋升机会或培训。
她表示,在部署人工智能工具之前,企业需要确保它们不仅仅是由软件开发人员创建和监督的。
“这是可以安全做到的,”吉文教授说。
“我们需要一个由IT人员、人力资源人员和了解公平问题的人员组成的团队。”
新南威尔士大学人工智能研究所首席科学家托比·沃尔什表示,由于人工智能系统做出错误决策的“严重后果”,就业是一个应该被列为高风险的领域。
他说:“人工智能在人力资源领域的应用让我感到困扰,我认为它应该让更多的人感到困扰。”
虽然现有法律应防止歧视,但他表示,考虑使用人工智能就业工具的公司应仅将其用于协助人类工人,并确保人们最终对自己的决定负责。
他说:“我确实担心,在接下来的一两年里,我们会看到一些非常重大、严重的集体诉讼,指控那些利用人力资源系统进行招聘的人。”
“每当我们做出影响人们生活的重要决定时,无论是人力资源、移民、福利还是医药,我们最终都需要一个人参与其中。”
澳大利亚联合通讯社