基于AI的偏见和歧视的概念并不是一个新的。 AI偏置通常是由用于训练用于制定工具的机器学习模型的狭窄数据集引起的。结果,基于AI的Proctoring Systems在评估预评估身份和面部验证过程中会出现错误的警报,对黑人学生可能不公平。更糟糕的是,此类工具在评估期间还可能会标记特殊能力的考试者,这意味着他们可能会撒谎,因为他们可能会被禁用以比其他学生获得优势。对于此类系统的偏见。为了解决这个问题,此类工具的开发人员必须使用多样化和包容性的数据集训练它们,这些数据集积极地反映了当今全球教育中看到的多元文化主义和包容性。
基于AI的候选人的不正确标记
基于AI的Proctoring工具监视了候选人的身体和视网膜,动作以确定wheth他们在测试期间作弊或使用任何其他渎职行为。有时,当这些工具以某种方式将系统归类为作弊时,这些工具可能会错误地取消某些远程考试者的资格。例如,可以在测试期间大声阅读测试问题的学生被标记。基于AI的Proctorcor的最奇怪的例子之一是,尽管在测试期间经历了与劳动相关的收缩,但接受了律师考试的孕妇候选人的问题是。
发表评论
发表评论: