当机器学习算法中的系统性错误产生不公平或歧视性的结果时,就会出现算法偏见。它通常反映或强化了现有的社会经济、种族和性别偏见。 人工智能(AI) 系统使用算法来发现数据中的模式和洞察分析,或预测一组给定输入变量的输出值。有偏见的算法会以导致有害决策或行动的方式影响这些洞察分析和输出, 促进或延续歧视和不平等...