“算法偏见”通常是指看似没有恶意的程序设计却导致带有偏见的运行结果。以下属于AI算法偏见的案例是:()A.女性和深色人种的人脸识别正确率显著低于男性和浅色人种B.AI面试
算法偏见是指在人工智能(AI)系统中,由于训练数据中存在的社会偏见、不平等或者不公平,导致模型在做出决策时反映了这些偏见。这种偏见可能对某些群体造成不公平的对待,引发了对AI公正性和伦理的关切。源自训练数据的偏见 算法学习的基础是训练数据,而如果这些数据中存在偏见,模型就有可能学到这些偏见。例如,在招聘...
“算法偏见”通常是指看似没有恶意的程序设计却导致带有偏见的运行结果。以下属于AI算法偏见的案例是A.女性和深色人种的人脸识别正确率显著低于男性和浅色人种B.AI面试时将皱眉认定为情绪不佳,暗示易怒性格C.预测犯罪时将黑人犯罪概率设定为白人的2倍D.以上都是...