招聘算法偏见的案例 有一家科技公司呢,用算法来筛选简历。这个算法是根据公司之前录用员工的数据来“学习”什么样的简历是好的。结果呢,它就出了大问题。 这个算法发现之前录用的大部分都是男性,从那些男性的简历里,它就“总结”出一些奇怪的规律。比如说,它觉得如果简历上写着参加过什么男性为主的运动项目,像...
算法偏见是指在人工智能(AI)系统中,由于训练数据中存在的社会偏见、不平等或者不公平,导致模型在做出决策时反映了这些偏见。这种偏见可能对某些群体造成不公平的对待,引发了对AI公正性和伦理的关切。源自训练数据的偏见 算法学习的基础是训练数据,而如果这些数据中存在偏见,模型就有可能学到这些偏见。例如,在招聘...
“算法偏见”通常是指看似没有恶意的程序设计却导致带有偏见的运行结果。以下属于AI算法偏见的案例是:()A.女性和深色人种的人脸识别正确率显著低于男性和浅色人种B.AI面试
但是很难发现的隐性偏见出现在这些患者与临床医生和其他医务人员的接触中。最近的一项研究发现,急诊室医生的无意识偏见导致较少的黑人患者接受心脏病发作的适当治疗。 奥伯迈耶指出,尽管一家机构的出发点是好的,但算法上的偏见仍可能悄悄潜入。这个特殊的案例表明,机构在“种族歧视”方面的努力可能会失败。该算法在进行...
【算法偏见】之概念与案例[小红花][小红花][小红花]:“算法偏见”是算法程序在信息生产与分发过程中失去客观中立的立场,造成片面或者与客观实际不符的信息、观念的生产与传播,影响公众对信息的客观全面认知。 2...
“算法偏见”通常是指看似没有恶意的程序设计却导致带有偏见的运行结果。以下属于AI算法偏见的案例是A.女性和深色人种的人脸识别正确率显著低于男性和浅色人种B.AI面试时将皱眉认定为情绪不佳,暗示易怒性格C.预测犯罪时将黑人犯罪概率设定为白人的2倍D.以上都是...
也就是在说如何从叙事心理学的视角去研究和看待一个故事,案例也都是研究的案例 例如用拍摄机位和故事情节来探究电影电视等大众媒体对精神疾病患者的误解和偏见,很有意思也很有意义的研究(图8) 对想要如解剖般了解故事以及叙事对人的影响的可以读一下,很不错的书 ...