据悉,歧视性结果通常源自算法缺陷和训练数据,因为训练ChatGPT的素材很多来自网络里的文本片段,如果数据本身就包含偏见,那么这种偏见在纠正不足的情况中下可能就会显示出来。此外,不同人工智能,由于模型、训练语料库的差别,最终形成的价值倾向也会不同。日前,国内天猫精灵与通义大模型团队联合多领域学者,组织推出了...
具体到文-图模型刻板偏见的“像化”问题上,梳理AI生成图像背后的视觉框架有助于廓清:在传达刻板印象时,AI生成图像(不)选择、(不)凸显哪些特征,反映出何种形式的像化加工思路,让刻板印象在什么样的框架中获得了整体性的构建;以及,AI图像的视觉框架和人类世界的真实影像存在哪些异同,进而解释这种异同对社会中已有的刻...
近日来自上海交通大学约翰·霍普克罗夫特计算机科学中心的林洲汉教授在接受红星资本局专访时表示,现在大模型在不同场景落地时遇到了模型幻觉、模型偏见等共性问题,他认为当下大模型发展,技术突破仍是紧迫问题。同时国产芯片的开发和应用生态系统尚未完全成熟,亟需更多的软件支持和开发工具。 国产芯片亟需更多软件支持和开发工...
在科技圈言必称大模型的当下,这个领域的繁荣却蒙蔽了很多人的眼睛,那就是大模型生成的内容存在着普遍的歧视现象。 近日,知道创宇发布《中文大模型安全基准双轮测评第1期报告》,全面审视当前国内主流大模型里的偏见和歧视导向。评测结果显示,大模型们在地域、性别、年龄、健康等领域歧视问题突出。 然而,大模型出现这些...
论文揭示了大型语言模型(LLM)在角色扮演中的能力与偏见问题,这些发现对缓解 LLM 的风险、深化对 LLM 行为的理解以及推进对偏见的研究具有重要的潜在影响,包括指导如何更有效地设计和调整 LLM 以减少偏见,提高模型的应用可靠性和公平性,并为未来的研究方向提供了新的视角和思路。
随着文-图模型的广泛使用,其是否可能通过视觉表达将刻板印象、偏见全面“像化”(pictorial),成为新闻传播学领域值得关心的问题。 基于此,本研究采用与自动化大规模图像生产相适应的计算机视觉方法(computer vision method),尝试沿着传播研究的两个重要面向——内容与效果,连接视觉框架等理论资源讨论以下问题:文-图模型...
随着LLMs变得更加强大和普遍,对算法的审计要求可能只会增加。尽管对应实验具有重要的局限性,但它们是审计算法种族和性别偏见的一种方法。希望论文的工作有助于当前的监管工作,以确保这些有前途的新模型产生公平的结果。 6. 数据编辑和处理(A Data Redaction and Processing)...
会反映训练数据里的偏见。看起来,这些问题无法在该模型的商用周期内人为改掉。可以认为该模型在数据处理...
• 第一部分:生成式大模型中是否存在偏见问题? Wan, Y., Pu, G., Sun, J., Garimella, A., Chang, K.-W., & Peng, N. (2023). “Kelly is a warm person, Joseph is a role model”: Gender biases in LLM-Gen...
从指导模型的角度而言,使其不回应显性的种族问题,显然比不回应俚语或方言中包含的隐性偏见更容易。 艾伦人工智能研究所研究员、该论文的合著者瓦伦丁·霍夫曼()说:“人类的反馈教会模型考虑种族主义。但俚语偏见存在于更深的层次。” 没有参与这项研究的 伦理研究员阿维吉特·戈什()表示,这一发现让人对公司解决偏见...