
原始标题:AI发行“偏见”,人类可以相信“三个观点”吗?人工智能(AI)已成为我们不可分割的“合作伙伴”。从聊天机器人,语音助手到自动翻译,AI不断介入人们之间的沟通和理解。但是它可以是“客观的中立”吗?
根据美国麻省理工学院技术评论的官方网站。 UU。,国际研究表明,领先的语言模型(LLM)在全球范围内默默传播了刻板印象。从性别歧视,文化偏见到语言不平等,人工智能包装和更新人类的“偏见”,并以明显的授权方式在世界范围内导出。
这使人们深入思考。如果AI模型具有部分“人类共识”,我们可以相信他们的“世界观”吗?
AI使偏见“在不同的文化中漂移”
我调查ITACTION是由玛格丽特·米切尔(Margaret Mitchell)执导的,他的道德科学家涵盖了开源AI公司的面孔。他们启动了一个项目Lled阴影,其中包括300多种全球刻板印象,涵盖了多个维度,例如性别,年龄和国籍。研究人员设计了使用16种语言的交互式信号,并测试了几种常规语言模型对这些偏见的响应。
结果表明,AI模型具有刻板印象繁殖的明显独特特性。这些AI的模型不仅显示了普通英语的陈规定型观念,例如“金发女郎不聪明”,“工程师是男人”,而且还表现出对“女性更喜欢粉红色”的偏见,“南亚是保守派”和“拉丁语在语言环境中,例如阿拉伯语,西班牙语和印度语”。
根据世界其他网站的说法,在进入关键字“非洲村庄”时,一些经常生成模型的刻板印象(例如“除霜”和“赤脚孩子”)。这些视觉偏见已直接采用,而没有被某些学校课程或官方网站确定创办公司和其他声明进一步构成了转型的独特想象力。
6月,西班牙的勒蒙德(Le Monde)发表了一篇文章,介绍了如何除了放大不同文化的刻板印象外,语言模型有时会使用伪科学和伪史来保护自己。鉴于不常见的刻板印象,该模型往往与其他“更好的家庭”偏见“更熟悉”,而不是偏离主题。此外,如果刻板印象的建议是积极的,则该模型通常会恶化,并且更有可能将偏见歪曲为客观事实。
米切尔说:“这意味着人工智能不仅被动地继承人类的偏见,而且在某些社会背景下无意中促进了“文化漂移”和美国偏见作为普遍的统治。”
小语言群体受到隐形歧视
AdemásDela lacomunicación跨文化estereotípica,los sistemas de ia revelan el sourcea de la“disciminación”ntes习惯文化。
Los告知Muestran Que laRespenducióndel Instituto de ia“ Orientado a las themas” en la la la la la la la la la s de stanford de stanford en los estados unidos unidos apirma que estos modelos modelos modelos apoyan losMultilingües,pero enfrentan idiomas idiomas de baja rocursos(como swahili)。 ,菲律宾,马拉地语等),其性能远低于高资源甚至负面刻板印象的主要语言。
La Resjuctionun y el elanálisisde las limstaciones de los ModelosMultilingüesentérminosdate datos datos datos datos deentrenamiento y la la falta de ContectO文化Declararon quee quee unfenómenode'maldiciónmaldiciónmaldiciónmaldiciónMortilingüe”。换句话说,当模型考虑多语言时,模型很难获得对低收入语言的文化和语义细节的深入理解和精确理解。
斯坦福大学团队强调,大多数当前的培训数据集中在英语和西方文化上,并且对非常规的了解不深刻语言及其文化背景。这不仅会影响模型的精度,而且不可见量会改善语言和文化不平等,这使得很难使用这些低收入语言从AI技术中受益。
“目前,全球大约有7,000种语言,但在互联网上有效地表达了不到5%的语言。”研究人员说:“资源短缺”不仅是数据问题,而且是一个社会根源的问题。 “这意味着,在数据,才能,资源和权利方面,AI的研究和开发存在结构性不公。
《美国商业内幕》杂志还引用了哥伦比亚大学社会学副教授劳拉·纳尔逊(Laura Nelson),目前正在美国公司开发最受欢迎的聊天机器人,他们的培训数据主要使用英语,并深深影响西方文化偏见。
破译AI文化偏见问题
鉴于AI的跨文化偏见的真正影响,全球研究H机构和公司已开始提出系统的响应途径。
今年4月,斯坦福大学的“以人为导向”的研究所提出了一份白皮书,必须加强建立当地语言语料库,尤其是当地语言语料库,以便AI可以“理解”这些语言背后的语义和文化背景。例如,去年11月,非洲电信公司Orrange与OpenAI合作,并目标培训了AI模型,例如Wolov和Plaster等地区语言,以加速非洲数字包容性的改进。
同时,模型评估机制变得越来越精致和开放。阴影数据集由拥抱面团队开发,已成为许多公司在AI模型中检测和纠正文化偏见的重要工具。该数据集可帮助设备确定模型自动触发刻板印象的语言和上下文,从而o o将数据和培训算法进行临时。
在国际政策层面上,欧盟法律要求“高风险”制度必须不必要的伦西亚和人类监视机制。联合国教科文组织在2021年发表的道德建议清楚地表明,AI系统应“保证多样性和文化包容性”,并主张AI的发展尊重文化差异,并建立法律和系统,以将其纳入人道主义维度的测量中。
AI本质上是“镜像”,并复制它以反映其进入的偏见和价值。展示的“世界观”不是独立创建的,而是由人类创造的。如果人们希望AI真正为一个多元化的人类社会服务,那么他们就不能只用一种语音和文化来反映这一点。
(编辑:Luo Zhizhi,Chen Jian)
遵循官方帐户:人们的每日财务
分享以向更多人展示