?人工智能(AI)已成为不可分割的“合作伙伴”。从聊天机器人,语音助手到自动翻译,AI继续干扰人们之间的沟通和理解。但是,它可以是“客观的中立”吗?根据美国官方网站的“麻省理工学院技术评论”,一项国际研究教导说,大语言模型(LLM)默默传播了全球刻板印象。从性别歧视,文化偏见到语言不平等,AI都在包装和升级“偏见行李”,并以看似强大的方式将其出口到世界。这使人们深入思考:如果AI模型带来“人类的偏见”,我们可以相信他们的“世界观”吗? AI使偏见“跨文化漂移”这项研究AHE由开源AI公司的首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)领导,以拥抱面孔。他们启动了一个名为Shades的项目,其中包括300多个全球刻板印象,涵盖了许多维度,例如性别,年龄和国籍。研究人员设计了16种语言的互动线索,并测试了这些偏见中许多基本语言模型的响应。结果表明,AI模型显然具有不同的刻板印象的属性。 Ang Mga Modelong ai n ito ay hindi lamang nagpapakita ng mga刻板印象ng mga karaniwang rehiyon na na na na nagsasalita ng ins tulad ng tulad ng“ blondes ay hindi matalino”在“ “ Mga Kababaihan na ginustong粉红色”,“ Ang Mga South Asians Ay Konserbatibo”,at“ Ang Mga Amerikanong Amerikanong Amerikano Ay Tuso” Sa Mga Kapaligiran ng Wika Wika wika wika wika tulad tulad ngarabic,西班牙语,没有。根据世界其他网站的报道,一些图像生成模型通常会在输入“非洲村庄”关键字时输出诸如“融化小屋”和“赤脚孩子”之类的刻板印象图像,同时输入“欧洲科学家”,都是白人,穿着白色外套,以及在实验室中。这些视觉偏见直接被某些SC采用流氓课程和公务业务官员没有身份,进一步增强了他人文化的单一想象。西班牙勒蒙德(Le Monde)在6月发表了一篇文章,除了加强各种文化的刻板印象外,语言模型有时会使用伪科学或伪历史来捍卫自己。如果面对较不常见的刻板印象,该模型倾向于动员其他疾病偏见,反应“更熟悉”,而不是偏离主题。此外,当有关刻板印象的线索是积极的时,该模型通常会更糟,并且更有可能将偏见误导为有目的的事实。米切尔说:“这意味着AI不仅继承了人类的偏见,而且意外地促进了'文化漂移',并在某些社会背景下将偏见作为普遍政策。”小语言群体受到隐形歧视。除刻板印象的跨文化分散外,AI系统还暴露了“无形的问题歧视“在与不同的语言和文化进行交流时。报告说,来自美国斯坦福大学的“以人为导向”的AI研究所的研究表明,即使是NA,这些模型也表明,在面对低资源语言时,它们的表现却低于具有较高资源的主要语言(例如,面对低资源语言)该模型考虑了许多语言,模型很难深入了解和准确地表达低语资源的文化和语义细节,从而导致输出或偏见的输出错误。互联网上有000种语言在互联网上有效地有效地表示。”“缺乏资源'不仅是一个数据问题,而且是一个社会问题。”这意味着,在数据,人才,资源和权利方面,AI的结构结构和发展是不公正的。聊天机器人目前是由美国公司开发的,而Thetheir培训数据是由西方文化的偏见的主要影响,面对AI文化偏见的问题。语言和文化d可以加强,尤其是建立当地语言语料库,以便AI真正地“了解”文化背景的语义和背景。例如,去年11月,非洲电信公司Orange与Openai和Meta合作,用Wolov和Plaster等区域语言培训AI模型,以加快非洲的Padigital整合。同时,模型的检查机制变得更加精致和开放。拥抱面板开发的阴影数据集已成为许多公司在AI模型中检测和纠正文化偏见的重要工具。该数据范围可帮助团队确定该模型容易自动触发刻板印象的语言和上下文,从而优化培训数据和算法数据。在全球政策层面,《欧盟AI法》要求“高风险” AI系统应在交付前后进行合规性评估,包括评估非歧视和B的影响ASIC权利,并提供人类监测和监测的必要机制。联合国教科文组织最早在2021年就开始发表的“ AI伦理伦理”清楚地说,AI系统应该是“保证差异 - 文化和融合”,主张各国已建立法律和系统,以确保AI的发展尊重文化差异并将其纳入衡量人类主义的维度。 AI本质上是一种“玻璃”,它反映并复制了我们在此处输入的偏见和价值。它显示的“世界观”不是独立形成的,而是由人们提供的。如果人们希望AI真正地为不同的人类社会服务,他们将不会只反映出单一的声音和文化。