近几年,社群平台对言论管控需求暴增,科技巨头如Facebook和Youtube等,也逐步透过AI过滤不当言论。然而,近期有研究发现,使用AI反而会强化社会既有的偏见,黑人的言论更容易被标示为仇恨言论。
根据华盛顿大学(University of Washington) 及康乃尔大学的联合研究,非裔美国人(即黑人)所发的Twitter贴文中,被AI侦测为仇恨言论的数量,相较其他族裔多了1.5倍。此外,使用美国黑人用语的贴文,比起一般用语更容易被标示为仇恨言论,数量多了2.2倍。
目前,AI仍难以理解人类语言背后的社会情境,无法辨别文字使用者的文化背景,以及字词背后的意义。例如,在白人社会里,「黑鬼」是禁忌词,然而却是黑人的戏谑日常用语;而异性恋使用「酷儿」词汇可能带有贬抑,但对同性恋者来说,却可能是正向意涵。
两篇论文都在计算语言学年度大会(Annual Meeting of the Association for Computational Linguistics)上发表,我们所认为客观的演算法其实会强化偏见,并证明了AI训练素材本身就带有偏见。
AI训练素材中可能带有各式各样的偏见,而Google、Facebook及Twitter等平台使用的内容审查工具,是否也带有偏见,研究者之一、电脑科学程式专家Maarten Sap表示:「我们必须正视这个情况。」
相关文章
- AirPods产品销售逐步降温传苹果本年计划最高减产30%04-29
- 真实爆料airpods pro生产车间全过程,看完你还想买吗02-25
- 盗版的AirPods Pro真的能买吗?真实用户pdd下单使用后的感受02-25
- AirPods Pro跳电而且续航不强是真的吗02-25
- 华强北的airpods pro和正品有什么区别02-25
- 新一代入门AirPods外观曝光-融合初代及AirPods Pro特色02-22
- Sony新品牌Airpeak要进军AI无人机领域!2021年春季揭晓11-10
- 新一代AirPods实体照流出!造型更圆润、握柄缩短了11-05
- AirPods如何设置提升音乐音质体验感11-03
- AirPods无感互动体验是什么-怎么感受10-13