引度侵删:
“在听证会上,参议员向扎克伯格问道:“你能定义什么是仇恨言论吗?”然而这位岁的创始人没能直接给出答案:“这个问题真的挺难的。”
界面新闻田思奇
“对于一个女生来说,你相当聪明啊。”显然,这句夸奖背后的逻辑是“女生通常不够聪明”,带有一定歧视性意味。
倘若用户不希望类似的冒犯性表达出现在社交媒体上,他可以将其标记出来,让审核人员判断是否应该删除。但如果像fabk创始人扎克伯格所希望的,把最初的标记工作通通交给人工智能,那么机器该如何自动辨认出这句话暗含的歧视?筛选关键词“女生”、“相当”、还是“聪明”?
在4月10日出席数据泄露丑闻的国会听证会时,扎克伯格向参议员们表示,fabk到今年底将雇万名审核人员监控并移除冒犯性言论。更引人注目的是,扎克伯格指出fabk将愈发依赖人工智能来标记社交媒体上的仇恨言论(hash):
我很乐观地相信,在5到10年时间里,我们就会利用人工智能更准确地识别语言上的细微差异。
从技术、机制和监管的角度考虑,扎克伯格的这番表态是否过度乐观?
4月10日,扎克伯克出席参议院听证会。来源:视觉中国
定义仇恨言论是个难题
在听证会上,共和党参议员本·萨斯向扎克伯格问道:“你能定义什么是仇恨言论吗?”这位岁的创始人没能直接给出答案:“这个问题真的挺难的。”
通常来说,仇恨言论是以性别、种族、宗教、性取向等特征为基础,以诋毁他人为核心的冒犯性表达,甚至有可能对被攻击群体的人身安全构成威胁。
但同一句话在不同的时间、不同的场合,以及不同的人群心里可能产生五花八门的解读。对于绝大多数人来说,种族歧视是不可接受的,但这一判断在几十年前还颇具分歧。如果人工智能将主导仇恨言论的筛选,那么它必然也要与时俱进。
澳大利亚新南威尔士大学人工智能教授沃尔什(byalsh)对界面新闻表示,仇恨言论还和文化有关。例如在德国,否认犹太大屠杀的存在是违法的行为,但在美国宪法第一修正案保障言论自由的情况下,美国人可以合理地质疑犹太大屠杀。对此,沃尔什认为人工智能可以在不同国家接受不同的训练。
纽约大学计算机教授戴维斯(rsdavis)则向界面新闻介绍说,虽然他没听说美国法律对仇恨言论下过定义,但至少现在许多领域都有明显是仇恨言论的表达,人们已经产生不少共识。戴维斯认为,在可预见的未来里,比如5年后,人工智能至少可以捕捉已经被人类标记过的同类型仇恨言论。
识别潜台词难上加难
目前最受欢迎的机器学习方式——深度学习是一种训练习得模式。工程师告诉深度学习系统许多好的和不好的例子,把好的例子拆分成单个词语或句子,让机器学会辨别这些词语的关系,并由此构建复杂的是非分析络。
新闻站ar报道称,谷歌母公司旗下的jigsa已开发出名为rsiv的人工智能ai接口来对抗充满恶意的络表达。但这个系统并不完善,经常分不清负面词语和仇恨言论。
例如在系统评估中,“垃圾车”(garbaruk)的仇恨指数高达7八,而“开打种族战”(raar)的仇恨指数仅为4。上文所提到的“对于一个女生来说,你相当聪明啊”,仇恨指数为1八。
rsiv的ai接口介绍
在rsiv刚发布的时候,jigsa表示,这个系统当前的最大弊端是被标记的数据太少,机器还没有学会足够多富有内涵的复杂词语。比如“种族战”在一些句子里可能是仇恨言论,但在学术著作和历史书里却不存在负面含义。
显然,简单识别关键词的褒贬已经出现了问题,但理解常识和潜台词更是难上加难。识别出语句的真实含义需要对世界有更加深入的理解,《麻省理工科技评论》文章指出,正是以所谓的“常识”为前提,语言才成为强大而复杂的交流手段。
一场持续的“军备竞赛”
同时,即使在语言识别中取得进展,仇恨言论和假新闻的制造者也会采取相同的反制措施来避免被识别。“加密主义者”使用隐喻等修辞技巧来使他们的内容看起来不那么“主义”。例如,“蓝精灵”据称为加密主义的一个实例。
“这就是一场持续性的‘军备竞赛,”计算机教授戴维斯告诉界面新闻。在他看来,仇恨言论和人工智能就是木马病毒和杀毒软件之间的关系。杀毒软件制作者会分析病毒的攻击模式,而病毒的制造
第六十谈 有山不一般[1/2页]