阅读记录

第六十谈 有山不一般[2/2页]

别进游戏 作家萌

设置 ×

  • 阅读主题
  • 字体大小A-默认A+
  • 字体颜色
者自然也会分析自己受到的反制措施。因此,发表仇恨言论的人会主动寻求全新的表达方式。等到这种表达方式变得很常见,人类已经可以标记出来时,人工智能才可以接受相应训练并自动捕获他们。
      据《麻省理工科技评论》报道,为美国情报机构提供人工智能报告的公司rir的戈尔利(sagurly)警告称,从负面的角度来说,在不远的将来,人工智能也会迅猛发展成为大规模制造精准假新闻的工厂。
      016年,微软发布的ir聊天机器人ay就曾不幸沦陷,被用户“教坏”,成为一个飙脏话、散播歧视性言论的“反社会分子”。
      rsiv的ai接口介绍
      在rsiv刚发布的时候,jigsa表示,这个系统当前的最大弊端是被标记的数据太少,机器还没有学会足够多富有内涵的复杂词语。比如“种族战”在一些句子里可能是仇恨言论,但在学术著作和历史书里却不存在负面含义。
      显然,简单识别关键词的褒贬已经出现了问题,但理解常识和潜台词更是难上加难。识别出语句的真实含义需要对世界有更加深入的理解,《麻省理工科技评论》文章指出,正是以所谓的“常识”为前提,语言才成为强大而复杂的交流手段。
      一场持续的“军备竞赛”
      同时,即使在语言识别中取得进展,仇恨言论和假新闻的制造者也会采取相同的反制措施来避免被识别。“加密主义者”使用隐喻等修辞技巧来使他们的内容看起来不那么“主义”。例如,“蓝精灵”据称为加密主义的一个实例。
      “这就是一场持续性的‘军备竞赛,”计算机教授戴维斯告诉界面新闻。在他看来,仇恨言论和人工智能就是木马病毒和杀毒软件之间的关系。杀毒软件制作者会分析病毒的攻击模式,而病毒的制造者自然也会分析自己受到的反制措施。因此,发表仇恨言论的人会主动寻求全新的表达方式。等到这种表达方式变得很常见,人类已经可以标记出来时,人工智能才可以接受相应训练并自动捕获他们。
      据《麻省理工科技评论》报道,为美国情报机构提供人工智能报告的公司rir的戈尔利(sagurly)警告称,从负面的角度来说,在不远的将来,人工智能也会迅猛发展成为大规模制造精准假新闻的工厂。
      016年,微软发布的ir聊天机器人ay就曾不幸沦陷,被用户“教坏”,成为一个飙脏话、散播歧视性言论的“反社会分子”。
      但人工智能教授沃尔什认为无需太过担心,因为图像和声音识别技术的发展日新月异。即便仇恨言论更换了媒介,那也不会成为多么艰巨的挑战。
      戴维斯也指出,视频识别确实比较难,但现在语音转文字的技术已经比较完善,同时还会持续发展。更何况,声音会透露有关仇恨言论的更多信息,比如人的语调。所以戴维斯认为,音频识别不会比文字识别难得多,只不过需要更多的算法支持,以及考虑到yuub规模之庞大,人们需要花费更多的精力教会机器而已。
      自我监管行得通吗?
      此前,u
      更重要的监管问题是,谁有权决定机器应该学习什么?如果设计算法的fabk程序员应当负责,那么他们已经出现了纰漏:美国媒体gid两年前援引fabk员工爆料称,该公司常常故意打压保守派的新闻——值得注意的是,fabk地处加州硅谷,是著名的自由派票仓。
      藏一下唐一方宋伊人江墨玄卫场子。
      沃尔什认为,在充满偏见的情况下错删仇恨言论,以及其他的公司过失里,政府可以通过法规和罚金来参与其中。例如欧盟即将生效的《通用数据保护条例》(gdr)将加强消费者对个人数据的控制和科技公司应承担的数据泄露责任。如有违反,公司将会被处以一定比例销售额的罚款,对于fabk等科技巨头来说将是一笔天文数字。
      同时,一些欧洲国家早已对fabk处理仇恨言论不当提出过批评,例如德国和意大利。去年,德国政府通过“反仇恨言论法”,要求社交媒体站迅速采取行动。在fabk、ir、yuub等站上出现的明显违反法律的言论必须在4时以内删除,比较难辩别的言论也要在7天内得到处理,否则社交媒体站将面临最高5000万欧元的惩罚。
      沃尔什指出,目前社交媒体公司都是自我监管,但现在这已经行不通了。在媒体报道后,外界才知道fabk自我审查删掉了许多言论,“fabk据说被称为地球上最大的新闻机构,那么它就必须和(美国)《纽约时报》、(法国)《世界报》、(德国)《时代》周报和《中国日报》采取同样公开的、已知的(新闻审查)标准。
      ————
      官方暗号群:550591,嘿嘿快来一起为《别进游戏》搞戏啊!!现在群里已经几百人,谢谢大家的评论支持,我一定继续努力!不出意外每晚6点到9点间准时更新,感谢大家!!

第六十谈 有山不一般[2/2页]