12/20-12/25 指定寫作主題

by admin on 2020年4月25日

Jigsaw 本是 Google 智库一员,在今年 2
月被独立出来,以专注于用技术手段解决一系列地缘政治问题。而 Conversation
AI 原本是用来对付 ISIS ,它对 YouTube 视频、网络搜索词进行分析识别,找到
ISIS
相关的关键词,收集其暴力行动的各种证据,还会向搜索关键词的用户显示反
ISIS 广告。

但这样的处理方式,首先人力成本很高,而效率又非常低下;其次,对于处理这些侮辱性言论的员工来说,整天看着这些负能量的东西,他们的身心也会受伤害。

公司在一份培训材料中解释说:“我们未必能告诉你每一项任务是干什么用的,但肯定都是我们认为重要的东西。你不会经常听到自己工作的成果是什么。实际上,有时候你的工作看起来就像流进黑洞一样……尽管你未必总能看到自己工作的影响,但你的工作是重要的,而且Google有很多人在非常非常仔细地进行审核。”

稿源:ifanr,题图来源:psychologytoday

比如说,美国有一个女脱口秀主持人叫Leslie
Jones,是个黑人,她的头像就被一些种族主义者,在网上换成了一个黑猩猩的图片,还在她脸上PS了很多乳白色的液体,就是很有侮辱性的那种,你懂的。

广告评估工作往往能吸引喜欢工作条件更灵活的人,比如刚刚进入工作的大学毕业生,接近退休年龄的工人,家庭主妇,以及身体有残障的个人。只要能满足每周10小时的最低工作要求,广告评估师可以随时随地开展工作。评估师只需要有自己的桌面计算机和移动设备就能开始工作。

Conversation AI
将会开放源代码,这样任何网站都可以利用该人工智能软件来保护用户远离网络语言暴力。目前该技术除了自动识别标记,还可以自动删除攻击性语言。Google
表示 Conversation AI 对攻击性语言的识别准确性极高,可以达到 92%,但伴有
10% 的误判率,同时还表示将会逐步改善问题。

而最近谷歌一个叫“拼图”的团队,英文叫Jigsaw
,即将要推出一个新项目叫做——人工智能对话系统。这个项目主要是利用算法和机器的学习改进能力,来自动识别网络上的侮辱性言论和骚扰。这个项目一旦做出来,按照他们自己工程师的话说,会比关键字过滤,要好得多。同时,又比人工手动识别要快得多。这样就能够非常好地解决“网络巨魔”问题。

由于Google
90%的收入来自广告主,所以它需要防止定向广告到攻击性视频造成更多的损失。但用户每天上传的新视频长达60万小时,这需要一座小型城市规模的人夜以继日的处理才能看完。所以搜索巨头才会强调,开发出可标记日益增多的攻击性视频的人工智能内容过滤器是很难的。Schindler说:“这个问题无法由人来解决,也不应该由人来解决。”

图片来源:typingvidya

还有比如极端组织“伊斯兰国”,在网上招募志愿者,号召人来加入他们,智库就做了程序,来反制“伊斯兰国”的这种网络攻势。比如说通过你搜索的关键字看到你有这种极端言论的倾向,它就会把你导入到另外的一个页面上去,让你看到的是反“伊斯兰国”的言论和视频。据其内部实行下来的效果看,成功率高达70%。

据两个消息来源透露,Google的广告质量评估师计划始于2004年。计划参照了Google的搜索质量评估计划,一开始主要服务于Google核心的广告活动:根据搜索结果产生相应广告的AdWords,以及通过Google把广告放置到网站上的AdSense。原先的广告评估师招聘代理ABE给他们的时薪是20美元。一位前评估师说,他们可以全职工作甚至加班工作。2006年,在评估师称工作条件变得不那么令人满意之后,WorkForceLogic收购了ABE。然后到了2012年,一家名为ZeroChaos 的公司收购了WorkForceLogic,前者就变成了跟评估师签合同的甲方至今。

图片 1

但是目前对这个项目的担忧也是挺多的,有业内人士指出,因为“拼图”其实是谷歌的一个盈利机构,那怎么保证对言论删选的公平性,而且对于反审查的这种做法有没有可能变成一种新的审查制度呢?

广告评估师的工作不仅仅只是把视频标记为不合适。他们还被要求对视频标题和内容进行细颗粒度的评估——要进行分类,比方说,是否包含“不合适语言”,如“亵渎”、“仇恨发言”或者“其他”等;或者是否属于“暴力”,子类包括“恐怖主义”、“战争和冲突”、“死亡和悲剧”等等。此外还有黄毒方面的分类。系统还为广告评估师提供“其他敏感内容”选项——这在比方说有人分享了极端政治言论的时候可以用得上。(AdAge 最近报道称Google现在允许客户取消在“性暗示”、“轰动、耸人听闻”以及包含“亵渎、粗俗”的内容旁展示广告。)

图片来源:hitc

川普上台之后,对整个世界有什么影响?为什么说川普的当选,标志着整个西方世界要右转了?

但广告评估师说,有些内容未必就能找到合适的位置归类。这种情况下,评估师就会把材料标记为“无法归类”。一位现任评估师讲述了自己是如何评估两个讲西班牙语的人进行说唱大战的。“我把材料归类为无法归类是因为他们讲外语。同时我还添加了一段评论,称视频里面的人似乎在用外语相互辱骂,但无法确定他们是否说了脏话。”(一位前评估师说,从最近的招聘判断,Google似乎更青睐懂双语的评估师。当视频语言自己不懂时,评估师还可以勾选某个选项。)

在网络世界,人和人之间互不相识,隔着屏幕对自己所说的话没有一丝顾忌,“网络喷子”、“键盘侠”这些人就是这么出现的。用恶毒的语言激怒对方,挑起争端,加上网络匿名给这些
“语言暴力者” 穿上了隐身衣,喷子更加无所顾忌。

这本杂志经常会创造一些我们耳熟能详的概念和名词,比如“长尾效应”、“众包”的概念,都是《连线》杂志首先提出来的。

今年3月,在广告商的抵制下,Google让评估师把其他工作都先放到一边,去执行一个“高优先级的评估项目”。新项目意味着这群评估师几乎所有的精力都要集中在YouTube上面——检查视频内容,或者整个频道,看看有没有一系列可能因此广告主反感的东西。这是一个很大的变化。

该软件会先在纽约时报网站评论进行测试,而维基百科也对此表示出了兴趣。

其实这种“网络暴力”现象,我们中国人并不陌生,只是在我们这儿对这些“网上暴力”分子,不叫“网络巨魔”,有别的称呼,比如“键盘侠”之类的。

Google极力淡化这次事件,说媒体夸张了攻击性视频旁边放置广告问题的严重性。该公司说:标记视频收到的“印象占比还不到广告商总印象的1/1000”。Google的CBO
Philipp
Schindler则强调问题仅影响到“非常非常少量”的视频。但广告评估师说公司正在集结他们以防问题变糟。

图片 2

文章的说法是,你作为“网络暴力”的受害者,就好像走进一个广场,广场上有5万人,对你怒目而视,在骂你。你会觉得全世界对你都怀有敌意,那你首先肯定是闭嘴,甚至你可能就觉得自己的生命都受到威胁,你要保命,你得逃跑。

这种仔细有时候甚至到了令一些工人感到不舒服的程度。Google会将一些已经过审核的内容混进分配给广告评估师的任务当中来考察他们的表现。Google给广告评估师的一封邮件中写道:“这些测试以正常的任务出现,你会像正常工作一样收到这些题目。但是我们不会告诉哪些是测试题目……我们会利用考试分数来评估你的表现。得分很低的话可能会导致分配给你的任务终止。”

因网络语言暴力导致的事件太多了,2014 年《我的世界》制作者 Notch
因玩家喷子的负面评论、无理由的投诉身心俱疲,将 Mojang
卖给了微软;同样也是 2014
年,路透社网站评论区彻底成为了喷子攻击的阵地,因此关闭了新闻评论功能;以及众多因为网络语言暴力抑郁,进而了结自己生命的人……

按照作者的说法,“拼图”这个团队,就是谷歌里一个类似于“正义联盟”这样的组织。“正义联盟”就是漫画里面那些超级英雄,像超人、蝙蝠侠,他们组成的“维护世界和平”、“锄强扶弱”的这么一个组织。

但Georgia Tech AI的研究人员Mark
Riedl不认同这种做法:“众包工人不应该被视为是机器,相反我们需要认识到众包工人是人,对于这些人我们有着伦理道德方面的责任,在设计任务的时候应该意识到他们的尊严。”

因此,Google 的子公司 Jigsaw 宣布推出了一款人工智能软件 Conversation
AI,用机器学习技术来自动识别标记网络上的侮辱和骚扰性文字。

所以作者认为,这种方式应对大规模的网络暴力,基本没什么用。

目前各个人工智能研究机构也都意识到了人工介入对人工智能普及和推广已经形成了事实上的阻碍,所以“如何减少在人工智能领域中“人工”的介入”正在成为人工智能研究领域最最热门的研究方向。但毋庸置疑的是就目前而言,以人工完成对原始训练数据的标注是最为成熟的人工智能技术路线之一。这个现实虽然有些“搞笑”,但是的确这种“人海”战术在很多场景中还是非常有效的。Google这种在全球人工智能研究领域最顶级的公司也会这样做。

Jigsaw
团队工程师称,Conversation
AI
的识别准确率比关键词过滤技术和专人识别都要高得多。软件会自动识别和标记有问题的评论,并对网络评论的
“攻击性” 进行从 0 到 100 的打分。0 分表明该评论并不具备攻击性,而 100
分表明它是极富攻击性。

还有更极端的,比如一些专栏作家,因为自己发表的政治言论,而在社交网络上面受到了极端分子的攻击,有扬言要一根根拔光其头发的,有威胁要拧下其性器官的,更夸张的,还有说要强暴人家只有五岁的女儿的。最后这些专栏作家不得不关闭了自己的所有社交网络账号,彻底离开了虚拟的网络世界。


按照作者的说法,“拼图”这个团队,就是谷歌里一个类似于“正义联盟”这样的组织。“正义联盟”就是漫画里面那些超级英雄,像超人、蝙蝠侠,他们组成的“维护世界和平”、“锄强扶弱”的这么一个组织。

人力资源

而这个所谓的——人工智能对话系统——其实只是“拼图”团队,野心勃勃的项目中的一部分。他们最终是想要利用Google强大的硬件设施和优秀的工程师,做一个Moonshot级别的项目。

但这项工作天生的不稳定会对许多工人造成伤害。一位广告评估师说,我们当中大部分的人都喜欢这份工作,但不会有机会成为永久性的全职员工。

还有更极端的,比如一些专栏作家,因为自己发表的政治言论,而在社交网络上面受到了极端分子的攻击,有扬言要一根根拔光其头发的,有威胁要拧下其性器官的,更夸张的,还有说要强暴人家只有五岁的女儿的。最后这些专栏作家不得不关闭了自己的所有社交网络账号,彻底离开了虚拟的网络世界。

临时工作的不安全感以及普遍的人员流动性令新老员工感到不安,这些人认为Google正失去在这份工作上花费时间更多的老员工才具备的系统知识。一位前广告评估师表示:“他们把钱浪费在了培训新人上面然后又把人撵出大门。”

网络巨魔(Internet Troll)

“我们非常清楚在评估内容的时候,人类的眼睛,还有大脑都需要审慎的思考。”前广告评估师。

今天给您分享来自美国《连线》杂志的一篇报道。咱们之前讲过的《哈佛商业评论》、《经济学人》、《快公司》,都是领域清晰、个性鲜明的顶尖刊物,而《连线》杂志也是中国人相对比较熟悉的。这是一本科技类的杂志,被誉为“极客的圣经”
,它关注的是科学技术应用于现代和未来人类生活的各个方面,并对文化、经济和政治产生影响。

YouTube,这个Google旗下的视频巨头,每天都要在网站播放的数百万视频当中穿插广告。自动系统确定这些广告在什么地方出现,广告主往往并不知道自己的广告会出现在哪一个视频的旁边。最近这种不确定性已经给Google惹来了大麻烦。在多份报告披露Google允许在宣传仇恨和恐怖主义的视频边上放置广告之后,该公司已经在接受审查。诸如沃尔玛、百事可乐、Verizon等广告主以及范围更广的Google广告网络已经摒弃了这个平台。

他们的想法是,运用人工智能来解决人与人之间的问题,让人们在互联网上可以更加和谐相处。不但要把互联网技术的潜力往前推进,同时要修补在整个网络世界演进过程中,出现的最糟糕的那些东西,比如说像监控、极端的言论,还有审查。

“人工”与“智能”到底是什么关系?关于这点最经典的回答是“无人工不智能”。

但这样的处理方式,首先人力成本很高,而效率又非常低下;其次,对于处理这些侮辱性言论的员工来说,整天看着这些负能量的东西,他们的身心也会受伤害。

Google人工智能背后的人工(http://36kr.com/p/5072233.html)

本期杂志:《连线》

但是广告评估师的人员流失也许正好反映出让AI变得更聪明的最佳实践。人工智能研究人员和行业专家说,输入数据的人类培训师的定期轮换对于训练AI更好。AI初创企业Nara
Logics的CEO Jana
Eggers说:“AI需要许多看法,尤其是在类似攻击性内容方面。”尽管最高法院并未就什么是猥亵做出描述,但是“当我看到时就能做出判断”这种极限值测定依然有效。“给机器更多观察的眼睛有望得到更好的结果。”

您好,欢迎来到“马徐骏说杂志”。

Selman说:“你不会想通过让AI伦理模块观察普通人群日常所为来训练这种AI。你应该从那些更加审慎地考虑了潜在偏见以及道德问题的人那里获取输入才对。”

文章里说,现在社交网络越来越发达,在万丈光芒下,就会有黑暗的影子存在,如今在欧美的网络上,类似Facebook、推特这样的网站以及论坛上,有一种被称为“网络巨魔”的人,英文叫Internet
Troll
,这种“网络巨魔”指的是,对跟自己意见不同的人,实施网络暴力。主要是谩骂、侮辱,极端的,甚至会进行人身威胁。

但尽管AI研究人员通常同意人低落的士气未必就会导致糟糕的机器学习,但也许会产生源自其工作环境和体验的,更为微妙的影响。康奈尔大学AI教授Bart
Selman说:“经常有观点认为获取大量不同输入是训练AI模型的好办法。这个作为一般指南来说是好的,但在道德判断上,众所周知,大多数群体都存在着根深蒂固的严重偏见。”
Selman举例说,比如大家的普遍看法是男性在特定类型的工作方面要优于女性,反之亦然。“那么,如果你基于普通组观点或者过去的招聘决定来训练AI招聘模型,你就会得到代表一般人群观念的隐藏偏见。”而如果结果表明你主要靠一群焦虑的临时工的认知来训练AI的话,他们最终可能会把自己独特的偏见带进那些系统里面。

而这个所谓的——人工智能对话系统——其实只是“拼图”团队,野心勃勃的项目中的一部分。他们最终是想要利用Google强大的硬件设施和优秀的工程师,做一个Moonshot级别的项目。

问题是公司仍然要靠人来训练AI。于是Google仍然要依赖一群工人去识别和标记攻击性材料,然后把这些作为AI的训练数据。但据一些广告评估师透露,由于Google跟他们的沟通不畅,再加上这份工作的不稳定性,导致了他们没有办法把工作做好。而这个就会影响到AI识别的精确度。

在谷歌内部,把所有听起来疯狂、夸张,需要花费大量时间和精力来实现的计划,都称之为“登月级项目”
。例如:谷歌眼镜、无人驾驶汽车、模块化手机等。

那么“无人工不智能”究竟是什么意思呢?这个说法的来源主要指的是在很多人工智能项目在实施中往往是要花大量的时间和精力完成对用于训练人工智能的数据的处理。而后这批被人工处理过的数据将被用于“训练”人工智能。这种人工处理生成的数据的质量越高,量越大,人工智能的训练就越高。由于对最原始的数据处理往往并没有明确的可以让机器理解的规则,所以这部分原始数据的处理不得不依赖人工介入。

我们都知道谷歌公司有一句著名的口号,叫不作恶,“Don’t be
evil”。“拼图”组织启动的这项计划,也说明谷歌公司已经不仅仅满足于他们原来说的“不作恶”了,他们想要做好事。

每天,在美国各地,那些替Google工作的人都会登录进自己的计算机开始观看YouTube,为的是找出视频里面的暴力。他们从视频标题里找出带有仇恨的语言。他们决定某个视频剪辑应该分类为“攻击性”的还是“敏感性”的。他们是Google所谓的“广告质量评估师”,是由外部代理商雇佣的临时工,作为判断机器还没有办法自行做出判断的弥补措施。现在Google显然迫切需要这些人的帮忙。

美国《连线》(Wired)杂志是一份科技类月刊,创刊于1993年,被誉为“极客的圣经”。

多名广告评估师称自己被要求观看内容令人震惊的视频。有一位评估师说,有人试图发布自杀的视频。有一个人把自己的轿卡点燃,然后把枪对准自己自杀了。在广告评估师频繁访问的一个论坛上,匿名发帖者称自己曾经见过虐待妇女、儿童以及动物的视频。有几个发帖者称,在连续看了好几个类似视频之后,自己被迫休息才能缓过来。广告评估师称自己并不清楚Google是如何给自己挑选需要观看的视频的——在评估前自己只能看到视频的标题和缩略图。此外,评估师经常观看的视频还包括有人讲话的视频游戏、政治类视频,以及阴谋论等。

今天说的虽然不是本期的封面文,却是一篇内容很棒的专题报道,说的是谷歌公司在酝酿的,一个对抗网络审查和暴力的计划,很值得一讲。

尽管Google广告评估师合同工大部分都是跟ZeroChaos签署的合同,但代理的机构并不只有这一家。ZeroChaos的合同是1年1签,而且直到最近他们的规矩还是连续工作2年后就不再聘用。一些工人认为这一限制导致Google无法找到最适合这份工作的有经验的评估师。(不过在4月初的时候ZeroChaos通知广告评估师称这一规定已经取消)。广告评估师的薪酬也没有得到提高——他们的时薪是15美元,一周最多可以工作29小时,但是并不能保证有足够任务达到这一阈值。工人称自己突然就会被解雇,既没有事先警告或者给出理由——有多位员工证实了这一点,甚至其中一位才工作了一周。公司会用一封敷衍了事的电子邮件通知工人被辞退。

拼图组织(Jigsaw)

Google发言人Chi Hea
Cho说:“我们一直都在靠技术与人工审核的结合来审分析标记内容,因为对视频内容的理解是非常主观的。最近我们增加了更多人手来加速审核。这些审核帮助训练我们的算法,让它们能不断改善。”

他们的想法是,运用人工智能来解决人与人之间的问题,让人们在互联网上可以更加和谐相处。不但要把互联网技术的潜力往前推进,同时要修补在整个网络世界演进过程中,出现的最糟糕的那些东西,比如说像监控、极端的言论,还有审查。

技术公司雇佣内容版主由来已久,随着大家上传和分享的内容越来越多,这项工作对于互联网巨头也变得愈发重要。Google的广告评估师工作可不仅仅是监控视频。他们还要读评论区标记出用户爆粗的言语。要检查Google广告网络服务的各种网站,确保符合公司的质量标准。他们还要按照零售、新闻等目录对网站进分类,并且点击广告链接看看是否有效。同时正如他们的名字所示那样,他们还得对广告本身的质量进行评价。

本期金句

把已经知道答案的问题嵌入进来是众包调研的一桩常见做法。这种策略往往用来确定调研人员是不是随便乱点东西,往往被玩笑为从业者的图灵测试。

拼图组织(Jigsaw)即将推出一个“人工智能对话系统”,利用算法和机器学习能力,自动识别网络上的侮辱性言论和骚扰。比关键字过滤准确,也比人工识别要快得多。

在山景城的Google人享受着别致的园区,免费的美食,以及撞球、桌上足球等娱乐手段。这些跟典型的广告评估师得到的待遇实在是差得太远。现在替全球最有价值的公司工作可以意味着奢侈的福利以及丰厚的工资。也可以意味着作为临时工机械地执行那些重复性的任务,好训练公司的机器执行相同的工作。

不作恶(Don’t be evil)

人机连接

知识清单

Cho说:“在提供好的的工作条件方面,Google致力于跟有着良好履历的供应商合作。一旦问题引起我们的注意,我们就会提醒这些供应商关注员工诉求,要求双方协作来解决问题。我们会进一步关注此事。”

这个计划的实施,主要是依靠“算法”和“机器学习”,也就是Machine
Learning,“机器学习”是目前世界上公认的“四大技术趋势”之一,文章里很简单地解释了一下它的原理,就是让程序先标记,什么样的东西是属于“骚扰性”或者“误导性”的言论,然后机器不断学习之后,最终能够准确地分辨出来。

技术界的大公司往往都会雇用临时工参与到训练AI系统的重复性任务。一位广告评估师提到自己几年前曾经替微软评估Bing的搜索结果,这种工作的强度很大,每小时大概要审查多达80页的搜索结果。LinkedIn和Facebook也雇用人来执行类似的工作,LinkedIn主要是做数据注释,而Facebook则是评估粉丝页面的“赞助帖子”。

而最近谷歌一个叫“拼图”的团队,英文叫Jigsaw
,即将要推出一个新项目叫做——人工智能对话系统。这个项目主要是利用算法和机器的学习改进能力,来自动识别网络上的侮辱性言论和骚扰。这个项目一旦做出来,按照他们自己工程师的话说,会比关键字过滤,要好得多。同时,又比人工手动识别要快得多。这样就能够非常好地解决“网络巨魔”问题。

但也有人说这种灵活性往往最终对他们并不有利,即便他们需要依赖这份工作。可以在家工作并且选择自己的工作时间算是一种特殊待遇。但据一份ZeroChaos
FAQ,广告评估师被禁止同时为其他公司工作。一位前广告评估师说因为这项禁令自己无法同时打两份工,所以现在她每周也就比失业的时候多拿40美元。这样是撑不下去的。

谷歌公司非正式的公司口号,全文是“完美的搜索引擎,不作恶”
,1999年提出,沿用至今。

综合来看,评估视频所需的工作范畴和对微妙之处的把握说明Google仍然需要人的帮助来处理YouTube的广告问题。Google在一份像广告评估师说明评估工作目的的文档中说:“我们有很多信息来源,但你们是我们最重要的来源之一。”但尽管只有机器智能才能处理YouTube的内容规模,就像Google高管和代表反复强调的那样,除非Google的机器已经聪明到能够分辨真正的攻击性言论与其他表达形式的不同,此类努力就仍然需要靠人来帮助完成。

好比是,你要让机器分辨什么是猫,给它海量的猫的图片,让它认识猫的特征是什么样的,一段时间之后它熟悉了,就能在众多的图片里面辨认出猫了,就是这么个原理。

至于Google,搜索巨头的确告诉评估师说他们做的工作很重要,即便并没有说清楚重要的原因是什么。

还有比如极端组织“伊斯兰国”,在网上招募志愿者,号召人来加入他们,智库就做了程序,来反制“伊斯兰国”的这种网络攻势。比如说通过你搜索的关键字看到你有这种极端言论的倾向,它就会把你导入到另外的一个页面上去,让你看到的是反“伊斯兰国”的言论和视频。据其内部实行下来的效果看,成功率高达70%。

跟Google缺乏清晰的沟通本身也放大了广告评估师对就业的不安全感。他们从来都没有见过自己服务的那些人,包括在面试过程期间,他们唯一的联络方式就是一个名为“广告评估管理团队”的邮件地址,Google告诉评估师只有遇到任务相关问题时才能使用。评估师发送邮件给对方时,只会收到自动回复。对此Google回应称:“鉴于接收到的报告规模,管理者并不会对个别问题作出响应:相反,我们监控收到的报告以尽快侦测出系统范围内的问题。如果你需要单独回应,或者采取特殊行动,请联络你的合同管理员。”

您好,欢迎来到“马徐骏说杂志”。

一位前广告评估师说:“山景城那一头的人就像是幕布背后的巫师。我们非常想像真正的同事那样跟他们沟通,但结果却没有。”

下期预告:《经济学人》

而且评估师称,从自己手头的工作量来看,数量和速度的优先级要比准确性更高。在某些情况,这帮人甚至要在2分钟内审核时长数小时的视频。在一个匿名的在线论坛上,评估师相互交流省时的办法——比方说,说唱视频就快速浏览一下歌词看看有没有亵渎的话就行了,或者用10秒钟粗略看看视频剪辑而不是完全看完。会有计时器记录每个视频审查所需的时间,尽管这只是建议的期限,但评估师说这给他们增加了压力。有人担心积压的视频过多会害得自己被炒。

本文源自《连线》(英国版)11月刊

当然,对于部分同事提出的这些问题,并不是所有的广告评估师都吹毛求疵。15美元的时薪仍然高于大多数城市的最小工资。一位广告评估师仍然对ZeroChaos提供的机会表示感谢:“甚至连麦当劳都拒绝我的情况下ZeroChaos却不关心我有没有犯罪背景。”多位评估师说在拿到这份工作前自己已经接近无家可归或者需要领食物救济券的地步。

这不但会造成非常大的心理伤害,而且会导致这些人从此有心理阴影,发东西之前先自我审查,这个不敢说,那个不敢碰,要么干脆就不再在网络上面发表自己的观点了。

人工数据标注

这本杂志经常会创造一些我们耳熟能详的概念和名词,比如“长尾效应”、“众包”的概念,都是《连线》杂志首先提出来的。

人类任务

这不但会造成非常大的心理伤害,而且会导致这些人从此有心理阴影,发东西之前先自我审查,这个不敢说,那个不敢碰,要么干脆就不再在网络上面发表自己的观点了。

因此有了“无人工不智能”的说法,甚至还有人加了一句“有多少人工就有多少智能”!

文章里说,现在社交网络越来越发达,在万丈光芒下,就会有黑暗的影子存在,如今在欧美的网络上,类似Facebook、推特这样的网站以及论坛上,有一种被称为“网络巨魔”的人,英文叫Internet
Troll
,这种“网络巨魔”指的是,对跟自己意见不同的人,实施网络暴力。主要是谩骂、侮辱,极端的,甚至会进行人身威胁。

指在网络世界中,用侮辱性语言挑起骂战,并从中获得莫名快感的人。

这个叫“拼图”的团队,前身是谷歌的一个智库,成立于2010年。今年2月份才改名叫做“拼图”。那这个机构之前都做过一些什么事儿呢?他们在网络安全方面的确是做过一些事情的,就比如说在谷歌的Chrome浏览器里做一个插件,你如果在浏览一些有危险的网站,对方要输入你的谷歌账号和密码,这个插件就会跳出来提醒你,让你小心。

这个叫“拼图”的团队,前身是谷歌的一个智库,成立于2010年。今年2月份才改名叫做“拼图”。那这个机构之前都做过一些什么事儿呢?他们在网络安全方面的确是做过一些事情的,就比如说在谷歌的Chrome浏览器里做一个插件,你如果在浏览一些有危险的网站,对方要输入你的谷歌账号和密码,这个插件就会跳出来提醒你,让你小心。

谷歌说,人工智能对话的程序,其实是受到了一个游戏公司的启发。就是知名的多人网络对战游戏《英雄联盟》的制作公司,他们从2012年开始,尝试着在网上,对玩家之间的言论进行监控。如果他们发现玩家在打游戏的时候,有人聊天用了侮辱性的词汇,那么他们就会对这样的玩家进行警告,然后92%被警告的玩家,之后都没有再使用这样的言论。就是说,玩家被警告后会收敛和注意自己的言行。

文章的说法是,你作为“网络暴力”的受害者,就好像走进一个广场,广场上有5万人,对你怒目而视,在骂你。你会觉得全世界对你都怀有敌意,那你首先肯定是闭嘴,甚至你可能就觉得自己的生命都受到威胁,你要保命,你得逃跑。

好了,今天跟您分享的是谷歌的“拼图”组织,酝酿的应对“网络暴力”的计划,也是谷歌内部“登月级别”的项目。
Moonshot也就是登月,如果您以后在聊到很长远而且比较难实现的项目时,就可以称它为“登月级别”的项目,Moonshot,简洁又精准。

即便是在网上遭受过“网络言语暴力”的那些人,当他们听到这个项目的时候,其实还是很犹豫的,很多人说,人们还是需要能够自由表达的空间,因为在这种算法下,你的回嘴也算是危险性言论,一样是要被删除的。有人就说了,如果在网上连“川普是个傻瓜”这样的话都不能说了,那网络还有什么意思啊!

所以作者认为,这种方式应对大规模的网络暴力,基本没什么用。

这些年来,类似Facebook、YouTube这些社交媒体和网站,对抗这种网络暴力的主要手段,都是让用户来标记出侮辱性的言论,进行举报,再由他们的员工进行处理。而这些处理问题的员工,也都是外包到像菲律宾这样的“第三世界国家”,一个是因为他们讲英语,还有就是因为人工比较便宜。

比如说,美国有一个女脱口秀主持人叫Leslie
Jones,是个黑人,她的头像就被一些种族主义者,在网上换成了一个黑猩猩的图片,还在她脸上PS了很多乳白色的液体,就是很有侮辱性的那种,你懂的。

这些年来,类似Facebook、YouTube这些社交媒体和网站,对抗这种网络暴力的主要手段,都是让用户来标记出侮辱性的言论,进行举报,再由他们的员工进行处理。而这些处理问题的员工,也都是外包到像菲律宾这样的“第三世界国家”,一个是因为他们讲英语,还有就是因为人工比较便宜。

Moonshot也就是登月,在谷歌内部把所有疯狂甚至听起来很夸张,要花费大量时间和精力的计划,叫做“登月级别”项目。比如谷歌眼镜、无人驾驶汽、模块化手机之类的,都是“登月级”的项目,而拼图“登月级项目”的最终目标,是在十年之内,结束网上的审查制度。

Troll是一种源于北欧神话的怪物,体型巨大,头脑简单,暴力嗜血。在暴雪公司的大型网游《魔兽世界》中,“巨魔种族”的英文即为Troll。

登月级别计划(Moonshot)

谷歌对网络暴力的技术性反击

原谷歌的智库,今年2月改名为“拼图”,Jigsaw的一种词义就是指拼图,也可以用来表示“错综复杂”的形势。

我们都知道谷歌公司有一句著名的口号,叫不作恶,“Don’t be
evil”。“拼图”组织启动的这项计划,也说明谷歌公司已经不仅仅满足于他们原来说的“不作恶”了,他们想要做好事。

那这种方式对于应对网络暴力是不是有效呢?按照文章作者亲身体验,貌似还挺有效的。人工智能对话的程序有个0~100的打分机制,来确定用户输入的,是不是侮辱性的言论,一句话的侮辱越高,分数就越高。比如说你输入:怎么样,混球?63分。如果输入:你是个混球,你不是个东西。程序显示96分,判定为侮辱性言论,识别率还是挺高的。而且谷歌打算把这项技术,做一个开源,就是任何人都可以应用这样的模型,然后进行开发。以后效率和准确度还会提高。

今天给您分享来自美国《连线》杂志的一篇报道。咱们之前讲过的《哈佛商业评论》、《经济学人》、《快公司》,都是领域清晰、个性鲜明的顶尖刊物,而《连线》杂志也是中国人相对比较熟悉的。这是一本科技类的杂志,被誉为“极客的圣经”
,它关注的是科学技术应用于现代和未来人类生活的各个方面,并对文化、经济和政治产生影响。

今天说的虽然不是本期的封面文,却是一篇内容很棒的专题报道,说的是谷歌公司在酝酿的,一个对抗网络审查和暴力的计划,很值得一讲。

Moonshot也就是登月,在谷歌内部把所有疯狂甚至听起来很夸张,要花费大量时间和精力的计划,叫做“登月级别”项目。比如谷歌眼镜、无人驾驶汽、模块化手机之类的,都是“登月级”的项目,而拼图“登月级项目”的最终目标,是在十年之内,结束网上的审查制度。

其实这种“网络暴力”现象,我们中国人并不陌生,只是在我们这儿对这些“网上暴力”分子,不叫“网络巨魔”,有别的称呼,比如“键盘侠”之类的。

发表评论

电子邮件地址不会被公开。 必填项已用*标注

网站地图xml地图