工资虽高,但伤身体,我想辞职!网友:去哪应聘?
2019年09月18日 由 sunlei 发表
574618
0
前不久,正值B站成立10周年之际,为广大粉丝发放了一次福利:B站过审了一条大尺度视频,某双马尾LO娘up主边跳舞边脱衣服,直到最后在光天化日的大街上裸舞……
只不过愉快的时光总是特别短暂,视频在发布不到几分钟后就立刻被下了,这个id也在b站消失。很多网友纷纷表示,b站舞蹈区的审核真的神奇,甚至发个mmd的纸片人都审核不过,结果全裸宅舞居然过了。投稿不通过以后都跑去舞蹈区投就好了。
性话题在中国文化里一直是一个禁区,长久以来,谈性色变的恐慌让国人对性讳莫如深。随着互联网的发展,每天上传网络的色情暴力信息都以亿万计,魔高一尺,道高一丈。随着各种管控日渐严格,越来越多的平台意识到要“洗白”,一种看似是宅男福利职业诞生了——鉴黄师。
据悉,一个鉴黄师平均一天要看2万张图,为防止漏网之鱼,经常要三班倒,面对大量黄图鉴定分类,常常身心俱疲。
不开玩笑!99%的人干不了鉴黄师这份工作
去年年末,轻博客产品Tumblr宣布从12月17日开始全面禁止所有色情内容。按理说这根本算不上新闻,而是天经地义的事。但Tumblr不同,尤其是对于中国用户来说,很多人都会将这款产品和“老司机”、“福利”联系在一起。和很多社交媒体不同,Tumblr在色情内容方面的审核标准更低。尤其在“上海陆家嘴”事件发生之前,中国用户不需要科学上网也能登录。
在走投无路之下,有一部分人发现Twitter可以继续他们日常生理需求。换汤不换药,Twitter成了新的网黄聚集地。
某位从事互联网工作的女性表示,在Twitter平台上,她的“好友请求”收件箱里到处都是“嗨”一类的消息和一些过于私人的问题;有时,一些更加大胆的男人会直接给她发送隐私部位图片。
实际上,相信很多女性都曾收到过类似图片。尽管很多人对于什么是网络骚扰及其细节会有不同意见,但有一点大家都一致认同:在未经同意的情况下给某人发送一张涉黄照片,即使对于当事人不能算是一种完全虐待的行为,也是一大失礼和恶心的事。
但若男性不在乎失礼,这种骚扰又该如何应对呢?
网络“鉴黄师”作为社交媒体的“清道夫”, 为亿万网络用户的网络净土而负重前行,将最肮脏、最恶心的信息阻截在世界之外。
但是他们真的扛得住吗?
如今的Facebook用户已经达到了23.2亿,Twitter的日活也已经稳定在1.34亿左右,随着社交媒体的兴起和发展,互联网上对暴力、冲突、色情的加速作用变得越来越激烈,血腥自残,幼童虐待,恐怖暴乱,淫秽色情,网络“鉴黄师”成为了这个时代最悲伤的职业。
熬夜加班什么的,对于鉴黄师来说,都习以为常,但是因为工作内容的特殊性,他们在工作中要承受巨大精神压力,这导致过度兴奋、抑郁、脂肪肝、高血压.....已经成为鉴黄师中常见的职业病。
为了缓解鉴黄师身心疲惫的工作状态,解决网络上的色情、广告违规等社会问题,人工智能AI鉴黄师即将登场。
这一天还是来了:人工智能或将取代人工鉴黄师
近几年随着人工智能浪潮的兴起,很多实力雄厚的大公司都设计出非常厉害的AI产品。
比如之前大火的人工智能机器人“阿尔法狗”,只经过很短时间的学习,就把全球排名第一的中国围棋冠军柯洁打败
国外媒体就预测过,未来诸如流水线工人,翻译,会计这类重复性和程式化的职业都将被AI机器人所取代。
人的精力是有限的,鉴黄师每天就受困于此。但是AI不一样,通过人工智能,深度学习和大数据样本的技术,他们可以以无休状态投入工作。
在前文提到的Tumblr网站新规发布之后,Tumblr表示将利用AI算法来对色情内容进行筛选,不当内容将被系统自动屏蔽。然而,不少网友在推特上纷纷吐槽Tumblr的AI算法,表示太过呆板,自己发布的许多正规内容都被网站错误禁止,如人体雕塑、艺术画、肉色肌肤的卡通画、裸露的狮子等等,一起来看看这些网友的截图。
有没有不厚道的笑出声来?
Facebook的AI审核也漏洞百出。例如1973年荣获普利策奖的《火从天降》一图,全身赤裸的小女孩在越南战争中逃离汽油弹袭击的照片被AI算法标记出来,被认为是儿童色情,遭到Facebook管理员删除。虽然事后Facebook方面马上恢复了照片并作出澄清,但我们依旧可以看出机器与人的区别。尽管小女孩全身裸露,但没有人会觉得这张反映战争残酷的照片有一丝丝色情的味道,而机器虽智能,却仍旧缺乏理解人类细微差别的能力。
想象很美好,现实很残忍。
种种现象表明,AI技术虽然已经对毒品、枪支和钱币等物品实现了有效的识别,但是面对裸露图片时,它依然不够可靠。
AI鉴黄,路漫漫其修远兮
首先,定义“色情”本是个陷阱。
历史可以追溯到1896年左右,美国最高法院法官波特·斯图尔特(Potter Stewart)在审理著名的“雅各贝利斯诉俄亥俄州”一案时,就如何界定“色情”大挠其头,最后也只能绝望的说:“这些材料就是赤裸裸的色情,可我也不想再劳神费力地去给他们下什么定义了,我这辈子恐怕也很难做到这一点。不过,只要我看见了,我就知道是不是色情。”
机器学习算法也处于同样的窘境,这是Picnix(一家提供定制化AI服务的公司)的首席执行官Brian DeLorge正试图解决的问题。Iris是其产品之一,专门用于检测色情内容的客户端应用程序。正如DeLorge所说,“谁不希望生活中有点色情内容?”他指出另一个问题,色情片可以是很多不同的东西,但色情与非色情图像会共享相似的图像特征。
一张海滩上派对的照片可能被封杀不是因为它上面展现的皮肤比一张办公室的照片更多,而是因为它触碰到色情图像的边缘线了。“这就是为什么很难将图像识别算法训练成一种可广泛应用的解决方案,”DeLorge继续说到,“如果关于“淫秽”的定义对人类来说很困难,那对机器学习技术来也同样如此。”如果人们无法就色情是什么达成一致,那么AI是否有望学习里面的差异呢?
机器在很长时间内,根本不能完全取代人工审核。以Google为例,Google有超过一万名员工充当着搜索结果评估者的角色。这家业界领先的科技巨头仍需雇佣大量的劳动力来改善自身产品,这或许说明了人工智能局限性——机器还很难模拟出普通用户的使用体验,很难理解内容背后的深意,很难作出准确的“人的判断”。
而且,目前机器审核多用于文字内容。如机器检测到含有敏感词汇的内容,会将其删除或向用户发出警告。但对于图片、视频的审核,机器无法像对文字内容一样提取关键词,审核难度较大。在上述的Facebook杀童直播案中,机器就无法根据视频画面去鉴别内容性质。此时,人工审核将发挥其无可替代的作用。
对于Facebook这样拥有20亿用户的大型社交网站,除了人工审核,还有其他两种辅助审核渠道。一方面,Facebook引导用户使用举报功能。用户若发现色情视频、图片等不良信息,可以向平台举报。网站管理员收到信息后,会完成删图或者封号等后续处理。另一方面,Facebook也正在测试人工智能,希望进一步采用机器+人工的审核方法。比如,如果有一张裸体照片此前被删除,那么再次上传时就会被自动删除。
最好的鉴黄手段依然是人+机
目前AI鉴黄最好的应用模式仍然是人工+机器。不管是前期设计模型的标准和实际打标,还是后期人工复核,人的参与都是不可或缺的。
2015年7月的“北京三里屯优衣库事件”,一段时长1分钟的试衣间不雅视频流出,并2个小时内在各大网络平台上迅速完成了过亿的转发量。但目前只有人的头脑拥有足够的“意识”判断这些单独的突发性事件,是否属于“违规”。
已知的、有清晰标准定义的风险,AI都已经能解决了。真正的难点是恶意的突发事件,爆发了就是爆发了,这种情况下,由于之前对该事件或场景缺乏标准的定义,当时要直接给AI及时去处理,是不可能的。
另一种类型就是非常模棱两可的场景,即AI打分在50-99分之间的内容。那些带有主观个人意识或者群体意识的部分,就是需要人工审核的核心部分。
此外,包括特定的体育运动以及国际标准差异等问题,前期模型调整和后期复核标准变化,也需要人工审核的出马。
目前像包括相扑、摔跤、艺术体操甚至游泳等门类的运动,由于穿着较为特殊,一般把这类多媒体作品定性为性感类,经由人工复核,终极目标还是希望能让AI直接分辨出图片上的人是在参加运动比赛。
AI是我们如何看待世界的一个不完美的镜子,就像色情是当两个人独处时的反应一样:它可以说是一种片面性的真理,但却不是整个全貌。
最后,说一句正确但无用的话是,可以想见未来AI鉴黄会占据主流,但这个未来应该以哪个时间节点为基准,谁也无法预料。