我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士

鉴黄师工作轻松,有意思,但身体要过硬。外界眼中的鉴黄师,是一份令人想入非非的职业。关于鉴黄师的段子层出不穷,“带薪看片”可能是最大的误解。

鉴黄师的工作诞生于20世纪80年代。当时,公安部应“扫黄打非”需求设立这一新岗位。中国第一批鉴黄师以女民警居多。

互联网普及,技术发展演进,对鉴黄师的要求也在不断迭代:从最初的“肉眼鉴黄”,已发展至AI技术鉴别阶段。AI鉴黄师不再需要每天看图,更接近码农工作状态,面对一串串冰冷枯燥的程序代码。

与躲在小黑屋看片的抠脚大汉刻板印象截然不同,AI鉴黄师的要求门槛极高,高学历几乎成为职业标配。

陈宇(化名)2017年从香港科技大学博士毕业,随后入职腾讯安全团队。这支AI鉴黄团队成员不过10人,几乎清一色博士。他们主要工作内容是,打造一套模拟人脑的多模态系统,能够对涉黄的图像、音频、视频等进行AI鉴别。一言以蔽之,鉴黄师的工作不再是“黄图连连看”,更像从事人工智能研究的程序员。

网络信息庞杂,形式多样,鉴别难度增大。AI鉴黄师不仅要具备编程技能,智商过硬,更要深入一线,实时关注行业走向。用陈宇的话说,鉴黄如同谍战。他们时常要潜入黑产群,了解一线,摸清暗语。

据全国“扫黄打非”办公室公布的信息,2020年全国各地“扫黄打非”部门共处置各类网络有害信息1200余万条,查办“扫黄打非”相关网络案件5800余起。

在虚拟世界,AI鉴黄师与看不见的另一端或短兵相接,或遥遥相望,双方从未停止攻守一块叫“人性”的高地。

鉴黄师需要价值观面试

2016年,腾讯的AI鉴黄小分队初步成立。如今,团队已有10人,陈宇是其中一员。团队成员大多是毕业于清华、中科院、华中大等知名高校的博士生。

这些高材生要明白的第一件事,就是团队干的不是“带薪看片”的活儿。起初,团队成员都是男性,后来分工越来越细,女性也开始加入进来。其中一名主要负责声学场景分类的女生,来的时候并不知道工作内容是鉴黄。高知女性从事鉴黄工作,首先需要克服心理障碍。

“一开始有点不好意思,不知如何向朋友介绍职业,但很快就习惯了。在技术人的眼中,看到的不是别的,是各种特征和规律。”该女性成员如是描述自己的心路历程。不用去听,就把声音当成信号,分析语谱图(针对语音数据的频谱分析视图)。那时候,国内鲜少有人做声音鉴黄,在团队合力推出第一版声音鉴黄系统后,她逐渐有了成就感。

鉴黄工作难免有尴尬时刻。一次,团队一名女同事正在工位分析图片,为看得清楚,把图片放大了好几倍,碰巧此时正好有其他部门的同事经过。顿时,空气中都弥漫着窘迫。

应聘者除了技术要过硬,更重要的是要通过价值观考核。腾讯AI鉴黄团队专门设有价值观面试。

“(价值观面试)主要考核应聘者从事这一职业的坚定程度。工作可能会遇到一些诱惑,比如,外部朋友被封号请你帮忙解决,或者一些人联系你去做一些技术漏洞,让你留一些技术后门。你怎么选择?”陈宇介绍。

运营负责人告诉时代周报记者,严格筛选出理念、价值观等大体统一的成员,即使行业疯狂拼抢AI人才,鉴黄团队仍保持基本稳定。

鉴黄工作就像谍战剧

鉴黄是否真的需要一支如此精挑细选的博士团队?答案是肯定的。

网络色情内容的展现形式多种多样,既有静态文字、图片,也有动态的视频、音频,仅通过“肉眼”也不能识别。

时代周报记者了解到,色情黑产高利高企,从业者达上百万人,同样是“高科技人才”“AI技术专家”。他们与鉴黄师的对抗实时发生。

“我们有时候觉得很像谍战剧,双方斗智斗勇,从明显的色情内容对抗,到不易察觉的色情内容对抗,再到AI对抗,这是持续迭代的过程。”陈宇介绍。

说是谍战,并不夸张。此前在各大社交平台频繁出现的“新茶”“喝茶”等内容,文字下方的配图,用显微镜都难以找到的一片茶叶上,是年轻女孩的自拍照。这是色情行业的引流暗语。

一些所谓的“学生群”“培训群”,某个美女头像成员说“网课有位置”。这是组织者向群员发送“我可以约”;“早安”是指早上有时间;“晚会”是说晚上有时间。

陈宇他们时常在这些群卧底。“实时关注行业黑话变化,总得知道他们到底在说些什么。统一收集之后,这些就成了我们算法训练的素材。”陈宇说。

无人工,不智能。这些复杂且隐蔽的色情内容,即便AI,最初也不一定搞得定,需技术人员花大量时间去研究黑产中的具体行为,然后通过人工辅助机器标注、训练、识别。

“模型天天都在学习和训练,关注最近出现的新词、黑话。”陈宇说。

在此过程中,模型也需排除许多干扰。比如,医学中的宫颈糜烂图片、雕塑和油画中的裸露画面。不同场景下,模型界定的标准也需动态调整。

搭建、运行如此一套复杂的AI鉴黄系统,真不是普通人干得了的。目前,即便这支全员博士的小分队,鉴黄准确率也很难达到100%:明显的色情内容可以达到99.99%,轻微人工对抗内容为80%,专业AI对抗在60%左右。

“AI鉴黄技术在文字类和静态图像中的准确率较高,视频类次之,音频类较低。人工智能对软色情的鉴别还有短板。AI鉴黄可以大大减轻人工鉴黄师的工作量,但目前仍有误鉴率。”9月18日,赛迪顾问人工智能产业研究中心高级分析师徐畅告诉时代周报记者。

在陈宇看来,目前已经不再是单纯地音频鉴黄或者视频鉴黄,而是用多模态把信息聚合在一起,模拟人脑思维过程,准确率比单纯的音频或视频鉴别高得多。

AI鉴黄还能扩展应用?

AI技术迅猛发展的今天,科技企业纷纷布局AI鉴黄。

例如成立于2014年的图普科技,成立之初便基于计算机视觉技术搭建云平台推出内容审核服务,用于识别色情、暴恐、时政敏感信息及小广告等违规内容;今年6月,阿里巴巴安全部公开招募“AI鉴黄一日体验官”,提供1000元日薪、1T硬盘、1年网盘会员、路费打包,下午茶不限量供应。这一度引发舆论热议。

国外巨头的AI鉴黄走得更早。谷歌在2018年就推出免费AI工具软件,辅助人类鉴黄师对儿童性虐待内容(CSAM)的图像进行分类和鉴别。AI技术发展多年,如何落地真正改变人们生活,始终是科技企业的突破难点,AI鉴黄正是一个不错的应用场景。学术研究需要真正落地去解决社会问题,而不仅是发表在期刊上的“空中楼阁”。

如今,腾讯AI鉴黄团队的技术成果主要运用于腾讯内外部的直播、短视频等公开场景,针对腾讯平台上的公开场景内容,结合用户举报信息进行鉴别,也会通过腾讯云对外输出。

徐畅向时代周报记者介绍,用于AI鉴黄的各类技术,还可应用于安防、交通、金融、商业等多个场景,具体来说,可用于生物特征识别、人脸识别、远程身份认证、公安技侦、AI奢侈品鉴定、笔迹鉴定、电子支付、声纹锁控、语音交互、字幕制作、语音质检等。

IDC全球人工智能支出指南预测,未来4年,全球人工智能相关支出将从2020年的501亿美元增至2024年的1100多亿美元。

2020年,在新冠肺炎疫情的影响下,中国人工智能加速落地,助力抗疫与复工复产。AI技术在病毒基因检测、医疗影像分析等各领域都得到推广普及。艾媒咨询数据显示,2020年中国人工智能行业核心产业市场规模超过1500亿元,预计在2025年超过4000亿元。

在陈宇看来,AI鉴黄可以帮助净化网络环境,是一项科技向善的技术。

“科技向善”这一理念的提出者保罗·米勒曾说,“希望确保技术公司专注于回馈世界,而不仅仅是占领我们的屏幕时间”。【责任编辑/常青】

来源:时代周报

IT时代网(关注微信公众号ITtime2000,定时推送,互动有福利惊喜)所有原创文章版权所有,未经授权,转载必究。
创客100创投基金成立于2015年,直通硅谷,专注于TMT领域早期项目投资。LP均来自政府、互联网IT、传媒知名企业和个人。创客100创投基金对IT、通信、互联网、IP等有着自己独特眼光和丰富的资源。决策快、投资快是创客100基金最显著的特点。

相关文章
我在互联网大厂当鉴黄师:不看黄图敲代码,同事全都是博士
网络鉴黄师的四大苦恼:查起来越来越难,不敢在办公室鉴黄,曾遭朋友质问,对擦边球只能干着急

精彩评论