p站动图提取器,p站图片查找器
前不久公司讨论了审计黄的问题,对接了一些厂商提供的审计黄服务。因为公司本身涉及音视频领域,对法医检验的需求很大。同时具有“好好学习,天天向上”的精神。我自己也想尝试和黄色有关的东西。我的同事也提出了开源库。对了,我知道。
当然,我这么做纯粹是出于求知欲和好奇心。我绝对不知道什么优雅的香水,亮亮的手套,xldkh,Matsue Ohkubo,Aoi sora,wydws,dzdtn等等。是为了学习。嗯~是学习用的!
请勿点击
请在开始前了解一下“NSFW”。“NSFW”的意思是“工作不安全”,不适合工作场所。(嗯~也就是说不适合上班看……)雅虎的判断色情的开源模式。
https://github.com/Yahoo/open _ nsfw
它通过Caffe模型进行训练,主要区分恐怖、血腥、色情图像。
快速启动
虽然使用方法是在项目的markdown中引入的,但它可以通过简单的Docker点击来启动。可以直接去github看用法。
docker build-t caffe:CPU https://raw . github用户content.com/bvlc/caffe/master/docker/CPU/docker文件
是啊,当然。无法访问。提出假地址。那么,就只能选择其他方案了。
自安装失败。未成功安装Caffe环境。国外环境几乎都是Ubuntu,国内环境都是CentOS。尝试n次。放弃吧!
之后我找到了Tensorflow-nsfw的版本。
https://github.com/mdietrichstein/tensor流-开放_ nsfw
目前支持Python3.6和tensorflow 1.12。通过了相关测试。请仔细测试其他版本。尽量选择同一个版本。
如果下载环境正常,可以直接通过
python classify _ nsfw . py-mdata/open _ nsfw-weights.npytest.jpg
进行测试。请注意,目前仅支持jpeg图像。
结果为“test.jpg”的sfw分数:0.935576177177429 nsfw分数:0.200001
NSFW分数是指被认定为不适合工作场景的分数。总体来说是10分。分数越高,图像越不适合工作场景。
试验
老实说,图像很难找到。特别是我,找不到任何评分在8分以上的图片。我用搜索引擎找了几张图片,个人认为会在8分以上。但结果是。
苍老师
T1级(一种通讯线路的名称)
t2。
t3。
结果分数
但是,计算结果还是违背了强者的意愿!
结果
以最终结果来看,由于本人“知识积累有限”,可能很难得到8分以上的图像。只能希望大家能给我启发。是啊,我知道。试试nsfw的实际识别效果!请告诉我分数在8分以上的地方。谢谢大家!