NSFW(Not Suitable for Work)图像深度学习模型Open nsfw model,是雅虎开源的成人图片(不适合工作场合的图片)分辨学习算法, 基于Python编写,遵循BSD 2开源协议。NSFW主要针对真实的色情照片图片,暂时不支持分辨暴力图片,成人文本,卡通和素描图片。NSFW模型使用了Caffe深度学习库和CaffeOnSpark分布式学习框架,已经过预先训练,可给图像出NSFW 0到1的评分.  0.2分表示安全;0.8分表示很有可能属于色情图片。

运行环境需要安装Caffe和 python拓展。使用 classify.py运行NSFW. 保证pycaffe 在PYTHONPATH.下存在。

python ./classify_nsfw.py \ –model_def nsfw_model/deploy.prototxt \ –pretrained_model nsfw_model/resnet_50_1by2_nsfw.caffemodel \ INPUT_IMAGE_PATH

源码下载:https://github.com/yahoo/open_nsfw