3个月前,也就是2月份左右吧,Github上出现一个开源项目: Infinite Red, Inc.工作室宣布开源旗下基于tensorflow的tfjs的鉴黄小工具 据说是从15000张图片中 进行机器学习而来的比较聪明的工具,值得一用
NSFW JS 全称为:NotSafe/SuitableForWork 给 NSFW JS 一张图片元素或画布,然后简单地调用 classify,可能会得到如下 5 个分类结果。 绘画(Drawing)——无害的艺术,或艺术绘画; 变态(Hentai)——色情艺术,不适合大多数工作环境; 中立(Neutral)——一般,无害的内容; 色情(Porn)——不雅的内容和行为,通常涉及生殖器; 性感(Sexy)——不合时宜的挑衅内容。
<!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF-8"> <meta name="viewport" content="width=device-width, initial-scale=1.0"> <meta http-equiv="X-UA-Compatible" content="ie=edge"> <title>Document</title> <!-- Load TensorFlow.js. This is required --> <script src="https://cdn.jsdelivr.net/npm/@tensorflow/[email protected]"></script> <!-- Load the NSFWJS library from AWS --> <script src="https://s3.amazonaws.com/ir_public/nsfwjscdn/bundle.js"></script> <!-- For testing: Load from local bundle `yarn scriptbundle` --> <!-- <script src="../../dist/bundle.js"></script> --> </head> <body> <input type="file" onchange="showImg()" accept="image/*"><br><br> <img id="myImg" src="" width="150" alt="Thumb preview..."> <button onclick="judge()">鉴别</button> <script> function judge() { const nsfwjs = require(‘nsfwjs‘) const img = document.getElementById(‘myImg‘) // Load the model. nsfwjs.load().then(model => { // Classify the image. model.classify(img).then(predictions => { console.log(‘Predictions‘, predictions) }) }) } function showImg() { var demoImage = document.querySelector(‘img‘); var file = document.querySelector(‘input[type=file]‘).files[0]; var reader = new FileReader(); reader.onload = function (event) { demoImage.src = reader.result; } reader.readAsDataURL(file); console.log(file) } </script> </body> </html>
原文地址:https://www.cnblogs.com/kunyashaw/p/10896355.html
时间: 2024-10-12 06:43:19