如何通过掩码计算可用的IP数量

假设掩码是28,28也就是28个1。本身掩码是255.255.255.255那么转换成二进制也就是

11111111,11111111,11111111,11111111

那么28个1也就是:

11111111,11111111,11111111,11110000

可变的就只有后面的四个0

也就是2**4=16

还需要减去网关和广播地址,也就是16-2=14那么也就推论出28的子网掩码可用的IP地址是有14个。

原文地址:https://www.cnblogs.com/nul1/p/10140262.html

时间: 2024-10-10 09:52:32

如何通过掩码计算可用的IP数量的相关文章

CIDR简表,子掩码换算表,IP数量查询表

access-list/eigrp等 反掩码计算

access-list/eigrp等 反掩码计算 原则:地址部分,相同的照写,不同的写"0" 反掩码部分,相同的写"0",不同的写"1" 如 172.16.1.0 172.16.2.0 172.16.3.0 172.16.8.0 172.16.9.0 172.16.10.0 172.16.11.0 172.16. 0000 0000 0000 0001 0000 0011 0000 1000 0000 1001 0000 1010 0000 10

php 通过ip获取所在城市地址信息 获取计算机外网ip

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-transitional.dtd"> <html xmlns="http://www.w3.org/1999/xhtml"> <head> <meta http-equiv="Content-

调用淘宝接口有每IP数量/时间限制-负载均衡解决

其实标题不太准确,不过原理是一样. 这里要解决的问题是:调用淘宝接口有每IP数量/时间限制,但是我们的调用量较大,有可能超过这个限制,从而导致可能被淘宝屏蔽一小段时间.为了解决这个问题,我们需要用多个公网ip去掉接口.而实现这一点的最好地方就是在路由器这一级别. 简要做法如下: 1)做一台linux路由器,它负责接受内网对淘宝的调用请求,然后平均分发到多个公网接口.具体是两个步骤:a)使用iptables标记(FWMARK)数据包:b)然后根据这个标记匹配不同的策略路由来分发到不同网卡接口. 2

如何爬取可用的IP代理

上一篇说到对付反爬虫有一个很关键的方法就是使用IP代理,那么我们应该如何获取这些可用的IP代理呢?这里分享一下自己这两天的一些爬取IP代理的心得体会. 1 步骤 1.找到几个提供免费IP代理的网站,获取IP数据源 2.验证对应的IP代理访问出口IP是否跟本机的出口IP一致,得到不一致的IP代理列表 3.根据自身的实验目的验证IP代理的响应速度,进行排序,择优选用 2 具体做法 1.可以上网搜索,有很多,例如西刺.快代理等等 2.可以在这里进行验证 3.这个就根据自身爬虫的需要,看是下载东西还是其

Thread 线程池中可用的线程数量

GetAvaliableThread(out workerThreadCount,out iocompletedThreadCount)   函数居然一次返回了两个变量.线程池里的线程按照公用被分成了两大类:工作线程和IO线程,或者IO完成线程,前者用于执行普通的操作,后者专用于异步IO,比如文件和网络请求,注意,分类并不说明两种线程本身有差别,线程就是线程,是一种执行单元,从本质上来讲都是一样的,线程池这样分类 Thread 线程池中可用的线程数量

[转]聊一聊PV和并发、以及计算web服务器的数量的方法

最近和几个朋友,聊到并发和服务器的压力问题.很多朋友,不知道该怎么去计算并发?部署多少台服务器才合适? 所以,今天就来聊一聊PV和并发,还有计算web服务器的数量 的等方法.这些都是自己的想法加上一些网上的总结,如有不对,欢迎拍砖. 几个概念 网站流量是指网站的访问量,用来描述访问网站的用户数量以及用户所浏览的网页数量等指标,常用的统计指标包括网站的独立用户数量.总用户数量(含重复访问者).网页浏览数量.每个用户的页面浏览数量.用户在网站的平均停留时间等. 网站访问量的常用衡量标准:独立访客(U

python扫描proxy并获取可用代理ip列表

mac或linux下可以work的代码如下: # coding=utf-8 import requests import re from bs4 import BeautifulSoup as bs import Queue import threading import random import re headers_useragents = [] headers_referers = [] headers_referers.append('http://www.google.com/?q=

Python实现爬取可用代理IP

在实现爬虫时,动态设置代理IP可以有效防止反爬虫,但对于普通爬虫初学者需要在代理网站上测试可用代理IP.由于手动测试过程相对比较繁琐,且重复无用过程故编写代码以实现动态抓取可用的代理IP.动态代理IP保存在Json文件中,以供后续具体项目爬虫使用,但所爬取的代理IP是免费IP,所以可能出现当时爬取能用,过一段时间无法使用的情况. 1) 先从西刺代理网站上爬取前10页,速度较快的IP,保存到proxies数组中,其中proxy使用的是requests.get()可直接使用字典格式 1 print(