计算机网络分类,性能

定义:计算机网络主要是由一些通用的、可编程的硬件互连而成的,而这些硬件并非专门用来实现某一特定目的(例如,传送数据或视频信号)。这些可编程的硬件能够用来传送多种不同类型的数据,并能支持广泛的和日益增长的应用

计算机网络有多种类别:

  1.按照作用范围分类:

   广域网 WAN (Wide Area Network):作用范围通常为几十到几千公里。 城域网 MAN (Metropolitan Area Network):作用距离约为 5 ~ 50 公里。 局域网 LAN (Local Area Network) :局限在较小的范围(如 1 公里左右)。 个人区域网 PAN (Personal Area Network) :范围很小,大约在 10 米左右。

  2.按照使用者分类:

    1.公用网(public network):

      缴纳费用的人都可以使用

    2.专用网(private network):

      为特殊业务工作的需要而搭建的网络

  3.用户如何连入互联网分类

   接入网AN(Access Network) 又叫本地接入网或居民接入网

       接入网是从某个用户端系统到互联网中的第一个路由器(也称为边缘路由器)之间的一种网络。

计算机网络的性能:

  1.性能指标

    速率:比特(bit)是计量单位来源Binary digit 意思是二进制中的一个数,速率是指数据的传输速率也叫data rate和bit rate。通常指额定速率

    带宽:bandwidth指信号具有的频率宽度单位是(赫,千赫等),带宽表示网络中通道传输数据的能力,表示单位世界网络中某信道能通过的最高数据率

    吞吐量:单位时间内通过某个网络(接口,信道)的数据量,受带宽和速率的限制

    时延(delay/latency)指数据从网络的一端到另一端的时间,也叫延迟。

      总时延= 发送时延+传播时延+处理时延+排队时延:

        发送时延也叫传输时延,数据进入节点到传输媒体需要的时间=bit/(bit/s),也就是从第一个开始到最后一个bit发送结束需要的时间。

        传播时延:电磁波在信道中传播而花费的时间

          传播时延 = 信道长度/信号在信道上的传播速率

        处理时延:主机或路由器收到分组时,为处理分组花费的时延

        排队时延:分组在路由器输入输出队列中排队等待处理所经历的时延

      时延带宽积:

        时延带宽积 = 传播时延 X 带宽 (以比特为单位的链路长度)

      返回时间:发送方发送数据起到接收方确认数据

原文地址:https://www.cnblogs.com/beautiful7/p/12411884.html

时间: 2024-10-04 03:05:49

计算机网络分类,性能的相关文章

第七章:利用AdaBoost元算法提高分类性能

本章内容□ 组合相似的分类器来提髙分类性能□应用AdaBoost算法□ 处理非均衡分类问题 7.1基于数据集多重抽样的分类器

《机器学习实战》学习笔记:利用Adaboost元算法提高分类性能

一. 关于boosting算法的起源 boost 算法系列的起源来自于PAC Learnability(直译过来称为:PAC 可学习性).这套理论主要研究的是什么时候一个问题是可被学习的. 我们知道,可计算性在计算理论中已经有定义,而可学习性正是PAC Learnability理论所要定义的内容.另外,在计算理论中还有很大一部分精力花在研究问题是可计算的时候,其复杂度又是什么样的.因此,在计算学习理论中,也有研究可学习的问题的复杂度的内容,主要是样本复杂度 (Sample Complexity)

利用AdaBoost元算法提高分类性能

当做重要决定时,大家可能都会吸取多个专家而不只是一个人的意见.机器学习处理问题时又何尝不是如此?这就是元算法背后的思路.元算法是对其他算法进行组合的一种方式. 自举汇聚法(bootstrap aggregating),也称为bagging方法,是从原始数据集选择S次后得到S个新数据集的一种技术.新数据集和原数据集的大小相等.每个数据集都是通过在原始数据集中随机选择一个样本来进行替换而得到的.在S个数据集建好之后,将某个学习算法分别作用于每个数据集就得到了S个分类器.当我们要对新数据进行分类时,就

机器学习实战笔记-利用AdaBoost元算法提高分类性能

做重要决定时,大家可能都会考虑吸取多个专家而不只是一个人的意见.机器学习处理问题时又何尝不是如此?这就是元算法(meta-algorithm ) 背后的思路.元算法是对其他算法进行组合的一种方式 7.1 基于数据集多重抽样的分类器 ??我们自然可以将不同的分类器组合起来,而这种组合结果则被称为集成方法(ensemblemethod)或者元算法(meta-algorithm).使用集成方法时会有多种形式:可以是不同算法的集成,也可以是同一算法在不同设置下的集成,还可以是数据集不同部分分配给不同分类

机器学习实战第7章——利用AdaBoost元算法提高分类性能

将不同的分类器组合起来,这种组合结果被称为集成方法或元算法(meta-algorithm). 使用集成方法时会有多种形式:(1)可以是不同算法的集成(2)可以是同一种算法在不同设置下的集成(3)数据集不同部分分配给不同分类器之后的集成,等等 接下来介绍基于同一种分类器多个不同实例的两种不同计算方法bagging和boosting 1. bagging 原理:从原始数据集选择S次后得到S个新数据集的一种技术.新数据集和原数据集的大小相等.每个数据集都是通过在原始数据集中随机选择一个样本来进行替换而

利用Adaboost提高分类性能

Adaboost为一种集成算法,是对其他算法进行组合的一种方式. 本文将通过单层决策树分类器建立一个Adaboost优化算法,即利用多个弱分类器构建一个强分类器. 弱分类器:分类器性能比随机猜测要略好,但是也不会好太多. 强分类器:分类器性能比随机猜测好很多. 下面结合代码说明Adaboost算法原理和思路: 单层决策树是一种简单的决策树,仅基于单个特征来做决策. 首先加载简单的训练数据. def loadSimpleData(): dataMat = np.mat( [ [1.0,2.1],

计算机网络分类

1.按地理范围分类 局域网(LAN):连接范围小,用户数少,连接速率高 城域网(MAN):连接距离10-100Km,采用802.6标准,一个MAN通常连接着多个LAN 广域网(WAN):不同城市之间的LAN或MAN互连,距离较远,信息衰减比较严重,一般租用专线 互联网(Internet):全球计算机互连,最大特点是不稳定性,优点是信息量大,传播广

机器学习(利用adaboost元算法提高分类性能)

元算法背后的思路是对其他算法进行组合的一种方式,A from numpy import * def loadSimpData(): datMat = matrix([[ 1. , 2.1], [ 2. , 1.1], [ 1.3, 1. ], [ 1. , 1. ], [ 2. , 1. ]]) classLabels = [1.0, 1.0, -1.0, -1.0, 1.0] return datMat,classLabels def loadDataSet(fileName): #gener

计算机网络的性能