SDN第五次上机作业--基于组表的简单负载均衡

0.作业链接

http://www.cnblogs.com/easteast/p/8125383.html

1.实验目的

1、搭建如下拓扑并连接控制器

2、下发相关流表和组表实现负载均衡

3、抓包分析验证负载均衡

2.实验步骤

1.建立以下拓扑,并连接上ODL控制器。
  • tupo

  • 对应端口信息

2.利用ODL下发组表、流表,实现简易负载均衡(提交要求:利用sudo ovs-ofctl dump-flows br0 -O OpenFlow13及 sudo ovs-ofctl dump-groups SW -O OpenFlow13查看的截图)
  • 初始连接后S2,S3流表查看

    可以观察到S2,S3对S1,S4发送的数据是丢弃,即H1到H2,H,3,H4只通过S1->S4的链路

  • 对S1下发组表

    新增3个bucket,将每个bucket的weight设置成相同的权重,代表有相同的优先级,3个bucket的action分别对应将数据包转发到S1的2,3 ,4端口

  • 对S1下发流表

    设置1口进入的数据流跳转至组表内

  • 查看S1组表,流表是否下发成功

  • 对S2,S3下发流表

    原本S2,S3port1与port2皆drop,现在添加两条优先级更高流表,或者覆盖之前的流表使得S2:port1-port2,port2-port1;S3:port1-port2,port2-port1

  • 查看S2,S3下发流表是否成功

  • 对S4下发流表

    这里S4需要下发9条流表

in_port destination output
1 H2 4
2 H2 4
3 H2 4
1 H3 5
2 H3 5
3 H3 5
1 H4 6
2 H4 6
3 H4 6
  • 查看S4下发流表是否成功

3.利用Wireshark验证负载均衡的实现

原文地址:https://www.cnblogs.com/liu424/p/8186001.html

时间: 2024-10-10 08:35:08

SDN第五次上机作业--基于组表的简单负载均衡的相关文章

SDN第五次上机作业

SDN第五次上机作业 实验目的 1.搭建如下拓扑并连接控制器 2.下发相关流表和组表实现负载均衡 3.抓包分析验证负载均衡 实验步骤 1.建立以下拓扑,并连接上ODL控制器. 原文地址:https://www.cnblogs.com/ZHOULR/p/8127854.html

SDN 第五次上机作业

1.搭建如下拓扑并连接控制器 2.下发相关流表和组表实现负载均衡 s1: s2: s3: s4: 3.抓包分析验证负载均衡 s4-eth1: *s4-eth2: s4-eth3 原文地址:https://www.cnblogs.com/deepYY/p/8125670.html

17秋 SDN课程 第五次上机作业

17秋 SDN课程 第五次上机作业 项目地址:https://github.com/Wasdns/new_balance Task of SDN Course, Realizing Load Balancer: New Balance Introduction: This demo introduces a simple load balancer application which schedules traffics based on packet rate. At runtime, the

SDN第四次上机作业

SDN第四次上机作业 实验目的 1.使用图形化界面搭建拓扑如下并连接控制器 2.使用python脚本搭建拓扑如下并通过命令行连接控制器 3.使用任一种方法搭建拓扑连接控制器后下发流表 实验步骤 1.建立以下拓扑,并连接上ODL控制器. 2.利用ODL下发流表,使得h3在10s内ping不通h1,10s后恢复. 3.借助Postman通过ODL的北向接口下发流表,再利用ODL北向接口查看已下发的流表.

SDN第6次上机作业

基于组表的故障恢复 fast failover:执行第一个live的Action Bucket,每一个Action Bucket都关联了一个指定的port或者group来控制它的存活状态.Buckets会依照Group顺序依次被评估,并且第一个关联了一个live的port或者group的Action Bucket会被筛选出来.这种Group类型能够自行改变Switch的转发行为而不用事先请求Remote Controller.如果当前没有Buckets是live的,那么数据包就被丢弃,因此这种G

基于RYU应用开发之负载均衡(源码开放)

编者按:本文介绍的是如何在RYU上通过使用select group 来实现multipath,从而实现流量的调度,完成简单的负载均衡Demo.在OpenFlow13中有group table,可用于实现组播和冗余容灾等功能.实验中还使用了OpenvSwitch的队列queue完成了对链路带宽的保障. 要完成多径传输,那么网络拓扑必然有loop,所以首先要解决由于loop而可能产生的storm,解决方案在<基于SDN的RYU应用开发之ARP代理>文中已经提出. 网络拓扑: ""

基于Nginx反向代理及负载均衡

基于Nginx反向代理及负载均衡 参考:http://nginx.org/en/docs/http/ngx_http_proxy_module.html#proxy_pass 只要没有被启用,默认就是开启的,因为proxy属于nginx内置标准模块,通常实现代理的时候,最核心模块是proxy_pass,用于将用户请求的rui递交至上游服务器的某个URI但这个模块大部分用于location当中,因此要实现将某一URI的访问代理某个上游服务器大致的格式为: location /name/ { pro

LVS详解及基于LVS实现web服务器负载均衡

前言 LVS(Linux Virtual Server)Linux虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.通过LVS提供的负载均衡技术和Linux操作系统可实现一个高性能.高可用的服务器群集,从而以低成本实现最优的服务性能. 集群基础 集群简介 集群(Cluster)是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用

HAProxy详解(三):基于虚拟主机的HAProxy负载均衡系统配置实例【转】

一.基于虚拟主机的HAProxy负载均衡系统配置实例 1.通过HAProxy的ACL规则配置虚拟主机: 下面将通过HAProxy的ACL功能配置一套基于虚拟主机的负载均衡系统.这里操作系统环境为:CentOS release 6.7,HAProxy版本为haproxy-1.4.24,要实现的功能如图: 本实例有一个电商网站服务器群.一个论坛服务器群.一个博客服务器群和默认服务器群,4个服务器群都由多台服务器组成,而4个服务器群又组成了一个应用服务器群组,在每个服务器群的前端有一个基于HAProx