网络资源收集工具详细设计文档

1.引言

1.1编写目的

将之前会议中记录的设计要点进行总结和规划,供团队内开发者和测试人员进行代码编写与测试。

1.2项目背景

软件名: 网络资源收集工具

本软件任务:为下一组元数据抽取和整理工具进行对接,为下一组提供其所需的各类海量数据。

2.总体设计

2.1需求概述

将35w+个符合条件的网页,问答,文章放入数据库,具体请参见需求文档。

2.2软件结构

3.程序块ConnectServer描述

3.1功能

连接数据库服务器,进行插入以及查询数据库操作。

3.2性能

快速打开和关闭数据库连接,执行sql查询和插入时不会出现连接死锁。

3.3输入输出项目


程序


input


processing


output


dbConn


初始化数据库连接


数据库连接结果


dbClose


断开数据库连接


断开数据库连接结果


dataset


数据库查询SQL语句


执行sql查询


查询结果


getSum_webpage


执行sql查询


全部网页个数


getSum_quiz


执行sql查询


全部问答页个数


getSum_pdf


执行sql查询


全部pdf个数


update


数据库查询SQL语句


互斥更新数据库


更新结果


idNumber


执行sql查询


数据库最大ID号

3.4算法

Sql语句有:

1、得到全部网页个数

declare @a int select @a=dbo.getSum_webpage(‘webpage‘) select [email protected]

2、得到全部问答页个数

declare @a int select @a=dbo.getSum_quiz(‘quiz‘) select [email protected]

3、得到全部pdf个数

declare @a int select @a=dbo.getSum_pdf(‘pdf‘) select [email protected]

4、获取数据库最大ID号

select max(id) from fileinfo

3.5程序逻辑

3.6接口

3.7测试要点

SQLException的捕获

异步更新的互斥性

查询的准确性

4.程序块HtmlParserTool描述

4.1功能

过滤并获取指定网址的子链接,同时更新网站子链接的修改时间。

4.2性能

能快速地过滤并获取指定网址的子链接,同时获得网站子链接的修改时间。

4.3输入输出项目


程序


input


processing


output


extracLinks


网址url,过滤器filter


爬取得到url的所有子链接,并且根据过滤器filter对得到的子链接进行过滤。


爬取并过滤的结果


extracherftext


网址url


获得该网址子链接的修改时间


获得的修改时间

4.4算法

利用OrFilter筛选出所有 <a> 标签和 <frame> 标签(满足两者之一即可被选中),再利用标签类别过滤(LinkTag.class => <a>标签)。本程序中,过滤了后缀为"mp4","rar","wmv","ppt","zip","gz","aspx"的文件。

4.5程序逻辑

4.6接口

4.7测试要点

指定一个链接,其子链接中有各种指定的需要过滤的类型,使用程序进行爬取,查看是否如预期一般爬取了所有的子链接并且将指定类型文件过滤掉未爬取。

5.程序块DownLoadFile描述

5.1功能

实现精确爬取指定的链接,从该链接及其所有子链接中将指定类型的文件下载到本地,并更新数据库。

5.2性能

采用多线程爬取,对于不同网站,采用不同爬取措施,少量国外网站因为网路问题和权限问题需要通过暂停线程避免异常,大部分网站可以实现快速爬取。而且此次版本解决了因为异常造成的线程中断的问题,可以持续不断地大量爬取。

5.3输入输出项目


程序


input


processing


output


DownLoadFile


网站链接和过滤器


初始化爬取线程


生成新的爬取线程


run


执行爬取线程


爬取线程执行结果


getFileNameByID


文件在数据中的id号和网站类型


根据id计算网站在本地和数据库存取的文件名


生成网站在本地和数据库存取的文件名


getFileNameByUrl


网址和网站类型


根据url计算网站在本地和数据库存取的文件名


生成网站在本地和数据库存取的文件名


saveToLocal


暂存网站内容的数组和存在本地的路径


将网站内容存在指定路径的文件中


将网站存进本地中

5.4算法

根据输入的url,爬取该网址下所有子链接,对于爬取到的文件,符合过滤器条件的则滤去,不符合的则下载到本地并以指定的方式命名,同时插入数据库。

每个网站的爬取占用一个线程,因为不同网站结构和下载速度不同,故将同一网站的爬取放在同一个线程。每个线程扫描一个问题列表页面的子链接,并下载子页面。每个线程设定一个标记变量,代表当前网站正在爬取中或者处于空闲。爬取某个网站遇到异常,或者当前线程结束,就将标记变量置为空闲状态,这样做解决了多次遇到异常后,所有网站仍处于工作状态导致爬取无法继续的bug。

5.5程序逻辑

5.6接口

5.7测试要点

爬取是否会中断,中断后是否有重连措施;

爬取的速度;

本地文件与数据库的一致性。

SQLException, HttpException, IOException的捕获;

异步更新的互斥性;

6.程序块DownloadQuiz描述

6.1功能

实现精确爬取quiz界面,从特定网站中筛选出相应的问答页面,下载到本地,并更新数据库。

6.2性能

采用多线程爬取,对于不同网站,采用不同爬取措施,少量国外网站因为网路问题和权限问题需要通过暂停线程避免异常,大部分网站可以实现快速爬取。而且此次版本解决了因为异常造成的线程中断的问题,可以持续不断地大量爬取。

6.3输入输出项目


程序


input


processing


output


DownloadQuiz


网站链接和代表网站种类的编号


初始化爬取所需数据


生成新的爬取线程


run


执行爬取线程


爬取线程结束


DataBase


下载的网站的链接和下载到本地的位置


确定网站信息并执行sql语句更新数据库


更新刚下载的文件在数据库中的信息


getFileNameByID


文件在数据中的id号和网站类型


根据id计算网站在本地和数据库存取的文件名


生成网站在本地和数据库存取的文件名


getSum_quiz


执行sql查询


全部问答页个数


saveToLocal


暂存网站内容的数组和存在本地的路径


将网站内容存在指定路径的文件中


将网站存进本地中

6.4算法

1.选择国内外知名问答网站:搜搜问问,百度知道,stackoverflow,德问,博客园等。确定这些网站的”已解决问题“列表。

2.扫描”已解决问题列表“,根据字符串匹配,确定列表下的问答子页面的链接。调用URL类的openstream方法,下载问答页面源代码。

3.多线程方面,每个网站的爬取占用一个线程,因为不同网站结构和下载速度不同,故将同一网站的爬取放在同一个线程。每个线程扫描一个问题列表页面的子链接,并下载子页面。每个线程设定一个标记变量,代表当前网站正在爬取中或者处于空闲。爬取某个网站遇到异常,或者当前线程结束,就将标记变量置为空闲状态,这样做解决了多次遇到异常后,所有网站仍处于工作状态导致爬取无法继续的bug。

6.5程序逻辑

6.6接口

6.7测试要点

SQLException, HttpException, IOException的捕获;

异步更新的互斥性;

线程的安全性与健壮性,爬取是否会中断;

爬取的速度;

本地文件与数据库的一致性。

7.程序块DownloadPdf描述

7.1功能

实现精确爬取pdf页面,从给定网站中筛选出pdf页面,下载到本地,并更新数据库。

7.2性能

由于服务器网速限制,采用多线程的方式对速度基本没有改善,故采用单线程爬取,对于不同网站,采用不同爬取措施,对于1M以内的pdf页面可以实现快速爬取。

7.3输入输出项目


程序


input


processing


output


DownloadPdf


网站链接


初始化爬取所需数据


爬取结果


run


执行爬取一般pdf


爬取结束


runForBerkeley


执行爬取伯克利publication操作


爬取结束


DataBase


下载的网站的链接和下载到本地的位置


确定网站信息并执行sql语句更新数据库


更新刚下载的文件在数据库中的信息


getFileNameByID


文件在数据中的id号和网站类型


根据id计算网站在本地和数据库存取的文件名


生成网站在本地和数据库存取的文件名


getSum_pdf


执行sql查询


全部问答页个数


saveToLocal


暂存网站内容的数组和存在本地的路径


将网站内容存在指定路径的文件中


将网站存进本地中

7.4算法

1.选择国内外知名大学课程网站:stanford、berkeley、buffalo、MIT等等。

2.扫描各个大学网站的课程网站页面,获取lecture、handout、publications等链接,将符合条件的pdf下载到本地。

3.下载文件方面需要使用输入输出流,不能逐行复制网页源代码。

7.5程序逻辑

7.6接口

7.7测试要点

SQLException, HttpException, IOException的捕获;

爬取的速度;

本地文件与数据库的一致性。

8.程序块DownloadDoc描述

8.1功能

实现精确爬取doc页面,从给定网站中筛选出doc页面,下载到本地,并更新数据库。

8.2性能

由于服务器网速限制,采用多线程的方式对速度基本没有改善,故采用单线程爬取,对于不同网站,采用不同爬取措施,对于1M以内的pdf页面可以实现快速爬取。

8.3输入输出项目


程序


input


processing


output


DownloadDoc


网站链接


初始化爬取所需数据


爬取结果


run


执行爬取doc


爬取结束


DataBase


下载的网站的链接和下载到本地的位置


确定网站信息并执行sql语句更新数据库


更新刚下载的文件在数据库中的信息


getSum_doc


执行sql查询


全部doc个数


saveToLocal


暂存网站内容的数组和存在本地的路径


将网站内容存在指定路径的文件中


将网站存进本地中

8.4算法

1.选择国内外知名大学课程网站:stanford、berkeley、buffalo、MIT等等。

2.扫描各个大学网站的课程网站页面,获取lecture、handout、publications等链接,将符合条件的doc下载到本地。

3.下载文件方面需要使用输入输出流,不能逐行复制网页源代码。

8.5程序逻辑

8.6接口

8.7测试要点

SQLException, HttpException, IOException的捕获;

爬取的速度;

本地文件与数据库的一致性。

9.程序块DownloadPPt描述

9.1功能

实现精确爬取ppt页面,从给定网站中筛选出ppt页面,下载到本地,并更新数据库。

9.2性能

由于服务器网速限制,采用多线程的方式对速度基本没有改善,故采用单线程爬取,对于不同网站,采用不同爬取措施,对于1M以内的pdf页面可以实现快速爬取。

9.3输入输出项目


程序


input


processing


output


DownloadPPt


网站链接


初始化爬取所需数据


爬取结果


run


执行爬取ppt


爬取结束


DataBase


下载的网站的链接和下载到本地的位置


确定网站信息并执行sql语句更新数据库


更新刚下载的文件在数据库中的信息


getSum_ppt


执行sql查询


全部ppt个数


saveToLocal


暂存网站内容的数组和存在本地的路径


将网站内容存在指定路径的文件中


将网站存进本地中

9.4算法

1.选择国内外知名大学课程网站:stanford、berkeley、buffalo、MIT等等。

2.扫描各个大学网站的课程网站页面,获取lecture、handout、publications等链接,将符合条件的ppt下载到本地。

3.下载文件方面需要使用输入输出流,不能逐行复制网页源代码。

9.5程序逻辑

9.6接口

9.7测试要点

SQLException, HttpException, IOException的捕获;

爬取的速度;

本地文件与数据库的一致性。

10.程序块LinkQueue描述

10.1功能

管理所有待访问和已访问的网址链接,并服务于PageRank排序,并能产出TOP10个最热网页。

10.2性能

队列可以承受足够数量的网址存储空间,出队与入队可以快速完成,使用hash表加速到O(1)的查询复杂度。

10.3输入输出项目


程序


input


processing


output


getUnVisitedUrl


获得RankUrl队列


未访问需排名链接


getTagtext


获得tag表


所有tag


addVisitedUrl


已访问url


添加url到访问过的URL队列中


查询结果


addSeedUrl


未访问url


添加url到未访问的URL队列中


添加结果


unVisitedUrlDeQueue


未访问的URL出队列


添加结果


addUnvisitedUrl


要访问的链接和刚刚访问的链接


记录刚刚访问的链接的子链接并将要访问的链接入队


添加结果


getVisitedUrlNum


获得已经访问的URL数目


查询结果


unVisitedUrlsEmpty


判断未访问的URL队列中是否为


查询结果


getUrlsScores


使用PageRank算法计算Url的重要性排序


获得Url的重要性排序


getTopRankUrls


获得排序top10以内的Url和分数


获得排序top10以内的Url和分数

10.4算法

核心思想有2点:

1.如果一个网页被很多其他网页链接到的话说明这个网页比较重要,也就是pagerank值会相对较高;

2.如果一个pagerank值很高的网页链接到一个其他的网页,那么被链接到的网页的pagerank值会相应地因此而提高。

下面是一张来自WikiPedia的图,每个球代表一个网页,球的大小反应了网页的pagerank值的大小。指向网页B和网页E的链接很多,所以B和E的pagerank值较高,另外,虽然很少有网页指向C,但是最重要的网页B指向了C,所以C的pagerank值比E还要大。

10.5程序逻辑

10.6接口

10.7测试要点

海量数据承受力。

获取待访问网址速度。

热度排序准确性。

11.程序块Keyword描述

11.1功能

过滤符合过滤条件的网页。

11.2性能

过滤速度稳定。

11.3输入输出项目


程序


input


processing


output


getText


网址链接url


获取此URL对应网页的纯文本信息


网页的纯文本信息


accept


URL对应网页的纯文本信息


给出指定URL是否符合过滤条件


是否符合过滤条件

11.4算法

若页面中不含关键词则满足过滤条件。

11.5程序逻辑

11.6接口

11.7测试要点

获取网页纯文本速度。

关键词筛选是否准确。

12.程序块MyCrawler描述

12.1功能

通用型爬取、聚集型爬取、综合型爬取、问答页爬取、pdf爬取、doc爬取、ppt爬取功能的入口。

12.2性能

海量数据爬取速度可以接受。

问答页筛选的准确性。

12.3输入输出项目


程序


input


processing


output


initCrawlerWithSeeds


种子网址链接


使用种子初始化 URL队列


初始化结果


STCrawling


种子网址链接


抓取stackoverflow页面


抓取结果


CNCrawling


种子网址链接


抓取q.cnblogs页面过程


抓取结果


DWCrawling


种子网址链接


抓取dwen页面过程


抓取结果


BZCrawling


种子网址链接


抓取zhidao.baidu页面过程


抓取结果


WWCrawling


种子网址链接


抓取wenwen页面过程


抓取结果


QuizCrawling


种子网址链接


抓取问答页面过程


抓取结果


pdfCrawling


种子网址链接


抓取pdf过程


抓取结果


docCrawling


种子网址链接


抓取doc过程


抓取结果


pptCrawling


种子网址链接


抓取ppt过程


抓取结果


crawling


种子网址链接


通用型抓取过程


抓取结果


setKeyword


关键字


设置关键字


设置结果


main


命令行参数


整个项目入口

12.4程序逻辑

12.5接口

12.6测试要点

FileNotFoundException、IOException、InterruptedException、InstantiationException、IllegalAccessException、UnsupportedLookAndFeelException的捕获

爬取是否会中断,中断后是否有重连措施;

爬取的速度需要稳定;

本地文件与数据库的一致性。

13.数据库SQL Server描述

13.1功能

通过管理数据库表[yuanhang].[dbo].[fileinfo]为下一组提供其所需的各类海量数据的查询服务。

13.2性能

数据查询和插入的速度可以接受。

13.3数据库基本表的定义


数据组名:fileinfo 文件信息


数据项名


数据类型


数据宽度


允许空值否


值约束


[id]网页id


int


11




[myUrl]域名


nvarchar


max




[filepath] 文件存储路径


nvarchar


max




[encode]

编码方式


nchar


10




[pagetype]

网页类型


nchar


10




[lastcrawlertime] 最后被爬到的时间


datetime


25




[freshtime]

更新时间


datetime


25




[keywords]关键词


text




[tag] 标签


text




[host] IP地址


nvarchar


max



13.4标量值函数设计

1.dbo.getSum_doc

得到所有doc的数目

USE [yuanhang]

GO

/****** Object:  UserDefinedFunction [dbo].[getSum_doc]    Script Date: 01/13/2015 18:00:51 ******/

SET ANSI_NULLS ON

GO

SET QUOTED_IDENTIFIER ON

GO

create function [dbo].[getSum_doc] (@a nchar(10))

returns int

as begin

if((select COUNT(pagetype) from fileinfo where pagetype=‘doc‘)!=0)

begin

return (select COUNT(pagetype) from fileinfo where pagetype=‘doc‘)

end

return 0

end

2.dbo.getSum_pdf

得到所有pdf的数目

USE [yuanhang]

GO

/****** Object:  UserDefinedFunction [dbo].[getSum_pdf]    Script Date: 01/13/2015 18:03:40 ******/

SET ANSI_NULLS ON

GO

SET QUOTED_IDENTIFIER ON

GO

create function [dbo].[getSum_pdf] (@a nchar(10))

returns int

as begin

if((select COUNT(pagetype) from fileinfo where pagetype=‘pdf‘)!=0)

begin

return (select COUNT(pagetype) from fileinfo where pagetype=‘pdf‘)

end

return 0

end

3.dbo.getSum_ppt

得到所有ppt的数目

USE [yuanhang]

GO

/****** Object:  UserDefinedFunction [dbo].[getSum_ppt]    Script Date: 01/13/2015 18:03:55 ******/

SET ANSI_NULLS ON

GO

SET QUOTED_IDENTIFIER ON

GO

create function [dbo].[getSum_ppt] (@a nchar(10))

returns int

as begin

if((select COUNT(pagetype) from fileinfo where pagetype=‘ppt‘)!=0)

begin

return (select COUNT(pagetype) from fileinfo where pagetype=‘ppt‘)

end

return 0

end

4.dbo.getSum_quiz

得到所有quiz的数目

USE [yuanhang]

GO

/****** Object:  UserDefinedFunction [dbo].[getSum_quiz]    Script Date: 01/13/2015 18:04:07 ******/

SET ANSI_NULLS ON

GO

SET QUOTED_IDENTIFIER ON

GO

create function [dbo].[getSum_quiz] (@a nchar(10))

returns int

as begin

if((select COUNT(pagetype) from fileinfo where pagetype=‘quiz‘)!=0)

begin

return (select COUNT(pagetype) from fileinfo where pagetype=‘quiz‘)

end

return 0

end

5.dbo.getSum_webpage

得到所有webpage的数目

USE [yuanhang]

GO

/****** Object:  UserDefinedFunction [dbo].[getSum_webpage]    Script Date: 01/13/2015 18:04:19 ******/

SET ANSI_NULLS ON

GO

SET QUOTED_IDENTIFIER ON

GO

create function [dbo].[getSum_webpage] (@a nchar(10))

returns int

as begin

if((select COUNT(pagetype) from fileinfo where pagetype=‘webpage‘)!=0)

begin

return (select COUNT(pagetype) from fileinfo where pagetype=‘webpage‘)

end

return 0

end

13.5触发器设计

为了防止数据库中出现具有重复域名的网页,需要在每次插入数据时设置触发器使得每次插入的数据中的域名不会与数据库中任意一项相同。

SET ANSI_NULLS ON

GO

SET QUOTED_IDENTIFIER ON

GO

-- =============================================

-- Author:    <LYP>

-- Create date: <2014.12.27>

-- Description:

-- =============================================

CREATE TRIGGER tgr_classes_insert_yuanhang

ON  [yuanhang].[dbo].[fileinfo]

AFTER INSERT

AS

BEGIN

-- SET NOCOUNT ON added to prevent extra result sets from

-- interfering with SELECT statements.

declare @id int , @name nvarchar(MAX);

--在inserted表中查询已经插入记录信息

select @id = [id] , @name = [myUrl] from inserted;

delete from [yuanhang].[dbo].[fileinfo]

where [myUrl] in (select [myUrl] from [yuanhang].[dbo].[fileinfo] where [myUrl] = @name group by [myUrl])

and [id] not in (select min([id]) from [yuanhang].[dbo].[fileinfo] where [myUrl] = @name group by [myUrl]) ;

END

13.6测试要点

数据库中是否存在myUrl列值重复的元组

插入和查询数据的速度

本地文件与数据库的一致性。

时间: 2024-08-04 15:09:35

网络资源收集工具详细设计文档的相关文章

网络资源收集工具概要设计文档

1.引言 1.1编写目的 将之前会议中记录的设计要点进行总结和规划,供团队内开发者和测试人员进行代码编写与测试. 1.2项目背景 软件名: 网络资源收集工具 本软件任务:为下一组元数据抽取和整理工具进行对接,为下一组提供其所需的各类海量数据. 2.任务概述 2.1目标 总的目标是编写一个更快捷,更稳定的爬虫软件,维护并改善学长的代码并在其基础上进行完善创新. 分开来讲有学长代码规范的编写,学长遗留BUG的修复,多个种子链接功能的添加,广告过滤功能的优化,暂停爬取功能的实现,关键词筛选功能的添加与

javadoc简易数组工具类文档(API)

制作简易数组工具类文档(API) 如何创建文档 以数组工具类(Array)为例一丶创建一个数组工具类  要求实现(1)遍历数组(2)求数组中的最大值(3)查询数组中的元素在数组中第一次出现的索引(4)将数组元素翻转并遍历 /** * 这是数组的一个工具类 * @author Apple * @version V1.0 * */ public class Array{  private Array(){ //将无参构造私有化,无法实例化  }    /**遍历数组  * @param arr :需

数据字典生成工具之旅(2):数据字典生成工具及文档工具作用介绍

上一篇介绍完了整个架构和功能,这一篇将更加详细介绍功能和操作,将会以实际例子帮助理解!(预告:下一篇正式进入实现原理讲解) 阅读目录 开始使用工具 工具全景图 工具源代码下载 学习使用 回到顶部 开始使用工具 日常工作你是通过什么工具来创建表的呢? 1.通过SqlServer自带的新建表的功能实现,或者直接写Create Table(.....)语句.能更加便捷的方式创建吗?这样创建的表便于后续维护和学习吗? 2.通过PowerDesign创建表,很直观,然后导出表的创建语句.模拟一下做学生信息

软工后续工作——增加数据库(详细设计文档4.0)

说明:主要改动就是在3.0的基础上增加了部分游戏数据库. 由于图片不能复制过来,源文档可进入github博客中查看https://github.com/momo23333/Alicization/tree/Zhang 下面为纯文本复制粘贴的内容: 详细设计文档 项目名称:英雄达拉崩吧 小组名称:Scientific_ZEAL软工小分队 项目负责人:刘帅 小组成员:房渤萱 张赐 宋从智 冯惠妍 1.   引言 1.1编写目的 本部分旨在阐明编写详细设计的目的,面向读者对象. 本文档主要描述各个模块

银企支付-详细设计文档

目录 银企支付-详细设计文档 1.定义说明 2.借款单 3.报销单 4.银企互联 5.执行流程日志 6.监控 7.差错处理 8.数据库设计 银企支付-详细设计文档 本文介绍企业在借款单,报销单走银企支付流程时的详细设计.本文重点介绍整个流程需要关注的细节点,在最终实现时,对于数据表具体字段,不做介绍. 1.定义说明 报销金额:申请报销人,填写的当次需要报销的总金额. 借款金额:申请借款人,填写的当次需要借款的金额. 核销金额:指在报销时,本身又存在借款金额未还时,报销中,自动还款的金额,称为核销

树屋详细设计文档

目    录 1. 引言... 3 1.1 编写目的和范围.. 3 1.2 术语表... 3 1.3 参考资料... 4 1.4 使用的文字处理和绘图工具... 4 2. 全局数据结构说明... 4 2.1 常量... 5 2.2 变量... 5 2.3 数据结构... 5 3. 模块设计... 8 3.1 用例图... 8 3.2 功能设计说明... 9 3.2.1 模块1. 10 3.2.2 模块2. 16 4. 接口设计... 26 4.1 内部接口... 26 4.2 外部接口... 2

RTX消息提醒工具设计文档

为什么要做 项目上线后,系统依然由各业务模块负责人自己维护.而后台运行的各种业务服务结果,不能及时反馈到业务负责人.而等到客户反馈时则会太被动.为了能及时发现并解决项目问题,设计了该工具. 可利用资源 1.公司内不能连接外网,沟通主要使用RTX.可以提供RTX服务器信息 2.公司内可以直接连到生产环境. 怎么做1.软件结构图 2.时时获取服务日志 开发环境可以直接连接到生产环境,则可以通过一个独立线程定时获取错误日志信息.错误日志信息包括:错误模块,错误描述.3.配置RTX与业务模块的关系 RT

自制桌面小工具——石墨文档自动索引

现在线上协作大多需要使用诸如石墨文档或云协作这样的协同工具. 进行社群运营工作时,由于文档太多,各人建立文件夹的方式又难以统一,因而产生文件多而乱的问题. 为了快速地找到文件,除了使用石墨本身自带的搜索功能外,还可以对某一个目录下的全部文件生成索引. 索引的格式如: 目录一 链接一 子目录A 链接A 文件1 链接1 文件2 链接2 子目录B 链接B 文件3 链接3 文件4 链接4 如需使用该产品,请评论回复你的邮箱. 现有git源码版及win版exe可提供. 原文地址:https://www.c

iTOP-4412开发板-can测试工具使用文档

本文档介绍如何使用 can 工具测试 can. 给用户提供了“can_libs.rar”以及“can_tools.zip”压缩包,分别是 can 工具需要的库 文件和 can 工具二进制文件. 注意开发板需要有 can 模块才能使用正常使用 can 测试工具.本文档适用于 iTOP 所有开 发板. 下面介绍一下测试工具的使用方法. 1 硬件连接 作者测试 can,使用的是两块迅为开发板.两块开发板 can 的连接为“can-A 连接 can- A,B 连接 B”,imx6 的板子是 can 的“