解决InputStream中数据读取不完整问题

如果你要看这篇文章,希望你对inputStream流的读取已经有所了解。

当需要用到InputStream获取数据时,这时就需要读取InputStream里面的数据了。

InputStream读取流有三个方法,分别为read(),read(byte[] b),read(byte[] b,
int off, int len)。在从数据流里读取数据时,为图简单,经常用InputStream.read()方法。这个方法是从流里每次只读取读取一个字节,效率会非常低。更好的方法是用InputStream.read(byte[] b)或者InputStream.read(byte[] b,int
off,int len)方法,一次读取多个字节。但是这些方法都不能一次性把流中的数据读取完整或不知道有没有读取完整。

遇到上面这个问题,网上有人提出用InputStream.available()方法,这个方法可以在读写操作前先得知数据流里有多少个字节可以读取。需要注意的是,如果这个方法用在从本地文件读取数据时,一般不会遇到问题,但如果是用于网络操作,就经常会遇到一些麻烦。这是因为网络通讯往往是间断性的,一串字节往往分几批进行发送。例如对方发来字节长度100的数据,本地程序调用available()方法有时得到0,有时得到50,有时能得到100,大多数情况下是100。这可能是对方还没有响应,也可能是对方已经响应了,但是数据还没有送达本地。也许分3批到达,也许分两批,也许一次性到达。

如果按下面写,可能就会出错,因为会出现上面说的情况:

    int count = in.available();
    byte[] b = new byte[count];
    in.read(b);

于是网上有人提议改成下面那样:

     int count = 0;
      while (count == 0) {
         count = in.available();
     }
     byte[] b = new byte[count];
     in.read(b);</span></span>

甚至接着提出下面的方法配合着上面用:

     byte[] b = new byte[count];
      int readCount = 0; // 已经成功读取的字节的个数
      while (readCount < count) {
         readCount += in.read(bytes, readCount, count - readCount);
      }

之所以用下面的这段代码可以保证读取count个字节,因为前面说了,read方法读取不到自己想要读取的个数的字节。下面的这段代码没问题,但是上面的那段就有问题了。while循环里面条件搞成count==0,很明显,有时数据分两批发过来时,假如100的数据第一批是20,第二批是80,那下面的方法就只能读取20了,还是不完整啊。也许一时测试没什么问题,但是你InputStream接收数据太快或频繁,这样问题就出来了。

我是真遇到上面说的问题了,最后的解决办法是:

先说下解决思路:接到第一份数据的时候等待0.2秒,之后完整的数据应该会全部发过来。

     byte[] b= new byte[1024];
        int count = 0;
     if(inputStream.available()>0 == false){
      continue;
     }else{
      Thread.sleep(200);
      }
     count = inputStream.read(b);

出现分段过来的时候:第一次inputStream.available()可能为20,但是休眠0.5秒过后执行count=inputStream.read(b);时,输入流应该很完整了,而且不像分成两段时候执行了两次缺失输入流,这里虽然数据是分两段发过来的,但是sleep后面的代码只会执行一次。如果你怕休眠0.2秒时间短接收不完全,可以设置成0.3或0.5。目前我用的这种方法,数据一直能读取完全。

如果有朋友觉得上面方法有想法或疑问,欢迎提出建议,谢谢!

时间: 2024-12-05 10:10:19

解决InputStream中数据读取不完整问题的相关文章

如何解决机器学习中数据不平衡问题

作者:无影随想 时间:2016年1月. 出处:http://www.zhaokv.com/2016/01/learning-from-imbalanced-data.html 声明:版权所有,转载请联系作者并注明出处 这几年来,机器学习和数据挖掘非常火热,它们逐渐为世界带来实际价值.与此同时,越来越多的机器学习算法从学术界走向工业界,而在这个过程中会有很多困难.数据不平衡问题虽然不是最难的,但绝对是最重要的问题之一. 一.数据不平衡 在学术研究与教学中,很多算法都有一个基本假设,那就是数据分布是

TensorFlow中数据读取之tfrecords

关于Tensorflow读取数据,官网给出了三种方法: 供给数据(Feeding): 在TensorFlow程序运行的每一步, 让Python代码来供给数据. 从文件读取数据: 在TensorFlow图的起始, 让一个输入管线从文件中读取数据. 预加载数据: 在TensorFlow图中定义常量或变量来保存所有数据(仅适用于数据量比较小的情况). 对于数据量较小而言,可能一般选择直接将数据加载进内存,然后再分batch输入网络进行训练(tip:使用这种方法时,结合yield 使用更为简洁,大家自己

(蓝牙)网络编程中,使用InputStream read方法读取数据阻塞的解决方法

问题如题,这个问题困扰了我好几天,今天终于解决了,感谢[1]. 首先,我要做的是android手机和电脑进行蓝牙通信,android发一句话,电脑端程序至少就要做到接受到那句话.android端发送信息的代码如下: try { Log.i("Test", "begin saying hello world"); String test = "Hello world, I am james"; outputStream.write(test.get

Android中Json数据读取与创建

一:  Json的特性和在数据交互中的地位就不用说了,直接看案例. 首先在android studio中创建assets文件目录,用于存放Json数据文件,android studio 1.3 默认项目文件目录下是没有assets文件夹的, 所以需要我们进行创建,创建方法如下: 创建好assets文件目录以后,在其目录下创建一个Text.json文件. 二:如何获得assets文件目录下的Json数据: 在eclipse下是:InputStreamReader(getAssets().open(

分批读取文件中数据的程序流程及其C代码实现

一.概述 在实际的软件开发项目中,经常需要处理大量的文件.某些文件中包含了相当多的数据记录数,如作者本人参与过的项目中,一个文件中有好几十万条记录.如果一次性将多条记录读入,则会花费大量的处理时间,且占用大量的内存. 为此,要求对于包含大量数据记录的文件进行分批读取操作,即每一轮读取一定数目的数据记录,待将这些记录处理完成之后,再读取下一批数据.本文介绍分批读取文件中数据的程序流程,并给出了C程序实现. 二.总体程序流程 实现分批读取文件中数据的程序流程如图1所示. 图1 实现分批读取文件中数据

day20 java 语言中的读取写入数据(一)

day20  java 语言中的读取写入数据(一) 一.io概述 io数据流的读写功能,在实际的生活中也很常见,比如文件的上传.下载,日志的自动更新等都与io读写密切相关.io又被分为了读取数据和写入数据两个大的功能.下面就来看看读取数据的几种类. 二.读取数据的几种方式 读取数据被分为了字节流读取数据,和字符流读取数据两种. (一):字符输入流: 1.fileReader类.是字符流读取数据 2.BufferedReader类.带有缓冲流读取数据 (二):字节输入流: 1.FileInputS

分类中数据不平衡问题的解决经验

问题:研究表明,在某些应用下,1∶35的比例就会使某些分类方法无效,甚至1∶10的比例也会使某些分类方法无效. (1)少数类所包含的信息就会很有限,从而难以确定少数类数据的分布,即在其内部难以发现规律,进而造成少数类的识别率低 (2)数据碎片.很多分类算法采用分治法,样本空间的逐渐划分会导致数据碎片问题,这样只能在各个独立的子空间中寻找数据的规律,对于少数类来说每个子空间中包含了很少的数据信息,一些跨空间的数据规律就不能被挖掘出来. (3)不恰当的归纳偏置.许多归纳推理系统在存在不确定时往往倾向

Myeclipse中文件已经上传到服务器目录下,文件也没有被占用,但是页面中无法读取和使用问题的解决方法

这个问题是由于Myeclipse中文件不同步引起的.在Myeclipse中,工程文件是由Myeclipse自动扫描添加的,如果在外部修改了工程目录中的文件但又关闭了自动刷新功能,则会引起文件不同步.此外,在外部没有修改Myeclipse工程中的文件也有可能引起该问题. 解决方法: 有两种解决方法: 1)手动刷新.即在Myeclipse的工程目录中,右键refresh(或者按下F5). 2)配置Myeclipse的选项: a)Myeclipse启动时,刷新workspace,即勾选:window-

Dynamo分布式系统——「RWN」协议解决多备份数据如何读写来保证数据一致性,而「向量时钟」来保证当读取到多个备份数据的时候,如何判断哪些数据是最新的这种情况

转自:http://blog.jqian.net/post/dynamo.html Dynamo是Amazon开发的一款高可用的分布式KV系统,已经在Amazon商店的后端存储有很成熟的应用.它的特点:总是可写(500+ per sec, 99.9% <300ms),并且可以根据需求优化配置(调整RWN模型). 根据CAP原则 (Consistency, Availability, Partition tolerance),Dynamo是一个AP系统,只保证最终一致性. Dynamo的三个主要概