lwip Packet buffers (PBUF) API 操作 集合

struct pbuf *  pbuf_alloc (pbuf_layer layer, u16_t length, pbuf_type type)
 
struct pbuf *  pbuf_alloc_reference (void *payload, u16_t length, pbuf_type type)
 
struct pbuf *  pbuf_alloced_custom (pbuf_layer l, u16_t length, pbuf_type type, struct pbuf_custom *p, void *payload_mem, u16_t payload_mem_len)
 
void  pbuf_realloc (struct pbuf *p, u16_t new_len)
 
u8_t  pbuf_free (struct pbuf *p)
 
void  pbuf_ref (struct pbuf *p)
 
void  pbuf_cat (struct pbuf *h, struct pbuf *t)
 
void  pbuf_chain (struct pbuf *h, struct pbuf *t)
 
err_t  pbuf_copy (struct pbuf *p_to, const struct pbuf *p_from)
 
u16_t  pbuf_copy_partial (const struct pbuf *buf, void *dataptr, u16_t len, u16_t offset)
 
void *  pbuf_get_contiguous (const struct pbuf *p, void *buffer, size_t bufsize, u16_t len, u16_t offset)
 
struct pbuf *  pbuf_skip (struct pbuf *in, u16_t in_offset, u16_t *out_offset)
 
err_t  pbuf_take (struct pbuf *buf, const void *dataptr, u16_t len)
 
err_t  pbuf_take_at (struct pbuf *buf, const void *dataptr, u16_t len, u16_t offset)
 
struct pbuf *  pbuf_coalesce (struct pbuf *p, pbuf_layer layer)
 
struct pbuf *  pbuf_clone (pbuf_layer layer, pbuf_type type, struct pbuf *p)
 
u8_t  pbuf_get_at (const struct pbuf *p, u16_t offset)
 
int  pbuf_try_get_at (const struct pbuf *p, u16_t offset)
 
void  pbuf_put_at (struct pbuf *p, u16_t offset, u8_t data)
 
u16_t  pbuf_memcmp (const struct pbuf *p, u16_t offset, const void *s2, u16_t n)
 
u16_t  pbuf_memfind (const struct pbuf *p, const void *mem, u16_t mem_len, u16_t start_offset) 

官网介绍:http://lwip.nongnu.org/2_1_x/group__pbuf.html

原文地址:https://www.cnblogs.com/suozhang/p/10207170.html

时间: 2024-11-05 17:34:11

lwip Packet buffers (PBUF) API 操作 集合的相关文章

Java API操作HDFS

HDFS是存储数据的分布式文件系统,对HDFS的操作,就是对文件系统的操作,除了用HDFS的shell命令对文件系统进行操作,我们也可以利用Java API对文件系统进行操作,比如文件的创建.删除.修改权限等等,还有文件夹的创建.删除.重命名等等. 使用Java API对文件系统进行操作主要涉及以下几个类: 1.Configuration类:该类的对象封装了客户端或者服务端的配置. 2.FileSystem类:该类的对象是一个文件系统对象,可以利用该对象的一些方法来对文件进行操作,FileSys

HBase API 操作范例

package com.test.hbase.api; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.hbase.*; import org.apache.hadoop.hbase.client.*; import org.apache.hadoop.hbase.util.Bytes; import java.io.IOException; import java.util.ArrayList; imp

HBase 6、用Phoenix Java api操作HBase

开发环境准备:eclipse3.5.jdk1.7.window8.hadoop2.2.0.hbase0.98.0.2.phoenix4.3.0 1.从集群拷贝以下文件:core-site.xml.hbase-site.xml.hdfs-site.xml文件放到工程src下 2.把phoenix的phoenix-4.3.0-client.jar和phoenix-core-4.3.0.jar添加到工程classpath 3.配置集群中各节点的hosts文件,把客户端的hostname:IP添加进去

Hadoop读书笔记(三)Java API操作HDFS

Hadoop读书笔记(一)Hadoop介绍:http://blog.csdn.net/caicongyang/article/details/39898629 Hadoop读书笔记(二)HDFS的shell操作:http://blog.csdn.net/caicongyang/article/details/41253927 JAVA URL 操作HDFS OperateByURL.java package hdfs; import java.io.InputStream; import jav

HDFS基础和java api操作

1. 概括 适合一次写入多次查询情况,不支持并发写情况 通过hadoop shell 上传的文件存放在DataNode的block中,通过linux shell只能看见block,看不见文件(HDFS将客户端的大文件存放在很多节点的数据块中,Block本质上是一个逻辑概念,它是hdfs读写数据的基本单位) HDFS中,如果一个文件小于一个数据块的大小,并不占用整个数据块存储空间 2. fs 可以使用hdfs shell操作hdfs,常用 fs命令如下: eg: hadoop fs -cat fi

通过HTTP RESTful API 操作elasticsearch搜索数据

通过HTTP RESTful API 操作elasticsearch搜索数据

使用python的docker-py实现docker的api操作

前沿: 听同事说,以后的dba申请可能有部分走其他部门的docker ,那边貌似在搞一个类似docker的平台管理系统,据说很霸道.于是乎,我自己也想尝试写一个简单的doker管理平台.  做为起步我先搞搞docker api,docker官网有个docker-py,用起来很是清爽简单. 首先安装docker的python相关的模块. [email protected]:~# pip install docker-py Requirement already satisfied (use --u

关于代码通过API操作阿里云RDS的巨坑

由于项目原因,要通过API操作阿里云的数据库,于是简单研究了一下阿里云提供的相关文档,发现官方提供了.NET的SDK,而且还提供了github开源代码,这个要为阿里点赞! 于是到github上弄了一份源码,发现源码文件相当多,尝试了一下只提取几个需要用到的类文件放到项目中,经过测试好像不行,也可能本人水平未达到,反正就是不行,最终放弃. 然后测试了一下引用项目和引用dll都没有问题,基本顺利. 在测试创建用户的时候遇到了一个坑,也可以说是巨坑!在创建账号的API文档中关于AccountType的

使用增强for循环遍历集合的时候操作集合的问题?

1 // 遍历一个list 2 public static void printList(List<String> list){ 3 for (String string : list) { 4 list.add("eeee"); // 运行错误 5 System.out.println(string); 6 } 7 System.out.println("遍历中: "+list); 8 } 9 异常信息如下: 10 Exception in threa