borker(0.9.0及1.0.0)配置

Kafka日志本身是由多个日志段组成(log segment)。一个日志是一个FileMessageSet,它包含了日志数据以及OffsetIndex对象,该对象使用位移来读取日志数据

* borker配置就是指配置server.properties文件 *

最小配置

通常情况下需要在减压缩kafka后,修改config/server.properties 配置文件中的以下两项

log.dirs = kafka-logs
zookeeper.connect = localhost:9092
listeners = PLAINTEXT://ip:9092
  1. log.dirs 指的是kafka的log Data保存的目录,默认为Null。如果不指定log Data会保存到log.dir设置的目录中,log.dir默认为/tmp/kafka-logs。需要保证启动KafKaServer的用户对log.dirs或log.dir设置的目录具有读与写的权限
  2. zookeeper.connect 指的是zookeeper集群的地址,可以是多个,多个之间用逗号分割hostname1:port1,hostname2:port2,hostname3:port3
  3. listeners 监听列表(以逗号分隔 不同的协议(如plaintext,trace,ssl、不同的IP和端口))

kafka提供的borker配置

# Replication configurations
num.replica.fetchers=4
replica.fetch.max.bytes=1048576
replica.fetch.wait.max.ms=500
replica.high.watermark.checkpoint.interval.ms=5000
replica.socket.timeout.ms=30000
replica.socket.receive.buffer.bytes=65536
replica.lag.time.max.ms=10000

controller.socket.timeout.ms=30000
controller.message.queue.size=10

# Log configuration
num.partitions=8
message.max.bytes=1000000
auto.create.topics.enable=true
log.index.interval.bytes=4096
log.index.size.max.bytes=10485760
log.retention.hours=168
log.flush.interval.ms=10000
log.flush.interval.messages=20000
log.flush.scheduler.interval.ms=2000
log.roll.hours=168
log.retention.check.interval.ms=300000
log.segment.bytes=1073741824

# ZK configuration
zookeeper.connection.timeout.ms=6000
zookeeper.sync.time.ms=2000

# Socket server configuration
num.io.threads=8
num.network.threads=8
socket.request.max.bytes=104857600
socket.receive.buffer.bytes=1048576
socket.send.buffer.bytes=1048576
queued.max.requests=16
fetch.purgatory.purge.interval.requests=100
producer.purgatory.purge.interval.requests=100

配置详细说明

名称 说明 类型 默认值 有效值 重要性
zookeeper.connect zookeeper集群的地址,可以是多个,多个之间用逗号分割 string localhost:2181 ip1:port1,ip2:port2
zookeeper.connection.timeout.ms 客户端在建立通zookeeper连接中的最大等待时间 int null 6000
zookeeper.session.timeout.ms ZooKeeper的session的超时时间,如果在这段时间内没有收到ZK的心跳,则会被认为该Kafka server挂掉了。如果把这个值设置得过低可能被误认为挂掉,如果设置得过高,如果真的挂了,则需要很长时间才能被server得知 int 6000
zookeeper.sync.time.ms 一个ZK follower能落后leader的时间 int 2000
listeners 监听列表(以逗号分隔 不同的协议(如plaintext,trace,ssl、不同的IP和端口)),hostname如果设置为0.0.0.0则绑定所有的网卡地址;如果hostname为空则绑定默认的网卡。如果没有配置则默认为java.net.InetAddress.getCanonicalHostName() string null 如:PLAINTEXT://myhost:9092,TRACE://:9091 或 PLAINTEXT://0.0.0.0:9092,
host.name 。如果设置了它,会仅绑定这个地址。如果没有设置,则会绑定所有的网络接口,并提交一个给ZK。不推荐使用 只有当listeners没有设置时才有必要使用。 string “’ 如:”localhost”
port server用来接受client连接的端口。不推荐使用,使用listeners配置项代替;只有在listeners没有配置时才使用。 int 9092
advertised.host.name 会将hostname通知给生产者和消费者,在多网卡时需要设置该值为另一个ip地址。如果没有设置该值,则返回 配置项host.name设置的值,如果host.name没有设置则返回java.net.InetAddress.getCanonicalHostName()不推荐使用 只有当advertised.listeners或listeners没有设置时才有必要使用。 string null
advertised.listeners 设置不同于listeners配置的监听列表即不同于listeners设置的网卡地址及端口;如果没有配置,会使用listeners的值 string null
advertised.port 分发这个端口给所有的producer,consumer和其他broker来建立连接。如果此端口跟server绑定的端口不同,则才有必要设置。不推荐使用 只有当advertised.listeners或listeners没有设置时才有必要使用。 int null
auto.create.topics.enable 是否允许自动创建topic。如果设为true,那么produce,consume或者fetch metadata一个不存在的topic时,就会自动创建一个默认replication factor和partition number的topic。 boolean true
background.threads 一些后台任务处理的线程数,例如过期消息文件的删除等,一般情况下不需要去做修改 int 10
broker.id 每一个broker在集群中的唯一表示,要求是正数。当该服务器的IP地址发生改变时,broker.id没有变化,则不会影响consumers的消息情况。 int -1
compression.type 指定topic的压缩类型。除了支持’gzip’, ‘snappy’, ‘lz4’外,还支持”uncompressed(不压缩)”以及producer(由producer来指定) string producer
delete.topic.enable 是否启动删除topic。如果设置为false,你在删除topic的时候无法删除,但是会打上一个你将删除该topic的标记,等到你修改这一属性的值为true后重新启动Kafka集群的时候,集群自动将那些标记删除的topic删除掉,对应的log.dirs目录下的topic目录和数据也会被删除。而将这一属性设置为true之后,你就能成功删除你想要删除的topic了 boolean false
auto.leader.rebalance.enable 一个后台线程会周期性的自动尝试,为所有的broker的每个partition平衡leadership,使kafka的leader均衡。 boolean true
leader.imbalance.check.interval.seconds 检查leader是否均衡的时间间隔(秒) long 300
leader.imbalance.per.broker.percentage 每个broker允许的不平衡的leader的百分比。如果每个broker超过了这个百分比,复制控制器会重新平衡leadership。 int 10
log.flush.interval.messages 数据flush(sync)到硬盘前之前累积的消息条数,因为磁盘IO操作是一个慢操作,但又是一个”数据可靠性”的必要手段,所以此参数的设置,需要在”数据可靠性”与”性能”之间做必要的权衡.如果此值过大,将会导致每次”fsync”的时间较长(IO阻塞),如果此值过小,将会导致”fsync”的次数较多,这也意味着整体的client请求有一定的延迟.物理server故障,将会导致没有fsync的消息丢失 long 9223372036854775807
log.flush.interval.ms 当达到下面的时间(ms)时,执行一次强制的flush操作。interval.ms和interval.messages无论哪个达到,都会flush。 long null
log.flush.offset.checkpoint.interval.ms 记录上次把log刷到磁盘的时间点的频率,用来日后的recovery。通常不需要改变 long 60000
log.flush.scheduler.interval.ms 检查是否需要固化到硬盘的时间间隔 long 9223372036854775807
log.retention.bytes topic每个分区的最大文件大小,一个topic的大小限制 = 分区数*log.retention.bytes。-1没有大小限log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖 loong -1
log.retention.hours 日志保存时间,默认为7天(168小时)。超过这个时间会根据policy处理数据。bytes和minutes无论哪个先达到都会触发 int 168
log.retention.minutes 数据存储的最大时间超过这个时间会根据log.cleanup.policy设置的策略处理数据,也就是消费端能够多久去消费数据
log.retention.bytes和log.retention.minutes任意一个达到要求,都会执行删除,会被topic创建时的指定参数覆盖 int null
log.roll.hous 当达到下面时间,会强制新建一个segment。这个参数会在日志segment没有达到log.segment.bytes设置的大小,也会强制新建一个segment会 int 168
log.roll.jitter.{ms,hours} 从logRollTimeMillis抽离的jitter最大数目 int 0
log.segment.bytes topic partition的日志存放在某个目录下诸多文件中,这些文件将partition的日志切分成一段一段的;这个属性就是每个文件的最大尺寸;当尺寸达到这个数值时,就会创建新文件。此设置可以由每个topic基础设置时进行覆盖 long 1G=1024*1024*1024
log.segment.delet.delay.ms 删除文件系统上文件的等待时间,默认是1分钟 long 6000
message.max.bytes 表示一个服务器能够接收处理的消息的最大字节数,注意这个值producer和consumer必须设置一致,且不要大于fetch.message.max.bytes属性的值该值默认是1000012字节,大概900KB
int 1000012
min.insync.replicas 该属性规定了最小的ISR数。当producer设置request.required.acks为all或-1时,指定副本(replicas)的最小数目(必须确认每一个repica的写数据都是成功的),如果这个数目没有达到,producer会产生异常。 int 1
num.io.threads 服务器用来处理请求的I/O线程的数目;这个线程数目至少要等于硬盘的个数。 int 8
num.network.threads 服务器用来处理网络请求的网络线程数目;一般你不需要更改这个属性 int 3
num.recovery.threads.per.data.dir 每数据目录用于日志恢复启动和关闭冲洗时的线程数量 int 1
num.replica.fetchers 从leader进行复制消息的线程数,增大这个数值会增加follower的IO int 1
offset.metadata.max.bytes 允许client(消费者)保存它们元数据(offset)的最大的数据量 int 4096(4kb)
offsets.commit.required.acks 在offset commit可以接受之前,需要设置确认的数目,一般不需要更改 int -1
offsets.commit.timeout.ms offset commit会延迟直至此超时或所需的副本数都收到offset commit,这类似于producer请求的超时 int 5000
offsets.load.buffer.size 此设置对应于offset manager在读取缓存offset segment的批量大小(以字节为单位). int 5242880
offsets.retention.check.interval.ms offset管理器检查陈旧offsets的频率 long 600000(10分钟)
offsets.topic.num.partitions 偏移的提交topic的分区数目。 由于目前不支持部署之后改变,我们建议您使用生产较高的设置(例如,100-200) int 50
offsets.topic.replication.factor 复制因子的offset提交topic。较高的设置(例如三个或四个),建议以确保更高的可用性。如果offset topic创建时,broker比复制因子少,offset topic将以较少的副本创建。 short 3
offsets.topic.segment.bytes offset topic的Segment大小。因为它使用压缩的topic,所有Sgment的大小应该保持小一点,以促进更快的日志压实和负载 int 104857600
queued.max.requests 在网络线程(network threads)停止读取新请求之前,可以排队等待I/O线程处理的最大请求个数。若是等待IO的请求超过这个数值,那么会停止接受外部消息 int 500
quota.consumer.default 以clientid或consumer group区分的consumer端每秒可以抓取的最大byte long 9223372036854775807
quota.producer.default producer端每秒可以产生的最大byte long 9223372036854775807
replica.fetch.max.bytes replicas每次获取数据的最大字节数 int 1048576
replica.fetch.min.bytes fetch的最小数据尺寸,如果leader中尚未同步的数据不足此值,将会阻塞,直到满足条件 int 1
replica.fetch.wait.max.ms replicas同leader之间通信的最大等待时间,失败了会重试。这个值须小于replica.lag.time.max.ms,以防止低吞吐量主题ISR频繁收缩 int 500
replica.high.watermark.checkpoint.interval.ms 每一个replica存储自己的high watermark到磁盘的频率,用来日后的recovery int 5000
replica.socket.timeout.ms 复制数据过程中,replica发送给leader的网络请求的socket超时时间,至少等于replica.fetch.wait.max.ms int 30000
replica.socket.receive.buffer.bytes 复制过程leader接受请求的buffer大小 int 65536(64*1024)
replica.lag.time.max.ms replicas响应partition leader的最长等待时间,若是超过这个时间,就将replicas列入ISR(in-sync replicas),并认为它是死的,不会再加入管理中 long 10000
replica.lag.max.messages 如果follower落后与leader太多,将会认为此follower[或者说partition relicas]已经失效。 通常,在follower与leader通讯时,因为网络延迟或者链接断开,总会导致replicas中消息同步滞后如果消息之后太多,leader将认为此follower网络延迟较大或者消息吞吐能力有限,将会把此replicas迁移到其他follower中.在broker数量较少,或者网络不足的环境中,建议提高此值. int 4000
request.timeout.ms producer等待响应的最长时间,如果超时将重发几次,最终报错 int 30000
socket.receive.buffer.bytes socket用于接收网络请求的缓存大小 int 102400
socket.request.max.bytes server能接受的请求的最大的大小,这是为了防止server跑光内存,不能大于Java堆的大小。 int 104857600(100*1024*1024)
socket.send.buffer.bytes server端用来处理socket连接的SO_SNDBUFF缓冲大小 int 102400
controller.socket.timeout.ms partition管理控制器进行备份时,socket的超时时间 int 30000
controller.message.queue.size partition leader与replicas数据同步时,消息的队列大小 int 10
num.partitions 每个topic的分区个数,若是在topic创建时候没有指定的话会被topic创建时的指定参数覆盖 int 1 推荐设为8
log.index.interval.bytes 当执行一次fetch后,需要一定的空间扫描最近的offset,设置的越大越好,但是也更耗内存一般使用默认值就可以 int 4096
log.index.size.max.bytes 每个log segment的最大尺寸。注意,如果log尺寸达到这个数值,即使尺寸没有超过log.segment.bytes限制,也需要产生新的log segment。 int 10485760
fetch.purgatory.purge.interval.requests 非立即答复请求放入purgatory中,当到达或超出interval时认为request complete int 1000
producer.purgatory.purge.interval.requests producer请求清除时间 int 1000
default.replication.factor 一个topic ,默认分区的replication个数 ,不能大于集群中broker的个数。 int 1
group.max.session.timeout.ms 注册consumer允许的最大超时时间 int 300000
group.min.session.timeout.ms 注册consumer允许的最小超时时间 int 6000
inter.broker.protocol.version broker协议版本 string 0.10.0
log.cleaner.backoff.ms 检查log是否需要clean的时间间隔 long 15000
log.cleaner.dedupe.buffer.size 日志压缩去重时候的缓存空间,在空间允许的情况下,越大越好 long 134217728
log.cleaner.delete.retention.ms 保存时间;保存压缩日志的最长时间;也是客户端消费消息的最长时间,同log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据;会被topic创建时的指定时间覆盖。 long 86400000(一天)
log.cleaner.enable 是否启动压缩日志,当这个属性设置为false时,一旦日志的保存时间或者大小达到上限时,就会被删除;如果设置为true,则当保存属性达到上限时,就会进行压缩 boolean false
log.cleaner.threads 日志压缩运行的线程数 int 1
log.cleaner.io.buffer.load.factor 日志清理中hash表的扩大因子,一般不需要修改 double 0.9
log.cleaner.io.buffer.size log cleaner清除过程中针对日志进行索引化以及精简化所用到的缓存大小。最好设置大点,以提供充足的内存 int 524288
log.cleaner.io.max.bytes.per.second 进行log compaction时,log cleaner可以拥有的最大I/O数目。这项设置限制了cleaner,以避免干扰活动的请求服务。 double 1.7976931348623157E308
log.cleaner.min.cleanable.ratio 这项配置控制log compactor试图清理日志的频率(假定[log compaction]是打开的)。默认避免清理压缩超过50%的日志。这个比率绑定了备份日志所消耗的最大空间(50%的日志备份时压缩率为50%)。更高的比率则意味着浪费消耗更少,也就可以更有效的清理更多的空间。这项设置在每个topic设置中可以覆盖 double 0.5
log.preallocate 是否预创建新文件,windows推荐使用 boolean false
log.retention.check.interval.ms 检查日志分段文件的间隔时间,以确定是否文件属性是否到达删除要求。 long 300000
max.connections.per.ip 一个broker允许从每个ip地址连接的最大数目 int 2147483647=Int.MaxValue
max.connections.per.ip.overrides 每个IP或主机名覆盖连接的默认最大数量 string “”
replica.fetch.backoff.ms 复制数据时失败等待时间 int 1000
reserved.broker.max.id broker可以使用的最大ID值 int 1000

topic level 配置

broker级别的参数可以由topic级别的覆写,不是所有的broker参数在topic级别都有对应值

以下是topic-level的配置选项。server的默认配置在Server Default Property列下给出了,设定这些默认值不会改变原有的设置

Property Default Server Default Property Description
cleanup.policy delete log.cleanup.policy 要么是”delete“要么是”compact“; 这个字符串指明了针对旧日志部分的利用方式;默认方式(”delete”)将会丢弃旧的部分当他们的回收时间或者尺寸限制到达时。”compact“将会进行日志压缩
delete.retention.ms 86400000 (24 hours) log.cleaner.delete.retention.ms 对于压缩日志保留的最长时间,也是客户端消费消息的最长时间,通log.retention.minutes的区别在于一个控制未压缩数据,一个控制压缩后的数据。此项配置可以在topic创建时的置顶参数覆盖
flush.messages none log.flush.interval.messages 此项配置指定时间间隔:强制进行fsync日志。例如,如果这个选项设置为1,那么每条消息之后都需要进行fsync,如果设置为5,则每5条消息就需要进行一次fsync。一般来说,建议你不要设置这个值。此参数的设置,需要在”数据可靠性”与”性能”之间做必要的权衡.如果此值过大,将会导致每次”fsync”的时间较长(IO阻塞),如果此值过小,将会导致”fsync”的次数较多,这也意味着整体的client请求有一定的延迟.物理server故障,将会导致没有fsync的消息丢失.
flush.ms None log.flush.interval.ms 此项配置用来置顶强制进行fsync日志到磁盘的时间间隔;例如,如果设置为1000,那么每1000ms就需要进行一次fsync。一般不建议使用这个选项
index.interval.bytes 4096 log.index.interval.bytes 默认设置保证了我们每4096个字节就对消息添加一个索引,更多的索引使得阅读的消息更加靠近,但是索引规模却会由此增大;一般不需要改变这个选项
max.message.bytes 1000000 max.message.bytes kafka追加消息的最大尺寸。注意如果你增大这个尺寸,你也必须增大你consumer的fetch 尺寸,这样consumer才能fetch到这些最大尺寸的消息。
min.cleanable.dirty.ratio 0.5 in.cleanable.dirty.ratio 此项配置控制log压缩器试图进行清除日志的频率。默认情况下,将避免清除压缩率超过50%的日志。这个比率避免了最大的空间浪费
min.insync.replicas 1 min.insync.replicas 当producer设置 acks为-1时,min.insync.replicas指定replicas的最小数目(必须确认每一个repica的写数据都是成功的),如果这个数目没有达到,producer会产生异常。
retention.bytes None log.retention.bytes 如果使用“delete”的retention 策略,这项配置就是指在删除日志之前,日志所能达到的最大尺寸。默认情况下,没有尺寸限制而只有时间限制
retention.ms 7 days log.retention.minutes 如果使用“delete”的retention策略,这项配置就是指删除日志前日志保存的时间。
segment.bytes 1GB log.segment.bytes kafka中log日志是分成一块块存储的,此配置是指log日志划分成块的大小
segment.index.bytes 10MB log.index.size.max.bytes 此配置是有关offsets和文件位置之间映射的索引文件的大小;一般不需要修改这个配置
segment.ms 7 days log.roll.hours 即使log的分块(segment)文件没有达到需要删除、压缩的大小,一旦log 的时间达到这个上限,就会强制新建一个log分块文件
segment.jitter.ms 0 log.roll.jitter.{ms,hours} The maximum jitter to subtract from logRollTimeMillis.
时间: 2024-11-08 05:23:07

borker(0.9.0及1.0.0)配置的相关文章

探索Oracle之数据库升级二 11.2.0.3升级到11.2.0.4完整步骤

探索Oracle之数据库升级二  11.2.0.3升级到11.2.0.4完整步骤 说明:         这篇文章主要是记录下单实例环境下Oracle 11.2.0.1升级到11.2.0.3的过程,当然RAC的升级是会有所不同.但是他们每个版本之间升级步骤都是差不多的,先升级Database Software,再升级Oracle Instance. Oracle 11.2.0.4的Patchset No:19852360下载需要有Oracle Support才可以.  Patchset包含有7个

NVIDIA DIGITS 学习笔记(NVIDIA DIGITS-2.0 + Ubuntu 14.04 + CUDA 7.0 + cuDNN 7.0 + Caffe 0.13.0)

转自:http://blog.csdn.net/enjoyyl/article/details/47397505?from=timeline&isappinstalled=0#10006-weixin-1-52626-6b3bffd01fdde4900130bc5a2751b6d1 NVIDIA DIGITS-2.0 + Ubuntu 14.04 + CUDA 7.0 + cuDNN 7.0 + Caffe 0.13.0环境配置 引言 DIGITS简介 DIGITS特性 资源信息 说明 DIGI

springsecurity启动出现org.springframework.beans.factory.parsing.BeanDefinitionParsingException: Configuration problem: You must use a 3.0 schema with Spring Security 3.0.

在换了spring-security的jar包以后启动出现org.springframework.beans.factory.parsing.BeanDefinitionParsingException: Configuration problem: You must use a 3.0 schema with Spring Security 3.0.Please update your schema declarations to the 3.0.3 schema (spring-securi

WangSql 3.0源码共享(WangSql 1.0重大升级到3.0)

WangSql 1.0博文阅读: http://www.cnblogs.com/deeround/p/6204610.html 基于1.0做了以下重大改动: 1.多数据实现方式调整 2.使用EmitMapper代替反射实现DbDataReader转实体 3.源码在文章最后提供下载地址 核心功能介绍 多数据支持,采用配置文件形式实现多种数据实现,只需要指定数据库驱动即可实现所支持所有数据库任意切换. SQL自行管理,大大提高SQL可控性以及SQL性能优化. 高效实体转换,集成EmitMapper来

Oracle11.2.0.1升级到11.2.0.3

Oracle数据库升级也并非简单的事,这篇博客,博主对Oracle那点事做了较详细的介绍: http://blog.itpub.net/9599/viewspace-473003/ 我还属于Oracle的菜鸟,就不献丑介绍了. 下面我就简单总结下,Oracle同版本升级的经历: 升级数据库: 1. 先检查数据库当前版本: SELECT * FROM v$version; 2. 使用RMAN或exp 进行全库备份 [这一步非常非常重要,因升级到数据部分时,虚拟机没空间了,导致VM崩溃,升级失败.o

ORACLE 11.2.0.1升级到11.2.0.3

ORACLE 11.2.0.1升级到11.2.0.3 最近听了李光老师的关于oracle的升级公开课,深有感悟,之前一直想自己测试的,没有下定决心,这几天自己在虚拟机上测试了一下,测试的过程如下,当然这个只是一些基本的步骤,实际的生产环境我想比这个复杂的多了,但是不用急,慢慢来,循序渐进吧... 1. 数据库情况 单实例非ASM存储 ORACLE_SID : orcl ORACLE_HOME: /u01/app/oracle/product/11.2.0/dbhome_1 1. 数据库原始状态

已知可生成0~4的rand5(),实现生成0~6的rand7()

若已知生成0~6的rand7(),求生成0~4的rand5(),则一个方法就是不断生成0~7的数,直到这个数满足0~4就返回. int rand5(){ int res; do{ res = rand7(); }while(res >4); return res; } 现在已知生成0~4的rand5(),求解生成0~6的rand7(),就是想办法利用rand5()去生成0~大于6的数字,可以使用rand5()+rand5()*5,这个式子可以生成0~24的随机数,每个数字的组成只有一种可能,所以

Redhat 5.4 Orcle RAC 数据库 从10.2.0.1升级到 10.2.0.4

之前安装的是两个节点的RAC 平台. 数据库版本是10.2.0.1. 这个实验的目的就是将这个数据库版本从10.2.0.1 升级到 10.2.0.4.  升级包可以从Oracle metalink上进行下载,这个下载需要Oracle 付费的帐号. 网络可能也有资源下载. 10.2.0.4的patch number 是:p6810189. 两个节点的RAC 安装,参考Blog: Redhat 5.4 + ASM + RAW+ Oracle 10g RAC 安装文档 http://blog.csdn

win10 用cmake 3.5.2 和 vs 2015 update1 编译 GPU版本(cuda 8.0, cudnn v5 for cuda 8.0)

win10 用cmake 3.5.2 和 vs 2015 update1 编译 GPU版本(cuda 8.0, cudnn v5 for cuda 8.0)  用vs 2015打开 编译Release和Debug版本 看网上那个例子里面 工程里面有是三个文件夹 include(包含mxnet,dmlc,mshadow的include目录) lib(包含libmxnet.dll, libmxnet.lib,把用vs编译好的放过去) python(包含一个mxnet,setup.py, 以及buil

不受限制Freeform.Plus.v2015.0.41+lovius.Pro.v4.2.0.22+Design.v2015.1.1

不受限制Freeform.Plus.v2015.0.41+lovius.Pro.v4.2.0.22+Design.v2015.1.1 Geomagic.Freeform.Plus.v2015.0.41.X64多层图像数字建模系统 Geometric.Glovius.Pro.v4.2.0.22 Geomagic.Design.v2015.1.1    Freeform 是许多数字制造和设计过程的关键组成部分,而且它也可用作从最初设计到可生产的最终模 型的完整工作流程的单独来源.在 Freeform