如何在SharePoint2010中实现大数据存储(四步完成RBS解决方案)

第一步、开启数据库的FILESTREAM支持

实际环境为Sharepoint2010 和 SQL Server2008 R2;数据库默认安装的时候可能没有开启FILESTREAM,此时需要我们核实是否已经开启。打开SQL配置管理器,如下图所示

在开启FILESTREAM之后,在数据库中执行下列语句

EXEC sp_configure filestream_access_level, 2
RECONFIGURE

第二、配置内容数据库与文件系统的映射

use [WSS_Content]
if not exists (select * from sys.symmetric_keys where name =
N‘##MS_DatabaseMasterKey##‘) create master key encryption by password =
N‘Admin Key Password !2#4‘

use [WSS_Content]
if not exists (select groupname from sysfilegroups where
groupname=N‘RBSFilestreamProvider‘) alter database [WSS_Content]
add filegroup RBSFilestreamProvider contains filestream

use [WSS_Content]
alter database [WSS_Content] add file (name = RBSFilestreamFile,
filename = ‘C:\SharePointData\FileData‘) to filegroup RBSFilestreamProvider

其中[WSS_Content]为你sharepoint内容数据库的名称,‘C:\SharePointData\FileData’为需要将BLOB文件存储的位置。

第三、安装RBS提供程序

RBS_x64.msi复制到场中得每个服务器(如果有多个服务器),以管理员身份运行CMD,将命令提示行路径定位到安装文件目录下运行下面代码。

msiexec /qn /lvx*  rbs_install_log.txt  /i RBS_X64.msi TRUSTSERVERCERTIFICATE=true FILEGROUP=PRIMARY DBNAME="WSS_Content" DBINSTANCE="sp2010" FILESTREAMFILEGROUP=RBSFilestreamProvider FILESTREAMSTORENAME=FilestreamProvider_1

其中 WSS_Content 为内容数据库名称 ,sp2010为数据库实例名。

不建议直接运行安装RBS提供程序(RBS_x64.msi),因为如果直接运行此程序,程序会安装一个30天得执行计划,因此建议采用上述提示行的方式安装。

如果只有一个服务器则安装好上面的就可以了,如果有多个服务器,则必须在每个服务器上均安装此提供程序,不过安装代码有所区别,如下:

msiexec /qn /lvx* rbs_install_log.txt /i RBS_X64.msi DBNAME="WSS_Content" DBINSTANCE="sp2010"  DDLOCAL="Client,Docs,Maintainer,ServerScript,FilestreamClient,FilestreamServer"

在安装完成上述操作后可检查内容数据库中是否多出以“mssqlrbs”开头的表,如果有说明安装成功,如果没有则需要将RBS_X64卸载,重新执行上述步骤。

第四、为内容数据库启用RBS

启动sharepoint shell

运行下列代码:

(1) $cdb = Get-SPContentDatabase "WSS_Content"
获取到指定的内容数据库(SPContentDatabase)对象实例,绿色所标注的"WSS_Content"需要更换成在你的环境中,实际的内容数据库名称。
(2) $rbss = $cdb.RemoteBlobStorageSettings
获取内容数据库的RBS设置(SPRemoteBlobStorageSettings)对象实例。
(3) $rbss.Installed()
检查在内容数据库上是否安装了RBS,如果需要,更新相应的属性值。
(4) $rbss.Enable()
在内容数据库上启用RBS。
(5) $pvdName = $rbss.GetProviderNames()[0]
获取第一个注册到内容数据库上的RBS Provider的名称。
(6) $rbss.SetActiveProviderName($pvdName)
为内容数据库设置要激活的RBS Provider。

然后,你可以执行"$rbss"来查看它的一些属性值,如果设置正确,它输出的内容应该如上图所示。
如果你启用RBS FILESTREAM Provider的内容数据库中,已经存储了一个网站集,那么在你启用了RBS Provider之后,网站集里面的文档,并不会自动的马上通过FILESTREAM,转存到NTFS文件系统上。只有新增的文档才会被存储到NTFS文件系统上,网站集里面之前上载的文档,仍然会保存在内容数据库里面。如果你希望现在将那些旧的文档,统统转存到我们所指定的NTFS文件系统中,那么可以继续在SharePoint 2010 Management Shell中执行下面这个指令:
(7) $rbss.Migrate()
如果你希望设置一个文档大小阈值,只有大小超过此阈值的文档,才通过RBS FILESTREAM Provider存储到NTFS文件系统上,而小于此阈值的文档,仍然存储在内容数据库中,那么可以在SharePoint 2010Management Shell中继续执行下面的指令(假设阈值是1048000字节,也就是1M):
(8) $rbss.MinimumBlobStorageSize = 1048000

(9)$rbss.Update()

上述步骤操作成功后,可在文档库上传一个超过100KB (如果设置了阈值,则上传超过阈值的大小)的文档,然后检查C:\SharePointData\FileData中是否有新添加的文件。

时间: 2024-10-11 08:46:14

如何在SharePoint2010中实现大数据存储(四步完成RBS解决方案)的相关文章

Hadoop环境中管理大数据存储八大技巧

随着IT互联网信息技术的飞速发展和进步.目前大数据行业也越来越火爆,从而导致国内大数据人才也极度缺乏,下面介绍一下关于Hadoop环境中管理大数据存储技巧. 在现如今,随着IT互联网信息技术的飞速发展和进步.目前大数据行业也越来越火爆,从而导致国内大数据人才也极度缺乏,下面介绍一下关于Hadoop环境中管理大数据存储技巧. 1.分布式存储 传统化集中式存储存在已有一段时间.但大数据并非真的适合集中式存储架构.Hadoop设计用于将计算更接近数据节点,同时采用了HDFS文件系统的大规模横向扩展功能

生活中的“大数据”如何改变你我?

一个叫“大数据”的名词火了! 不经意间,我们已然生存在大数据的时代:凡事都可用数据说话,我们去过哪些地方,走了多少路,消耗了多少能量,喜欢看的书和电影,潜意识里的 想法,都可以用数据准确预知:而生活中也出现了各种基于数据分析的新鲜事物,就连我们吃饭用的筷子,据说也赶上了大数据的班车,可以用来鉴定地沟油,更不 用说可视眼镜.可穿戴的智能手表,等等. 那么,在我们的日常生活中,“大数据”究竟在哪些方面发挥着作用?下面,请跟随设计公司职员小高,体验一下“大数据”对普通人日常生活的改变和影响. 一名职员

大数据存储到底出了什么问题

当大数据现象在三年前刚刚兴起时,其对于存储企业而言,机房环境监控系统就如同久旱逢甘霖一样,许多存储厂商纷纷积极的投入该领域,并开启最大分贝的营销扬声器鼓吹大数据存储. 然而到了今天,存储行业的现实状况并不乐观. 一方面,大数据发展的潮流不断地全速前进.尽管企业对于大数据的Volume(大批量).Velocity(高速传递).Variety(多样性)等 特征一直保持着高度的兴致,但企业对于大数据技术的采用率仍然很低,主要仍集中在实验阶段.同时,一些大数据初创企业继续吸引着大量的资金,并认为这些大

大数据存储的进化史 --从 RAID 到 Hdfs

我们都知道现在大数据存储用的基本都是 Hdfs ,但在 Hadoop 诞生之前,我们都是如何存储大量数据的呢?这次我们不聊技术架构什么的,而是从技术演化的角度来看看 Hadoop Hdfs. 我们先来思考两个问题. 在 Hdfs 出现以前,计算机是通过什么手段来存储"大数据" 的呢? 为什么会有 Hadoop Hdfs 出现呢? 在 Hdfs 出现以前,计算机是通过什么手段来存储"大数据" 要知道,存储大量数据有三个最重要的指标,那就是速度,容量,容错性.速度和容量

如何在SQL中产生交叉式数据表(枢纽分析表)Part 2(PIVOT,UNPIVOT)

之前小喵使用SQL2000的时候,为了产生交叉数据表(Excel中称为枢纽分析表),小喵用了以下这篇的方式来处理 http://www.dotblogs.com.tw/topcat/archive/2008/04/14/2909.aspx 这样的方式在SQL 2005里面一样可以用,不过2005又新增了一个更方便的东西,可以更简洁的来处理.这个东西就是[PIVOT],神奇的是,除了可以透过PIVOT产生交叉数据表,还可以透过UNPIVOT将交叉数据表转回原来的方式(这对于有些数据表的正规化很有帮

大数据存储的秘密之分区

分区,又称为分片,是解决大数据存储的常见解决方案,大数据存储量超过了单节点的存储上限,因此需要进行分区操作将数据分散存储在不同节点上,通常每个单个分区可以理解成一个小型的数据库,尽管数据库能同时支持多个分区操作:分区引入多分区概念,可以同时对外服务提高性能. 常常和分区一并提及的概念是复制,分区通常与复制结合使?,使得每个分区的副本存储在多个节点上. 这意味着,即使每条记录属于?个分区,它仍然可以存储在多个不同的节点上以获得容错能?.分区在许多技术或框架中都有体现,例如MQ中topic下的分区消

如何在Laravel中加密大文件?

Empcat的成功软件包应采用Laravel设计.用户可以上传任何大小的文件.出于安全原因,必须静态加密这些文件. Laravel提供加密,但是它们主要用于加密值.它使用加密的帮助程序方法很好地加密了小文件,例如图像,但是在此过程中,必须将文件的内容加载到内存中,这对于大文件是个问题. 我寻找了解决此问题的软件包或解决方案?找到了此Stack Overflow的答案?此PHP解决方案,它基本上是Stack Overflow中描述的解决方案的PHP. 我决定为Laravel创建一个扩展包,该扩展包

大数据学习笔记6·社会计算中的大数据(4)

上一篇介绍了LifeSpec项目,这个项目是关于用户理解和用户画像的.这篇是社会计算部分的最后一篇,关于用户连接和图隐私. 用户连接与隐私保护 用户连接与隐私保护有很强的相关性. 上图中,左边有两个网络.对于用户连接,我们的目标是映射这两个网络和连接这些网络中的用户节点.然后,我们就能产生一个更大的网络.这样,用户就能够被连接在一起,我们就可以知道跨网络的用户信息. 但是,如果从隐私的角度来看这个问题,把第一个图看成一个匿名化处理后的图,称其为目标图:把第二张图看成辅助图或者攻击者可获得的信息.

python中如何把数据存储到本地

有很多时候,我们会在python的运行过程中得到一些重要的变量,比如一个数据量很庞大的dict.而且,后面的某些程序也会用到这个dict,那么我们就最好把它存储到本地来,然后下次调用的时候,先读取本地的文件,导入到字典类型中,调用即可.这样就免去了重新学习这个字典的过程.那么在python中如何把数据存储到本地呢?我们用到的是python中的pickle模块.  如下:import pickleda... http://wd.tgnet.com/QuestionDetail/2015041044