[.NET网格计算框架] Alchemi

Alchemi [.NET网格计算框架] 是 一个以使用简易为目的的Windows下的网格计算框架。它提供了:a)开发网格软件的编程环境 和 b)建造网格和运行网格软件的运行机制。 
      Alchemi提供了软件合成的弹性。你可以使用强劲的网格线型模式以任何.NET支援的语言写网格软件。 或者把现有的软件以编程或宣布的方式改成网格软件。 
建造同一水平网格(捆绑群)只要在一台电脑上安装Alchemi Manager和在每一台网格电脑上安装Alchemi Executor。 这一弹性的模式使Executors可以被设置为专用模式(由Manager控制运行)或是非专用模式(由用户或用屏保启动)。 
      网页服务界面能和定制的网格中介软件通用。 
     一个命令行软件让你监视软件的运行和提交运行有网格功能的软件。样本软件包括一个平行Mandelbrot数组生成器。 
      Alchemi是一个在GPL许可证下发布的开源软件。 
     Alchemi是以在澳大利亚墨尔本大学的网格计算和分布式系统实验室 Gridbus项目的一部分开发的。 
现在版本是

Version 1.0.beta

Runtime Machinery

Software Development Kit

Source

Documents

Additional Samples

欢迎大家关注微信号opendotnet,微信公众号名称:dotNET跨平台。扫下面的二维码或者收藏下面的二维码关注吧(长按下面的二维码图片、并选择识别图中的二维码)

分类: 4.其他技术区,开源项目

好文要顶 关注我 收藏该文  

张善友
关注 - 656
粉丝 - 6296

荣誉:推荐博客

+加关注

0

0

?上一篇:如何结合IbatisNet的LIST遍历实现模糊查询
?下一篇:一篇很精辟的关于AOP同IOC的文章 AOP != Interception

时间: 2024-12-15 07:00:17

[.NET网格计算框架] Alchemi的相关文章

志愿计算框架与论坛

志愿计算,是一种利用计算机闲置资源参与公益类分布式计算的方法. 志愿计算的框架: 1 [email protected] [email protected]是一个研究蛋白质折叠,误折,聚合及由此引起的相关疾病的分布式计算工程.蛋白质是一个生物体系的网络基础,它们是一个个纳米级计算机.在蛋白质实现它的生物功能之前,它们会把自己装配起来,或者说是折叠:折叠过程对人类而言仍是未解之谜.当蛋白质没有正确折叠(误折)无疑会产生严重的后果,包括许多知名的疾病,比方阿兹海默症(Alzheimer's),疯牛病

960网格布局框架(前端css框架)的使用方法

960框架总宽960px CSS框架已经出现很长时间了,关于这些框架的用处也被我们讨论了很多遍了.有人说,CSS框架不够先进,还有人说这些框架大大的节省了他们的开发时间.在此,我们将不再讨论这个问题. 前段时间,我了解到了CSS框架.经过对Malo.BluePrint和960做了实验对比后,我得出一个结论:我最喜欢960CSS框架. 本教程将解释这个框架的基本原理,这样你就可以用960来快速进入开发. 基本原理 你必须知道一些基本原理来“学习这个框架是如何工作的”.你可以通过实验(或者是用fir

Spark Streaming实时计算框架介绍

http://www.cnblogs.com/Leo_wl/p/3530464.html 随着大数据的发展,人们对大数据的处理要求也越来越高,原有的批处理框架MapReduce适合离线计算,却无法满足实时性要求较高的业务,如实时推荐.用户行为分析等. Spark Streaming是建立在Spark上的实时计算框架,通过它提供的丰富的API.基于内存的高速执行引擎,用户可以结合流式.批处理和交互试查询应用.本文将详细介绍Spark Streaming实时计算框架的原理与特点.适用场景. Spar

开源图计算框架GraphLab介绍

GraphLab介绍 GraphLab 是由CMU(卡内基梅隆大学)的Select 实验室在2010 年提出的一个基于图像处理模型的开源图计算框架,框架使用C++语言开发实现.该框架是面向机器学习(ML)的流处理并行计算框架,可以运行在多处理机的单机系统.集群或是亚马逊的EC2 等多种环境下.框架的设计目标是,像MapReduce一样高度抽象,可以高效执行与机器学习相关的.具有稀疏的计算依赖特性的迭代性算法,并且保证计算过程中数据的高度一致性和高效的并行计算性能.该框架最初是为处理大规模机器学习

实时计算框架之二:Storm之入门实例

预备.开火.瞄准-- 1 总结与提升 自1月份来,可谓是浮浮荡荡,一波三折呀. 先是参加了公司组织的创意马拉松大赛,虽说24小时内完成了作品,但是自己感觉上效果很差,自然成绩也是不高.通过这24小时持续的奋斗以及后来的各种产品描述等环节,发现了开发上的许多缺点.首先,对我们的产品进行了深入的认识和了解,也在产品之上,发现了更多可以发展走向成功的点子,这是我觉得最棒的一点:其次,短时间内和队员进行协作交流,生成产品,这之间的沟通非常重要:第三,选择C++作为24小时创作的语言,开发效率相对而言是非

常见计算框架算子层对比

背景 前段时间在为内部自研的计算框架设计算子层,参考对比了一些开源的计算框架的算子层,本文做一个粗粒度的梳理. 下面这张图是我对计算框架抽象层次的一个拆分,具体可以参考上周日杭州Spark meetup上我做的Spark SQL分享 slides. Pig-latin Hadoop MR上的DSL,面向过程,适用于large-scale的数据分析.语法很美,可惜只适合CLI . A = load 'xx' AS (c1:int, c2:chararray, c3:float) B = GROUP

MapReduce计算框架

MapReduce计算框架 一.MapReduce实现原理 图展示了MapReduce实现中的全部流程,处理步骤如下: 1.用户程序中的MapReduce函数库首先把输入文件分成M块(每块大小默认64M),在集群上执行处理程序,见序号1 2.主控程序master分配Map任务和Reduce任务给工作执行机器worker.见序号2 3.一个分配了Map任务的worker读取并处理输入数据块.从数据片段中解析出key/value键值对,然后把其传递给Map函数,由Map函数生成并输出中间key/va

图计算框架解决矩阵分解

1.矩阵分解是推荐系统常用的手段,经常用来做用户偏好预测.在当下的推荐系统中,我们得到用户对于物品的评分矩阵往往是非常稀疏的,一个有m个用户,n个商品的网站,它所收集到的m*n用户评分矩阵R可能只有不到万分之一的数据非零.矩阵分解算法常用来构造出多个矩阵, 用这些矩阵相乘的结果R’来拟合原来的评分矩阵R,目标是使得到的矩阵R’在R的非零元素那些位置上的值尽量接近R中的元素,同时对于R中非零值进行补全.我们定义R和R’之间的距离,把它作为优化的目标,那么矩阵分解就变成了最优化问题,而这类最优化问题

这些组件分别处理Spark Core提供内存计算框架

Spark不仅支持Scala编写应用程序,而且支持Java和Python等语言进行编写,特别是Scala是一种高效.可拓展的语言,能够用简洁的代码处理较为复杂的处理工作. l通用性强 Spark生态圈即BDAS(伯克利数据分析栈)包含了Spark Core.Spark SQL.Spark Streaming.MLLib和GraphX等组件,这些组件分别处理Spark Core提供内存计算框架.SparkStreaming的实时处理应用.Spark SQL的即席查询.MLlib或MLbase的机器