HPC 集群资助项目开始接受申请!

作者:John Grogan

Silicon Mechanics, Inc. 宣布了其第四届年度研究集群资助项目的公开提交期。这项竞争性资助将向两所高等教育和研究机构奖励两个完整的高性能计算集群。该竞赛向所有美国和加拿大合格的专上院校、大学附属研究机构、非营利性研究机构以及具有大学附属关系的联邦实验室的研究人员开放。

在前三年,HPC 集群仅授予一个机构。之前的获奖者分别是 2014 年的韦恩州立大学、2013 年的塔夫茨大学和 2012 年的圣路易斯大学,那是该资助项目的首年。今年项目的扩展反映了该项目在帮助前三届获奖机构进行研究方面取得的成功。此外,Silicon Mechanics 在过去几年经历了显著的自然增长,使其能够扩大资助项目,以更好地满足研究社区的需求。

Silicon Mechanics 教育/研究/政府垂直领域部门经理 Art Mann 表示:“我们设计集群资助项目是为了向那些由于研究的跨学科、协作性质或其他类似因素而不太可能通过传统资助项目获得资助的研究人员提供资源。” “我们已经看到了该项目在过去三年中对我们的获奖机构产生的影响,并认为不仅要继续该项目,还要扩大它至关重要,以便我们能够支持更具影响力的研究。”

资助申请现已开放,有关资助规则、申请要求和集群技术规格的详细信息,请访问 www.researchclustergrant.com。提交截止日期为 2015 年 3 月 1 日,资助获得者将于 2015 年 3 月 31 日或之前公布。Silicon Mechanics 今年资助集群的合作伙伴包括 Intel、NVIDIA、Mellanox、Supermicro、Kingston、Bright Computing、Seagate 和 LSI Logic。要奖励的设备规格如下。请尽量不要过度流口水!

集群配置

摘要:

  • 带存储的 2U 头节点
  • 4 个 GPU / 计算节点
  • 千兆和 InfiniBand 网络
  • 带配电的机架

一个带存储的 2U 头节点,配备 2 个 Intel Xeon E5-2680v2 处理器和 128 GB Kingston DDR3-1600 RAM、7.2 TB Seagate Savvio 10K SAS 存储(由 8 端口 LSI RAID 卡控制)以及 2 个镜像 Intel Enterprise SSD 用于操作系统存储。网络和连接由 Mellanox ConnectX-3 FDR InfiniBand 网络适配器和集成 Intel i350 千兆以太网控制器提供。集群管理和作业提交由 Bright Cluster Manager 提供。

  • CPU: 2 个 Intel Xeon E5-2680v2,2.8 GHz(10 核,115W)
  • 内存: 128GB(8 x 16GB DDR3-1600 寄存式 ECC DIMM)
  • 集成网卡: Intel i350 双端口千兆以太网控制器
  • InfiniBand: Mellanox 单端口 ConnectX-3 FDR InfiniBand 网络适配器
  • 管理: 集成 IPMI 2.0 和 KVM,带专用 LAN
  • 热插拔硬盘: 8 个 900GB Seagate Savvio 10K.6(6Gb/s,10K RPM,64MB 缓存)2.5 英寸 SAS 硬盘
  • 操作系统硬盘: 2 个 80GB Intel DC S3500 系列 MLC(6Gb/s,0.3 DWPD)2.5 英寸 SATA SSD
  • 硬盘控制器: LSI 9271-8i(8 端口内部)6Gb/s SAS RAID,带缓存 Vault 模块
  • 电源: 冗余 740W 电源,80 PLUS 白金认证
  • 操作系统: 当前 CentOS 发行版
  • 集群管理: Bright Cluster Manager 高级版 - 1 年维护和支持

一个 4U 4 节点计算/GPU 系统(总共 4U),每个节点配备 2 个 Intel Xeon E5-2680v2 处理器、128 GB Kingston DDR3-1600 RAM、2 个 NVIDIA Tesla K40m GPU 加速器和 2 个 400 GB Intel DC S3700 企业级 SATA SSD。网络和连接由 Mellanox ConnectX-3 FDR InfiniBand 网络适配器和每个节点中集成的 Intel i350 千兆以太网控制器提供。集群管理和作业提交由 Bright Cluster Manager 提供,该管理器在当前版本的 CentOS 发行版上运行。

  • CPU: 2 个 Intel Xeon E5-2680v2,2.8 GHz(10 核,115W)
  • 内存: 128GB(8 x 16GB DDR3-1600 寄存式 ECC DIMM)
  • 集成网卡: Intel 双端口 i350 千兆以太网控制器
  • InfiniBand: Mellanox 单端口 ConnectX-3 FDR InfiniBand 网络适配器
  • 管理: 集成 IPMI 2.0 和 KVM,带专用 LAN
  • GPU: 2 个 NVIDIA Tesla K40m GPU 加速器
  • 热插拔硬盘: 2 个 400GB Intel DC S3700 系列 HET-MLC(6Gb/s,10 DWPD)2.5 英寸 SATA SSD
  • 操作系统: 当前 CentOS 发行版
  • 集群管理: Bright Cluster Manager 高级版,带 1 年维护和支持

一个 24U APC Netshelter SX 标准机架式机箱,配备 1U Mellanox 18 端口 SwitchX-2 FDR InfiniBand 交换机用于通信,以及 1U HP ProCurve 千兆以太网交换机用于管理。提供计量 PDU 以及 FDR InfiniBand 和以太网布线。

  • 机架: APC NetShelter SX 24U 标准机架式机箱,600mm(宽)x 1070mm(深)
  • InfiniBand: Mellanox 18 端口 SwitchX-2 FDR Infiniband 非托管交换机,带 1 年银牌支持
  • 以太网: HP 48 端口 ProCurve 1GbE 托管交换机
  • 配电: APC 计量机架 PDU,20A/120V
  • 互连和布线
    • Mellanox FDR InfiniBand 无源铜缆
    • Cat6a 以太网网线

加载 Disqus 评论