HI,欢迎来到学术之家,发表咨询:400-888-7501  订阅咨询:400-888-7502  股权代码  102064
0
首页 精品范文 超级计算机技术

超级计算机技术

时间:2023-09-19 16:27:39

超级计算机技术

超级计算机技术范文1

不久前,国际TOP500组织在德国莱比锡公布了最新全球超级计算机500强排行榜榜单,中国国防科学技术大学研制的天河二号以每秒33.86千万亿次的持续计算速度,成为全球最快的超级计算机。这是时隔两年半之后,中国超级计算机重返“世界第一”宝座。对此,专家们表示,由于天河二号的速度比第二名快近一倍,中国有可能保持桂冠至少一年时间。今后,全球最快超级计算机的位置,将可能出现由中、美、日、欧四强的计算机交替把持的局面。

这种超级计算机的问世,不仅对我国信息技术产业发展有重大意义,对国防、航天等领域将产生重大突破,而且对正在实施的“宽带中国”战略,也会有重大的推动作用。

超级计算机的前世今生

从全球视角来看,究竟是谁最早提出了超级计算机的概念?至今仍存在很大争议。有人说是最早开发集成电路的肖克利,在自己的工作日记中透露了超级计算机的构思,也有人说是当时为军方服务的LawrenceLivermore国家实验室的想法。但根据相关资料研究,真正意义上研发出符合超级计算机定义产品的人应该是西蒙?克雷(Seymour Cray)博士,此人后来被西方称为“超级计算机之父”。

1925年9月,克雷出生在美国威斯康星州的一个工程师世家。1960年,刚成立三年的控制数据公司(CDC)接受美国原子能委员会的委托,克雷带领34人研究小组“隐士攻关”。1963年8月,克雷公布CDC6600超级计算机,共安装了35万个晶体管,运算速度为300万次,是其他电脑的10倍。尽管克雷在上个世纪六十年代成功开发了第一代超级计算机,但是真正将这个产品应用起来的还是LawrenceLivermore国家实验室和另一位超级计算机设计者Frank McMa hon,目的是为了克服当时磁芯存储器存在的延时问题。1971年前后Frank McMa hon将这种想法成功地应用于CDCTAR超级计算机的处理器CDC7600上。值得一提的是1975年诞生的“克雷1号”,实现了当时绝无仅有的超高速――可持续保持每秒1亿次运算。

1992年,英特尔推出Paragon超级计算机,它成为历史上第一台突破万亿次浮点计算屏障的超级计算器。紧接着,IBM的SP2、日立公司的SR2201和SGI公司的Origin2000超级计算机先后出现。1996年12月,SGI公司研制出一台具有256个处理器的超级计算机安装在美国国家实验室,运算速度达到了30000亿次。进入2000年之后,超级计算机的竞争日渐激烈,日本和美国成为最大的竞争对手,2003年世界前10名的超级计算机名单中,日本的“地球模拟器”排在榜首,后面全是清一色的美国产品。在厂商之间,IBM、英特尔、DELL、NEC和SGI的竞争更激烈,近来苹果又加入这一行列,G5苹果超级计算机后来居上,超过英特尔居于排行榜第三位。在中国,联想和曙光同时开发了国产超级计算机,在全球500强超级计算机中能够看到中国人的身影。

世界上第一台数字电子计算机诞生于1946年。1956年,在总理亲自主持制定的《十二年科学技术发展规划》中,就把计算机列为发展科学技术的重点之一,并筹建了中国第一个计算技术研究所。我国从1957年开始研制通用数字电子计算机,1958年8月1日该机可以表演短程序运行,标志着我国第一台电子计算机诞生。为纪念这个日子,该机定名为“八一型数字电子计算机”,后改名为“103型计算机”。

截至目前,中国超级计算机发展大体经历了三个阶段:第一阶段,自上世纪六十年代末到七十年代末,主要从事大型机的并行处理技术研究;第二阶段,自上世纪七十年代末至八十年代末,主要从事向量机及并行处理系统的研制;第三阶段,自上世纪八十年代末至今,主要从事MPP系统及工作站集群系统的研制。经过几十年不懈努力,我国的高端计算机系统研制已取得了丰硕成果,“银河”、“曙光”、“神威”、“深腾”等一批国产高端计算机系统的出现,使我国成为继美国、日本之后,第三个具备研究高端计算机系统能力的国家,这是在主要由美国占绝对垄断的全球超级计算机领域里,中国科学家取得的历史性突破。

创造,抢占技术制高点

据全球超级计算机500强排行榜最新显示,中国“天河二号”以每秒33.86千万亿次的运算速度名列榜首,比排名第二的美国“泰坦”每秒17.59千万亿次的运算速度高出近一倍,排名第三的是美国“红杉”,日本“京”和美国“米拉”分列四、五名。不过在500强榜单前五名中,有3个来自美国,而在全部500强中有250多台为美国所拥有,这说明美国仍是超级计算机运用最为广泛的国家,美国在这一领域的技术力量不可低估。

超级计算机的问世,只是抢占高技术领域战略制高点的一个突破。“超级计算机研制难,用好更难。这是国际超算领域的普遍认识。”据悉,在天河二号研制中,攻关组的技术人员认真分析总结天河一号的研制与应用经验,对市场需求进行深入调研,历时近3年时间,再次取得重大突破。对于超级计算机的应用,很多老百姓可能认为离日常生活太远,因此关注较少,其实,利用“天河”渲染制作的国产电影《关云长》、新版电视剧《西游记》以及美国电影《生化危机2》等,早已走进影院、搬上荧屏。而这,只是超算应用在百姓生活中的一个缩影。

超级计算机能做什么?这是很多人看到“天河号”消息后的第一反应,事实上它的用途非常广泛――交通工具制造:认识和改进交通工具的空气/流体动力结构、燃料消耗和防撞强度,提高乘坐者舒适度。气候问题:借助超算建模预测气候变化,防范和减轻气候变化带来的破坏。生物信息:从基因学的数据密集型研究到细胞网络模拟和大规模系统建模,帮助寻找疾病治疗的革命性方法。地震监测:对地震的模拟将帮助探索地震预测新方法,通过预警减少伤亡和损失的风险。公共健康:可对影响社会的健康和安全事件进行模拟,为可能发生的大规模污染和灾难等提出应对措施和规划……几乎在所有领域,超级计算机都可大显身手。

超级计算机是世界高技术领域的战略制高点,是一个国家科技竞争力和综合国力的重要标志。对此,日本东京工业大学教授松冈聪表示,“中国的超级计算机取得了飞跃,估计在今后两年将继续保持世界第一。在超级计算机的开发上,可以说真正进入了美、日、欧、中四强时代”。美国加州计算机工程师比尔?贝德也认为,“超级计算机是国家竞争力的象征,中国在不出3年的时间里两度研发出全球速度最快的超级计算机,显示了中国科技实力的巨大进步。”

在超级计算机研发方面,日本、欧洲同样具有较强实力,今后的国际竞争将更加激烈。面对异常激烈的技术竞争,唯有在技术创新和创造中不断超越自我,始终瞄准高技术领域的前沿,才能为自己创造新的未来。近来,美国的“棱镜门”事件,引发全球对美国的信任危机,为什么美国能“窥视”全球?控制前沿高技术可以说是必备的基础。尽管许多国家包括美国盟友对此抱怨不断,但也显得无可奈何,因为核心技术掌握在美国人手里。我国的互联网产业发展速度惊人,手机用户世界第一,但网络信息安全等问题却令人担忧,超级计算机的发展能否尽快应用到“宽带中国”战略上来,值得各方期待。

创新,向全国产化迈进

在2013国际超级计算大会上,天河二号的性能介绍引来阵阵掌声。天河二号内存总容量1400万亿字节,存储总容量12400万亿字节,最大运行功耗17.8兆瓦,持续计算速度约为美国“泰坦”的2倍,计算密度是“泰坦”的2.5倍,能效比相当。天河二号副总设计师胡庆丰研究员介绍说:“打个比方,天河二号运算1小时,相当于13亿人同时用计算器计算1000年,其存储总容量相当于可存储每册10万字的图书600亿册。”对此,德国《明镜》周刊惊叹,世界上原先最快的超级计算机与中国的天河二号比起来就跟算盘一样。日本《朝日新闻》称,中国超级计算机自2010年秋季以来重返世界之巅,展现了远远超过第二名的优势,天河二号在技术水平等方面获得专家的高度评价。

那么,高性能、高能效从何而来?在天河二号工程负责人看来,这一切都源于瞄准国际前沿的自主创新,是自主创新推动了中国超算的跨越式发展。世界超级计算机的发展历程表明,计算能力每提高一个量级,都需要体系结构的创新和一系列关键技术的新突破。在天河一号研制中,科研人员首创了CPU+GPU的异构融合计算体系结构,引领了世界超算的发展方向。

2010年11月,中国的天河一号超级计算机首次夺取超级计算机500强榜首,但仅过了半年,便被日本理化研究所的“京”超越。2012年6月和11月,美国的超级计算机“红杉”和“泰坦”先后在排行榜上夺魁,天河一号排名滑落至第八名。那么,如今的天河二号能保持世界第一多久?毕竟,“相互超越很可能成为今后世界超算强国竞争的常态。”

今年5月,超级计算机500强排行榜主要编撰人之一、美国田纳西大学教授杰克?唐加拉曾对天河二号进行了现场考察,认为“天河二号颇富中国特色,互联网络、操作系统、前端处理器、软件等都主要由中国技术人员发明创造”。美国《计算机世界》杂志认为,除非在亿亿次级超级计算机的研发上投入亿万美元,否则美国将失去超级计算机领域的传统领先地位。杂志称,中国正朝着建造全部采用本国部件的超级计算机迈进,包括100%采用中国芯片。

超级计算机技术范文2

关键词:

一、计算机的发展史

通常说到"世界公认的第一台电子数字计算机"大多数人都认为是1946年面世的"ENIAC".它主要是用于计算弹道。是由美国宾夕法尼亚大学莫尔电工学院制造的。但它的体积庞大,占地面积170多平方米,重量约30吨,消耗近100千瓦的电力。显然,这样的计算机成本很高,使用不便。  

1956年,晶体管电子计算机诞生了,这是第二代电子计算机。只要几个大一点的柜子就可将它容下,运算速度也大大地提高了。1959年出现的是第三代集成电路计算机。

从20世纪70年代开始,这是电脑发展的最新阶段。到1976年,由大规模集成电路和超大规模集成电路制成的"克雷一号",使电脑进入了第四代。超大规模集成电路的发明,使电子计算机不断向着小型化、微型化、低功耗、智能化、系统化的方向更新换代。

20世纪90年代,电脑向"智能"方向发展,制造出与人脑相似的电脑,可以进行思维、学习、记忆、网络通信等工作。进入2l世纪.电脑更是笔记本化、微型化和专业化,每秒运算速度超过100万次,不但操作简易、价格便宜,而且可以代替人们的部分脑力劳动,甚至在某些方面扩展了人的智能。于是,今天的微型电子计算机就被形象地称做电脑了。

二、计算机发展的现状

计算机网络是计算机技术和通信技术紧密结合的产物,它涉及到通信与计算机两个领域。它的诞生使计算机体系结构发生了巨大变化,在当今社会经济中起着非常重要的作用,它对人类社会的进步做出了巨大贡献。从某种意义上讲,计算机网络的发展水平不仅反映了一个国家的计算机科学和通信技术水平,而且已经成为衡量其国力及现代化程度的重要标志之。

从50年代开始,人们及各种组织机构使用计算机来管理他们信息的速度迅速增长。早期,限于技术条件使得当时的计算机都非常庞大和非常昂贵,任何机构都不可能为雇员个人提供使用整个计算机,主机一定是共享的,它被用来存储和组织数据、集中控制和管理整个系统。所有用

户都有连接系统的终端设备,将数据库录入到主机中处理,或者是将主机中的处理结果.通过集中控制的输出设备取出来。它最典型的特征是:通过主机系统形成大部分的通信流程,构成系统的所有通信协议都是系统专有的,大型主机在系统中占 据着绝对的支配作用,所有控制和管理功能都是由主机来完成。

行家们认为,在21世纪超级计算机将是决定谁能在经济和科学技术上居于领先地位的关键因素。美国国防部曾声称"超级计算机是计算技术的顶峰.如果超级计算机的研究与开发落后于外国,国家安全将受到威胁。"美、日以及西欧各国围绕超级计算机,即万亿次量级的超级巨型计算机,已开展激烈的争夺战,都想捷足先登,先发制人。为此,他们各施高招组织人力、物力、财力,制订了发展超级计算机的五年或十年计划。美国政府制订了"超级计算机与通信"(HPC&C)的发展计划.美国国防部也把超级计算列为"2l世纪科研关键技术"之一,仅此项,投资就达1 7亿美元。为了保证在1995~2000年分别研制成功万亿次和百万亿次量级的高性能超级巨型计算机,美国国防部还准备拨款2l亿美元以支持此项研究任务的按期完成。如果此项计划得以圆满完成,将使美国今后十年的国民经济总产值增加2000~3000亿美元。日本也不甘落后,他们对美国发展万亿次量级的巨型机极为关注,计算机业界反应十分强烈,积极主张动用三倍于美国的巨额投资,集中人力、物力、财力,开展高技术基础的设施建设(包括10个巨型机中心)。日本政府依据知识阶层与计算机业界的强烈呼声,于1992年制订了国家直接领导、统一指挥,组织政府相关部门、计算机界厂商、高等学府联台研究、成果共享、全面开发的国策.并把大规模并行计算机列为国家90年代的重点发展项目。日本政府依据此国策.制订了为期十年的"真实世界计算机计划"(简称RWC计划),其中有两项是发展万亿次量级超级巨型计算机的计划。日本计算机业界则雄心勃勃.企图从美国人的手中抢占巨型机霸主的世界领导权。西欧对于并行处理技术的研究以及并行机产品的研制也已有良好的基础,特别是德、英、法对发展并行机系统十分重视,并于1991年制订了"Tera--Flop计划"(即研制万亿次量级的大规模并行计算机),旨在5年内推出万亿次量级的超级巨型计算机。近五年来的实践表明,要实现万亿次量级超级巨型机.非并行机型莫属.即唯有大规模并行处理机才能胜任。传统向量多处理系统是不行的,这是因为单个CPU的速度总会受到物理极限的制约,其性能总是有限的,即使采用多处理机结构形式,因其紧耦合势必制约了微处理器的数量,最终导致系统性能有限而无法攻克万亿、百万亿次量级的难关。因此,只有并行机才能担负攀登万亿次量级的大关,挑起计算机业界的历史使命。

三、计算机业的发展前景

随着计算机应用的发展,出现了多台计算机互连的需求。这种需求主要来自军事、科学研究、地区与国家经济信息分析决策、大型企业经营管理。他们希望将分布在不同地点的计算机通过通信线路互连成为计算机计算机网络。网络用户可以通过计算机使用本地计算机的软件、硬件与数据资源,也可以使用连网的其它地方计算机软件、硬件与数据资源,以达到计算机资e源共享的目的。这阶段研究的典型代表是美国国防部高级研究计划局(ARPA,AdVanced  Research  Projects  Agerncy)的ARPAnet(通常称为ARPA网)。1969年ARPA网只有4个结点,1973年发展到40个结点。1983年已经达到100多个结点。ARPA网通过有线、无线与卫星通信线路.使阿网覆盖了从美国本土到欧洲与夏威夷的广阔地域。ARPA网是计算机网络技术发展的一个重要的里程碑,它对发展计算机网络技术的主要贡献表现在以下几个方面:

    l、完成了对计算机网络的定义、分类与子课题研究内容的描述:

    2、提出了资源子网、通信子网的两级网络结构的概念;

    3、研究了报文分组交换的数据变换方法:

    4、采用了层次结构的网络体系结构模型与协议体系。

超级计算机技术范文3

高性能计算领域的“皓龙现象”值得我们关注,本文试图从架构、能效和高性能计算的未来发展趋势等几个方面,管窥皓龙迅速崛起高性能计算领域背后的秘密。

AMD64技术开创64位计算时代

AMD于2003年推出的皓龙处理器基于AMD64技术,将x86计算带入了64位时代。AMD64技术具有独特的直连架构,在芯片上集成内存控制器,通过超传输总线技术,实现处理器和I/O以及内存之间的高速互连,消除了传统前端总线的固有瓶颈,大大提高了系统的总体性能和效率。另外,AMD64技术还通过集成增强病毒防护技术(EVP)提高用户计算环境的安全性。

作为业内首款将 32位 及 64 位计算结合在一起的高效架构,AMD64技术在支持64位计算的同时兼容32位计算。对于大量运行32位应用的企业用户而言,可以在兼容现有32位软件应用的同时,为将来随时升级到64位做好准备,保障了其既有投资。

创新架构突破传统系统瓶颈

AMD皓龙处理器性能卓越,这首先要归功于AMD独创的直连架构。很多业内人士都把直连架构视为x86处理器领域最重要的技术创新之一。通过将内存控制器内置入处理器和采用高速串行超传输技术(HyperTransport),直连架构使得处理器与芯片组、处理器与内存、处理器与处理器之间都可通过超传输总线相连,大大提高了效率,避免了前端总线架构中多个组件共用一条总线造成的带宽争抢“内耗”,实现了处理器与其他组件之间的快速响应,最大限度降低了内存延迟。

AMD皓龙处理器的直连架构

超传输总线的发展历程

这种架构的点对点高速传输特性让服务器扩展处理器数量时的性能损耗和难度大幅降低,而其出色的带宽则让基于皓龙的服务器在运行企业级数据密集型任务时表现更为流畅。 由于AMD皓龙内置内存控制器,无需通过北桥芯片来访问内存,处理器降低了系统功耗,提高了稳定性,因此在密集空间中可以部署基于大量AMD 皓龙处理器的超级计算机。

超传输总线(HT)搭建多核时代的高速公路

超传输总线(HyperTransport)技术是AMD所独有的新一代芯片互联总线技术,旨在提高电脑、服务器、嵌入式系统,以及网络和电信设备的集成电路之间的通信速度。通过减少系统中的布线数量,减少系统瓶颈,CPU到CPU间的双向带宽可达6.4GB/秒,多至三条16-bit的超传输总线可带来19.2GB/秒的传输带宽,这消除了所有总线瓶颈问题,令CPU更加有效地在高端多处理器系统中使用系统内存。直连架构和超传输总线技术的完美结合,使基于AMD处理器的系统平台在向未来多核计算扩展时更加灵活和简单。

2006年,频率更高,资源配置更灵活的HyperTransport3.0版本问世。HyperTransport3.0将工作频率从HyperTransport2.0最高的1.4GHz猛增到2.6GHz,提升幅度几乎达到一倍,同时还提供了32bit位宽,在高频率(2.6GHz)、高位宽(32bit)的运行模式下,它可以提供高达41.6GB/s的总线带宽,足以应付未来3年内显卡和处理器对系统带宽的需求。

为了加速HyperTransport3.0技术在超级计算系统中的扩展应用,AMD还推出了第一个超传输总线的扩展接口规范HTX。基于HTX接口,超级计算机的系统制造商所添加的协处理器可以通过超传输总线与AMD皓龙处理器相连,从而显著提升超级计算系统在特定应用上的计算能力。

真四核皓龙蓄势待发

继2005年率先在x86架构服务器中引入真双核技术后,AMD将在2007年中期推出代号为“巴塞罗那”的四核处理器,据称是业界首个真正的四核架构,即在同一硅片上整合四颗处理核心。AMD的真四核处理器采用65nm 绝缘硅(SOI)生产工艺、新增可扩展的共享三级缓存、128 位 的FPU(浮点运算单元)。AMD四核处理器的每个核心都具备“改进的分支预测”能力,可以在每个时钟周期循环内完成两个128-bit载入、执行最多四个双精度浮点操作,以及两个128-bit的SSE数据流,并支持SSE指令集扩展。

AMD实验室的模拟测试表明,AMD四核皓龙处理器在性能上得到了大幅度的提升,与现有的AMD双核皓龙处理器相比,四核皓龙在应用某些数据库软件时,性能提升高达70%。

除了性能上的提升,AMD四核皓龙处理器还采用了“独立核心动态调用”(DICE)的四核心电源管理技术。DICE不仅会根据系统负载智能分配各核心需要执行的任务,还可以在处理器核心处于空闲状态时将其转入完全休眠状态,从而大幅降低了功耗。与双核皓龙相比,AMD四核皓龙功耗相同,从而进一步提高了皓龙的每瓦性能优势。

开放架构 顺应未来超级计算发展趋势

目前,超级计算多应用于军事、医药、气象、生物研究等专门领域,全球超级计算系统中除了部分由大量通用计算机形成的超级计算集群外,大部分超级计算机都是针对某些特殊应用而研发的的专用超级计算机,比如排名全球TOP500第二名由Cray公司研制的“红色风暴”就是为专用计算而设计的。为了能够进一步提高专用高性能计算机系统的性能,AMD在2006年11月推出了全球首款可满足高性能计算特殊需求的专用流处理器AMD Stream ProcessorTM。这款处理器专为工作站和服务器等纯计算系统而设计,采用被称为 CTMTM(Close To Metal)的 AMD 新型瘦硬件接口,能够显著提高在金融分析、地震偏移分析、生命科学研究和其它应用领域的计算性能。

超级计算机技术范文4

七大技术四大特点

超级计算机是指“在给定时间内可提供最大、最快和最强能力的大容量大型计算机”。

“天河一号”的计算速度每秒1 206万亿次,位于国内榜首、世界一流。它一天的计算量相当于一台家用电脑不间断地计算160年。在气候预报、环境控制、飞行器设计、系统生物学等领域都需要千万亿次甚至更高性能的计算机。因此,“天河一号”投入使用后,必将推动科学研究的发展。

如此神奇的“天河一号”,采用了七项关键技术,这些技术在互联通信、网络计算、安全控制等领域都处于领先地位。同时,它还具有四大特点:高性能,计算速度处于世界领先地位;低能耗,能量消耗与同类计算机相比大大降低;高安全,实现了不同用户间数据和工作信息的相互隔离,对用户来说,相当于到银行租个保险柜,钥匙掌握在自己手里;易使用,“傻瓜化”的操作界面和菜单、鼠标等常规操作,让机器的使用变得简单。

在公共服务领域大显身手

“天河一号”将成为国家超级计算天津中心的业务主机,面向国内外提供超级计算服务,它在投入使用后将实现三大功能:

第一,作为提供超级计算服务的全球公共科研设施,“天河”向国内外用户开放。无论身在何处,用户都可以通过国际互联网使用“天河”进行科学计算。

第二,作为产业带动平台,“天河”上集中的当今时代最先进的信息技术将逐步转移到其他产业,从而解决国家与社会发展中的各种问题。

第三,作为吸引人才的平台,“天河”将进一步汇聚来自世界各地的尖端技术人才,对国民经济和世界科技的可持续发展作出更多贡献。

电脑能否代替人脑

超级计算机的能力有极限吗?它们能否在未来代替人脑?科幻电影中计算机统治世界的故事,让人们对这一古老话题的猜想从未停止。

答案是,计算机无法代替人脑。人脑与计算机的一个根本区别在于,人能够发现规律,而计算机只能根据人发现的规律和设计的方法进行计算。

世界是有规律的,但还有很多问题,人类尚未发现其中的规律,而已经发现的规律中也有可计算的和不可计算的。换句话说,只要人类能够发现规律、并且找到方法把规律变成可计算的问题,从而建立起物理和数学模型,计算机就能够替代人类在这些问题中的劳动。

仅就代数计算而言的话,“天河一号”一秒钟能进行1 206万亿次计算,人却只能进行大约一次运算。然而,记住对方的长相这样一个人在瞬间就能完成的图像识别工作,计算机却要经历一个极其复杂的计算过程。

今天看来不可计算的规律,在未来某天也许能够进行计算。但人类又会不断发现更多未知的领域和更多不可计算的规律。

与日常生活息息相关

与已经进入寻常百姓家的个人电脑相比,这些运算速度动辄以万亿、十万亿、百万亿和千万亿次来计算的超级计算机,和老百姓的日常生活有什么关系呢?

超级计算机似乎只和科学研究联系在一起。但事实上,在和大众生活息息相关的各个领域,我们都可以看到超级计算机的身影。

网络服务。在网络日益普及的今天,面对数千万、数亿用户的访问请求,服务器必须有强大的数据吞吐和处理能力。而这正是超级计算机发挥作用的舞台。高性能服务器每秒钟可以处理数千万乃至数亿次服务请求,及时提供用户所需要的信息和服务,保证服务质量。

天气预报。天气预报的结果,也是由超级计算机计算而来。目前世界最高水平可预报8天,我国为5至6天。但对于中长期预报特别是气候预报来说,目前世界上的超级计算机仍然无法满足需求,因为天气预报的计算需要每秒百万万亿次的速度。世界上一个公认的说法是,天气预报时效每增加一天,气象和计算机界需要努力10年。

生物制药。研制一种新药,从化合物筛选到临床试验,一般需要10到15年的时间。使用超级计算机,以计算机模拟的手段,科学家可以在较短的时间内从几十万甚至几百万种化合物中筛选出有效的药物化合物,不仅节省了购买真实化合物的大量资金,而且大大缩短了药物研发的周期。

各种尖端的科学技术问题,都需要超级计算机的支撑,国民经济中很多重要的产业如石油勘探、汽车生产等也都已经离不开高性能计算机。

难以预知的未来

超级计算机还会给人类的未来带来什么样的改变?

虽然目前超级计算机的计算能力不直接面向用户,但随着其服务能力的拓展,很可能会诞生一个庞大的巨型计算机服务产业,面向个人用户提供服务。比方说,未来的天气预报可能进一步定时化,个人可以随时询问某个局部区域在某个特定时间段的天气情况。

应用是无止境的。有技术,就会有应用,应用又会反过来推动技术的发展。

一位科学家曾经说过,超级计算机如同伽利略的望远镜,让人们从观察宇宙的不同维度中,发现了深刻影响人类社会的一系列规律。

超级计算机技术范文5

6月17日,在德国莱比锡召开的第41届国际超级计算大会上,国际TOP500组织正式世界超算500强排名,国防科大研制的天河二号以每秒33.86千万亿次的浮点运算速度,成为全球最快的超级计算机。这也意味着在时隔两年半后,中国超级计算机运算速度重返世界之巅。

“打个比方,天河二号运算1小时,相当于13亿人同时用计算器计算1000年,其存储总容量相当于可存储每册10万字的图书600亿册。”天河二号副总设计师胡庆丰研究员介绍。

另一个更为生动的例子则是电影《阿凡达》。当时《阿凡达》的动漫渲染制作动用了众多超级计算机资源、耗时一年多才完成,如果用天河二号,1个月足矣。

天河二号内存总容量1400万亿字节,存储总容量12400万亿字节,最大运行功耗17.8兆瓦。相比此前排名世界第一的美国“泰坦”超级计算机,天河二号每秒33.86千万亿次的计算速度是“泰坦”的2倍,计算密度是“泰坦”的2.5倍,能效比相当。与此前研制的天河一号相比,天河二号计算性能和计算密度均提升了10倍以上,能效比提升了2倍,二者占地面积相当,执行相同计算任务的耗电量只有天河一号的1/3。中国科学院超级计算中心主任迟学斌的统计表明,最近10年,美国超级计算机性能提升了500倍,而中国超级计算机性能则提升了5000倍。

2010年11月17日,国防科大研制的天河一号凭借每秒4700万亿次的峰值速度和每秒2566万亿次的持续速度,让中国人首次站到了超级计算机世界冠军的领奖台上。

然而,仅过了不到8个月,日本超级计算机“京”就将天河一号挤下冠军台。之后,美国研制的 “红杉”、“泰坦”超级计算机先后坐上世界第一的交椅,天河一号排名滑落至第8位。

从银河到天河,从天河一号到天河二号……凭着雄厚的技术积累和预先研究取得的成果,国防科大成功立项国家科技部863计划信息技术领域“高效能计算机研制”重大项目。今年5月,峰值速度达5.49亿亿次的天河二号亮相。

那么,王者归来的天河二号能在世界第一的位置上维持多久?“相互超越很可能会成为今后世界超算强国竞争的常态。我们有能力也有信心,不断缩小与发达国家的差距。” 天河二号工程总指挥、总设计师廖湘科研究员说。

“一是高性能,峰值速度和持续速度都创造了新的世界纪录。二是低能耗,能效比为每瓦特19亿次,达到了世界先进水平。三是应用广,主打科学工程计算,兼顾了云计算。四是易使用,创新发展了异构融合体系结构,提高了软件兼容性和易编程性。五是性价比高。”

2013国际超级计算大会上,天河二号的介绍引来阵阵掌声。

世界超级计算机的发展历程表明,计算能力每提高一个量级,都需要体系结构的创新和一系列关键技术的新突破。尽管有天河一号研制的技术积累和工程经验,但要突破亿亿次级超级计算机关键技术并非易事。超级计算机运算性能的提升,决不是量的简单叠加,而是全系统质的跨越。

体系结构是高性能计算机的“筋骨”。研制人员在总结天河一号成功经验的基础上,自主创新了新型异构多态体系结构,实现了多类型计算资源、输入输出资源和服务资源的灵活配置,在强化科学工程计算的同时,可高效支持大数据处理、高吞吐率和高安全信息服务等多类应用,显著扩大了天河二号的应用领域。

随着系统规模的扩大,用电量随之大增。天河二号通过采用综合化的能耗控制,设计实现了面向高效能计算的层次式优化框架、自适应能耗控制算法及低损耗、高效率的电源设计,有效提高了系统的能效比,达到了世界先进水平。

科研人员还介绍,如果不能有效解决超级计算机的体积问题,系统的安装调试、运行管理等都将成为很大的难题。天河二号设计实现了高密度、高精度的结构工艺,采用了多机柜封闭循环的水风混合冷却方案,有效缩减了系统体积,与美国“泰坦”相比,体积小了15%。

天河二号工程副总指挥李楠研究员介绍,天河二号的体系结构、高速互连技术、操作系统等实现了中国创造,拥有自主知识产权,而CPU芯片和应用软件还没有完全国产化。但值得一提的是,由国家重大专项支持、国防科大自主研制的新一代FT1500CPU,是当前国内主频最高的通用CPU。

其实,利用“天河”渲染制作的国产电影《关云长》、新版电视剧《西游记》以及美国电影《生化危机2》等,早已走进影院、搬上荧屏。这只是超算应用于老百姓生活的一个缩影,“天河”已经广泛应用于食、医、行、娱等领域。

据了解,2010年天河一号在国家超级计算天津中心投入使用后,“天河”超级计算机的用户迄今已超过600个,在石油勘探、地震数据处理、土木工程设计、航空航天、生物医药、天气预报与气候研究、海洋环境研究、新能源、新材料、宇宙科学研究、动漫与影视渲染等领域得到广泛应用。

而在天河二号上,若干典型应用的运算规模、计算效率、精细度均已超过天河一号。如研发一款新型车,采用传统手段要经过上百次的真实碰撞,历时两年多才能推出,而利用天河二号进行碰撞模拟和空气动力学模拟,只需3到5次真实碰撞,两个月即可完成。

目前,天河二号已应用于生物医药、新材料、工程设计与仿真分析、天气预报、气候模拟与海洋环境研究、数字媒体和动漫设计等多个领域,开始为多家用户单位提供超级计算服务。

超级计算机技术范文6

美国ASCI计划

美国能源部自1996年开始了一项名为ASCI计划的高性能计算机研制项目。该计划是在全球全面禁止核试验的情况下,美国为了保持其核威慑及核垄断地位而提出的一项计划。目前,世界上绝大多数最快的超级计算机都是这个项目的产物,其中主要的代表有IBM公司研发的Blue Gene和Cray公司研发的Red Storm。

1. IBM蓝色基因

Blue Gene是IBM、美国LLNL实验室和美国能源部合作的一项研制超级计算机的项目代号。项目计划是制造峰值性能达到每秒千万亿次级别的超级计算机。这是一个分阶段的项目,目前性能已经达到每秒360万亿次。现在正在研发的Blue Gene项目共有四种机型:Blue Gene/L、Blue Gene/C、Blue Gene/P和Blue Gene/Q。

Blue Gene/L采用了与以往设计完全不同的方法。系统由大量节点组成,每个节点的处理器不再追求高性能、高主频,而是相对适中,从而实现了低功耗和低成本。Blue Gene/L通过PowerPC的嵌入式处理器、嵌入式DRAM和片上系统技术把计算处理器、通信处理器、三级Cache和带有复杂路由的互联网络部件集成在一起。由于采用这样的低功耗、低主频设计,导致了整机的低功耗和高密度,可以把1024个计算节点放置于一个机柜当中。通过这样的方式把用于节点通讯的功能单元和处理器集成在一起,降低了成本。2004年9月,IBM公布了Blue Gene/L原型,当时的性能是每秒36.01万亿次。它以这个速度替代了NEC的地球模拟器成为世界上最快的超级计算机。截止到2006年6月,世界最快的前10台超级计算机中有3台是Blue Gene,前64台中有13台。

Blue Gene/C计划现在已经更名为Cyclops64。这个计划的目标是制造第一个“片上超级计算机”。每个Cyclops64芯片预计运行在500MHz主频下,包含80个处理单元。每个处理单元包含两个线程单元和一个浮点单元。处理器通过96口和7级的交叉开关互联,而且它们可以通过片上的SRAM进行通讯。单片的Cyclops64芯片的理论峰值将可以达到每秒8000亿次。整个系统将可以包含13824个芯片、1105920个处理单元以及可以同时运行2211840个线程。Cyclops64软件系统采用了Delaware大学的TiNy线程库,提供给用户良好的可编程界面。

Blue Gene/P计划是一个结构上类似于Blue Gene/L的项目。它的目标峰值性能将达到千万亿次。目前在美国的LLNL实验室部署的代号为Roadrunner的超级计算机,被认为有可能是该计划的一个具体应用。Roadrunner采用了混合式设计,它采用了16000个AMD的皓龙处理器以及相当数量的Cell处理器。由于Cell处理器具有良好的浮点运算性能,通过Cell处理器的运用将大大增加Roadrunner的峰值运算性能。如果IBM能完成这个系统,那么它将成为世界上最强大的超级计算机系统。

Blue Gene/Q计划是IBM面向未来的超级计算机研制计划,目前关于该计划的细节还知之甚少,该计划的性能目标将达到每秒3千万亿次~10千万亿次。

2.Cray红色风暴

针对ASCI项目,Cray公司提出了代号为Red Storm的超级计算机架构。第一台使用这个架构的超级计算机,在2004年被部署在美国的SNL实验室。这台机器包含有10368个处理器,拥有10TB的分布式内存和240TB的磁盘存储。该系统使用AMD的皓龙处理器作为处理单元,使用PowerPC 440的处理器作为通讯处理器。系统由计算节点和服务节点两个部分组成。计算节点运行称作Catamount的轻量级操作系统,服务节点运行Linux操作系统。该系统主要是为了替代ASCI Red,理论峰值将达到40万亿次。 ASCI随着第一个十年计划的完成,目前已经开始了第二个十年计划,该计划已经更名为ASCP(高级模拟与计算计划)。最新的发展规划认为第一个十年主要是通过开发一系列强大的工具和系统,验证基于模拟研究方法的可行性。第二个十年计划将要真正利用这些系统进行科学探索,进一步提高精度和正确性,逐步把模拟作为一种预测工具用于前沿的科学研究。同时第二阶段全面把下一代超级计算机系统的验证目标设定为每秒千万亿次。

美国HPCS计划

除了ASCI研制计划之外,美国国防部高级研究计划局于2001年初提出了HPCS(高效能计算系统)计划。该计划的目标开始就是面向千万亿次规模的计算机系统需求,针对当前高端计算机系统开发以及应用中存在的问题,研制适合于高端国家安全应用的高性能计算系统,填补目前高性能计算和量子计算之间的空白。

HPCS计划为期8年,分为三个阶段实施。第一阶段为概念研究阶段,第二阶段是研究、开发阶段,第三阶段是大规模开发阶段。整个HPCS的主要设计目标是高性能、良好的可编程性、可移植性以及可靠性。高性能的主要目标是在美国重要的国家安全应用方面,将目前的系统性能提高10~40倍;可编程的主要目标是减少HPCS应用方案的开发时间,降低系统的运行以及维护成本,提高系统使用效率;可移植性是指将研究和运行的HPCS应用软件和系统平台分离;可靠性的目标是针对外界的攻击、硬件故障以及软件错误开发相应的保护技术。因此HPCS主要提出的课题有:高带宽、低延迟、平衡的系统结构、可靠性策略、性能测试、系统伸缩性。

2002年开始的是为期一年的HPCS概念研究阶段。参与这个阶段研究的厂商主要包括Cray、HP、IBM、SGI和Sun五家,还有MIT的林肯实验室专门进行应用分析和性能评测。经过竞争和淘汰,第二阶段参与的企业为Cray、IBM和Sun三家。

1.Cray两步走

Cray计划分两步完成自己的千万亿次设计目标。第一阶段推出一种称为Rainier系列的机器,以整合Cray现有的XD1、XT3、X1/X1E三种平台,形成一种新的Rainier的计算节点也是异构的系统,包括基于AMD皓龙处理器的标量计算节点、向量计算节点,还包括其他特殊计算节点,比如FPGA可重构节点和MTA多线程节点等,各种不同的处理器节点在统一的框架下进行管理。

第二阶段Cray计划推出一种名为Cascade的平台,这是Cray更为长期的一项计划,将融合更多的创新性技术。Cascade将采用统一的高带宽光互联网络,节点将包含向量部件、粗粒度的多线程处理器、与DRAM结合支持细粒度并行的PIM部件等。Cascade还提供分布式共享内存、多层次多线程执行模型、硬件支持的分析和调试功能。编程模型上提供对UMA和NUMA的混合模型,并计划开发一种高级编程语言。

2.IBM PERCS计划

IBM针对HPCS提出了PERCS计划,该研究包括处理器、存储控制、I/O、编译和运行环境等各个方面的研究队伍。其主要的研究内容包括:片上多处理器,PERCS将采用IBM Power7处理器;智能内存,将在DIMM内存条上增加一个智能Hub芯片,实现预取、Scatter/Gather、重排序、缓存等功能;在编程模型方面,实现了一种名为X10的编程语言,而且支持OpenMP。此外,IBM还专门开发了一种称为K42的操作系统,专门支持大规模处理系统;为了进行前期的研究,他们还开发了PERCSim模拟器来支持各个研究小组的工作。

3.Sun HERO项目

Sun提出了HERO项目,其中一些核心的创新技术包括:片内多线程技术、Proximity通讯技术、区间计算技术、保护指针。

目前,HPCS已经进入第三阶段,其中Sun被淘汰出局。现在IBM和Cray公司基于各自提出的技术开始为HPCS制造运算速度千万亿次的超级计算机。

日本高性能计算进展

除了美国,日本很早就从事高性能计算机的研制工作,其中比较有代表性的是NEC公司。

1983年,NEC就了其代号为SX-1和SX-2的超级计算机,其后几乎NEC以5年一代的速度不断推出新产品。

2002年,NEC为日本太空探索局等机构安装的地球模拟器速度达到了每秒35万亿次,拥有超级计算机领域最高性能桂冠长达3年之久。

地球模拟器通过设置“虚拟地球”以预测和解析整个地球的大气循环、温室化效应、地壳变动、地震发生等自然现象。硬件上地球模拟器的设计基于NEC以前的一款名为SX-6的超级计算机的架构。

整个地球模拟器包含640个节点,每个节点包含8个向量处理器和16GB内存,整体上组成5120个处理器和10TB内存的超级计算机系统。其中两个节点共享一个机柜,每个机柜耗电20 kW。系统具有700 TB的磁盘阵列和1.6 PB的磁带存储。地球模拟器几乎比同时代的美国的ASCI White超级计算机快5倍。NEC从1999年10月份开始构建这台超级计算机,到2002年才正式完工,共耗资72亿日元。

日本的科研机构和大学在超级计算机方面也获得很大的成就。2006年6月,日本的RIKEN研究所宣布他们完成了一台名为MDGRAPE-3的超级计算机系统。这是一台专用于分子动力学研究的超级计算机。该机器由总共4808个定制的MDGRAPE-3芯片,外加用于主控的Xeon处理器等组成。

该研究所宣称MDGRAPE-3性能已经达到千万亿次的目标,比目前最快的超级计算机Blue Gene/L还要快3倍,但是因为其专用性,不能运行Top500的测试程序,因此无缘Top500排行榜。除此之外,日本东京大学的GRAPE项目也在高性能计算的某些领域获得了很高的成就。

中国高性能计算进展

除了美、日之外,我国在高性能计算机方面的努力也很值得关注。有很多从事高性能计算机研究的企业和科研单位涌现出来,比如开展高性能计算算法研究的单位有中国科学院、中国工程物理研究院、国防科技大学、中国科技大学等单位。硬件制造也有不少单位,比如曙光信息产业有限公司、联想集团等。他们在各自的领域获得了很多令人瞩目的成就。

2004年6月,浮点运算速度达到每秒11万亿次的曙光4000A超级计算机落户上海超级计算中心。这台超级计算机进入当时的全球超级计算机排行榜前10名,使得我国成为继美国和日本之后,第三个能研制10万亿次商业高性能计算机的国家。

曙光4000A在大规模集群计算、网格技术等方面有所突破,形成了鲜明的技术特色。曙光4000A在工业标准的主板尺寸上实现了4个64位AMD皓龙处理器的SMP系统。2U的服务器采用标准的机箱、电源、风扇等部件,有独到的通风设计和部件布局。通过网格路由器、网格网管、网格钥匙、网格视图等网格部件的研制,曙光4000A在网格环境下能更好地服务于具有多样性的用户需求。通过在主板上集成管理接口,开发大规模集群专有的管理网络,使得大规模集群能够被有效地管理和控制,使得管理员不需要靠近计算机就能控制其运行。通过合理划分集群软件栈,将公共支撑部分提取成为集群操作系统的核心,改变了集群上系统软件缺乏统一框架的现状。曙光4000A的Linpack实测速度达到每秒8.061万亿次,效率达到71.56%,这个结果是当时世界上所有采用AMD皓龙处理器的高性能计算机中速度最快且效率最高的。曙光4000A跟ASCI White相比,价格是后者的10%,系统占地是后者的60%,功耗为后者的30%。

联想公司承担着国家863计划“高性能计算机及其核心软件”专项课题,在此基础上制造了深腾6800超级计算机,该计算机于2003年10月完成。深腾配置了1060个64位安腾2代处理器、2.6TB内存、80TB磁盘存储。

超级计算机技术范文7

关键词:数据库 浮点运算 虚拟化 资源共享 

 

一、网格计算的由来与发展 

网格计算是伴随着互联网技术而迅速发展起来的,是将地理上分布的计算资源(包括数据库、贵重仪器等各种资源)充分运用起来,协同解决复杂的大规模问题,特别是解决仅靠本地资源无法解决的复杂问题,是专门针对复杂科学计算的新型计算模式。这种计算模式是利用互联网把分散在不同地理位置的电脑组织成一个“虚拟的超级计算机”,其中每一台参与计算的计算机就是一个“节点”,而整个计算机是由成千上万个“节点”组成的“一张网格”,所以这种计算方式叫网格计算。这样组织起来的“虚拟的超级计算机”有两个优势,一个是数据处理能力超强,另一个是能充分利用网上的闲置处理能力。简单地讲,网格是把整个网络整合成一台巨大的超级计算机,实现计算资源、存储资源、数据资源、信息资源、知识资源、专家资源的全面共享。 

近几年,随着计算机计算能力的迅速增长,互联网络的普及和高速网络成本的大幅降低以及传统计算方式和计算机的使用方式的改变,网格计算已经逐渐成为超级计算发展的一个重要趋势。网格计算是一个崭新而重要的研究领域,它以大粒度资源共享、高性能计算和创新性应用为主要特征,必将成为21世纪经济发展的重要推动力。 

二十世纪九十年代以来,世界各个国家,尤其是发达国家,建立了很多超级计算应用中心和工程研究中心,美国还制定了新一轮规划的先进计算框架(ACIP),发展面向21世纪的先进计算技术。我国在科技部的领导和主持下,经过专家组及相关单位的努力,作为我国高性能计算和信息服务战略性基础设施的国家高性能计算环境发展很快。在已经建成的5个部级高性能计算中心的基础上,又于中南、西北等地建立了新的国家高性能计算中心,科技部加强了网络节点的建设,形成了以科学院为主体的计算网格。教育部也启动了网格计算工程,第一批12个网点正在建设之中,国家基金委也列出专项基金资助网格计算。 

网格是借鉴电力网的概念出来的,网格的最终目的是希望用户在使用网格的计算能力时,就如同现在使用电力一样方便简单。 

二、网格计算的应用 

(一)分布式超级计算 

网格计算可以把分布式的超级计算机集中起来,协同解决复杂大规模的问题。是大量的闲置计算机资源得到有效的组织,提高了资源的利用效率,节省了大量的重复投资,使用户的需求能够得到及时满足。

(二)高吞吐率计算机 

网络技术能够十分有效地提高计算的吞吐率,它利用CPU周期窃取技术,将大量闲置计算机的计算资源集中起来,提供给对时间不太敏感的问题,作为计算资源的重要来源。 

(三)数据密集型计算 

数据密集型计算的问题求解通常同时产生很大的通讯和计算需求,需要网格能力才可以解决。网格已经在药物分子设计、计算力学、计算材料、电子学、生物学、核物理反映、航空航天等众多领域得到广泛应用。 

(四)给予更广泛信息共享的人与人交互 

网格的出现更急突破了人与人之间地理界线的限制,使得科技工作者之间的交流更加的方便,从某种程度上说,可以实现人与人之间的智慧共享。 

 

(五)更广泛的资源贸易 

随着大型机性能的提高和微机的更加普及,其资源的闲置问题越来越突出,网络技术可以有效地组织这些闲置资源,使得有大量的计算需求用户能够获得这些资源,而资源提供者的应用也不会受到太大的干扰。 

三、网格计算应用的优点 

(一)网络中所有的服务都基于这些接口的实现,就可以很容易的构造出具有层次结构的、更高级别的服务,这些服务可以跨越不同的抽象层次,以一种统一的方式来看待。

(二)虚拟化也使得多个逻辑资源应射到相同的物理资源上成为可能,在对服务进行组合时不必考虑具体的实现,可以以低层资源组成为基础,在虚拟组织中进行货源管理。 

四、网格的分类 

网格是指把整个整合成一台巨大的超级计算机,实现计算资源、存储资源、数据资源、信息资源、知识资源、专家资源的全面共享,其规模可以大到某个州,小到企事业单位、局域网、甚至家庭和个人。 

目前,在复杂科学计算领域中仍然以超级计算机作为主宰,但是由于其造价极高,通常只被用于航空航天

[1] [2] 

、气象等部级部门。网格计算作为一种新型计算模式,其低廉的造价和超强的数据处理能力备受青睐。 

五、结束语 

超级计算机技术范文8

在最近一次公布的第26届国际TOP500排名中,IBM所设计的“蓝色基因/L”超级计算系统再一次登上全球速度最快的超级计算机的宝座。蓝色基因/L与著名的人机大战中的“深蓝”为同一种源,它不仅代表着IBM在计算系统的最高成就,也同时代表着全球计算系统的最高成就。在近期北京举行的国际计算机创新大会上,蓝色基因的一个机架来到了北京,呈现于中国人的面前。

蓝色基因超级计算系统的浮点运算速度为每秒钟280.6万亿次,是上届TOP500第一名地球模拟器浮点运算速度的7倍。蓝色基因系统是由大量运算节点组成,采用IBM PowerPC嵌入式处理器、嵌入式DRAM和系统芯片技术,并整合所有系统功能,其中包括计算处理器、通讯处理器、三层高速缓存,在单一ASIC上有着复杂路径的多重高速互联网络。将1024个计算节点(一个节点内含2颗PowerPC嵌入式处理器)放在单一机架内进行密集封装。

蓝色基因最高可以扩充到65536个计算节点(共计131072颗处理器),即64个机架,其峰值速度可达到367万亿次浮点运算速度,除了成本效益,还具有低耗电、冷却效果好及节省占地面积等特色。

随着蓝色基因的到来,记者也有幸采访到IBM蓝色基因的主要负责人IBM工程技术服务部蓝色基因系统解决方案全球总监Ralph E.Warmack博士。Warmack博士详细介绍了蓝色基因从芯片到今天这样庞大系统的发展历程。无论是早期的Bipolar,还是90年代的CMOS,在主频、耗电等方面都远远不能满足今天超级计算系统的要求。目前蓝色基因能有如此高性能,主要归功于PowerPC处理器。但Warmack博士并不认为芯片技术已到极致,他讲道,芯片技术仍然是他们未来要攻克的两大技术难关之一,另一个技术难关是超级计算系统内部及外部的高速网络。

毋庸置疑的是超级计算系统的研发投入一定不斐,记者本希望IBM能够把它在超级计算机的资金投入产出情况介绍给国内有志于此的企业,Warmack博士却不愿透露IBM的研发经费,不过从他的讲话“回报正在逐渐进来”可以窥见一斑。他透露,在2005年,IBM总共销售了88个类似于北京所展示的机柜。值得一提的是,记者在创新大会上有幸遇到了李国杰院士,李院士告诉记者,中国政府在超级计算机领域还将投入更多的资金。希望高科技企业在利用这些这些资金为国争光的同时,也能真正为纳税人谋福利。

超级计算机技术范文9

指日可待

为期不远,马上就可以实现。HPC技术的快速发展,不久后它将改变整个高科技产业格局,带来更大的竞争力。

10月27日,新一期中国高性能计算Top100排行榜在2011年高性能计算学术年会上颁布。国家超级计算天津中心的“天河一号A”蝉联冠军,国家超级计算济南中心的“神威蓝光”名列第二,排在季军位置的则是国家超级计算长沙中心的“天河一号A-HN”。

2010年11月16日,国际超级计算机TOP500组织正式了第36届世界超级计算机500强排行榜,国防科学技术大学研制的天河一号超级计算机,以峰值速度每秒4700万亿次、持续速度2566万亿次浮点运算的优异性能一举夺得世界冠军。但在今年6月,天河一号被来自日本的富士通“K”超级计算机以8千万亿次的持续速度挤掉了榜首位置。

中国的高性能计算从原地起步到成为世界第一用了几十年的时间。1983年11月,首台亿次巨型计算机“银河”在国防科学技术大学研制成功,中国从此成为继美、日之后,能独立设计和制造巨型机的国家。此后,科研人员们依靠自主创新,相继研制出“银河―Ⅱ”、“银河―III”等一系列巨型机,一步步将中国的高性能计算机研制技术推向国际前沿。虽然维持冠军宝座的时间短暂,但从亚洲第一到世界第一,依然是一个历史性的突破。

自从天河一号登上世界HPC位置之后,给整个中国HPC领域都带来了积极的因素。除了传统的科学计算领域对HPC的需求,近年来新能源、生物制药等对于高性能计算的需求也很旺盛。随着HPC的快速发展,在科研创新、产品研发等方面中国的竞争力也得到进一步

提升。

国际高性能计算专业委员会主席Gilad Shainer表示:“全世界范围内,各个国家都在高性能计算领域投入了不少资源。中国过去5年在这方面的发展非常迅速。中国在HPC技术研发方面的进展,必将会影响整个产业格局,同时产业的进展也会促进相关技术研究更进一步,前提是要处理好两者之间的关系。毫无疑问,基础架构的建设和真实应用之间是一种相辅相成、互相促进的平衡关系。”

超级计算机技术范文10

中国科学院超级计算中心(以下简称中科院超算中心)隶属于中科院计算机网络信息中心(以下简称网络中心),是中科院超级计算环境总中心。在科技部支持下,中科院超算中心于2013年成为超级计算创新联盟的依托单位。此外,中科院超算中心还是中国国家网格北方的主节点。

在“十一五”、“十二五”期间,中科院超级计算环境总中心聚合了分布在全国各地的30多个中科院研究所和北京、上海、天津、济南等14家超算中心的计算资源,高性能计算基础服务环境初具规模。

早在2010年,中科院超算中心就与多个天文台进行合作,使用了2048个核心,经过两周的连续计算,将60TB数据可视化后,得到90TB数据,最终模拟了整个宇宙的140亿年过程,将天方夜谭活生生地展现在我们面前。

日前,记者与中科院超算中心主任助理王彦先生进行了交流,了解了目前中科院超算中心在高性能计算方面的一些应用情况、使用心得,以及中科院超算中心未来的发展规划。

硬件升级 软件调优

随着高性能计算的不断发展及社会各界关注度的不断提高,迈向百亿亿次超算系统俨然已经成为了整个行业明确的发展方向。然而,在提高计算能力过程中,超算中心所面临的挑战也在不断变化。为了适应计算需求的变化,中科院超算中心在1996年就引进SGI机器。此后,中科院超算中心陆续引进了包括近百亿次计算能力的日立(1998年)、逾千亿次计算能力的国产曙光2000 II(2000年)、5万亿次的国产联想深腾6800超级计算机(2003年)、SGI高性能可视化计算机系统(2004年)、IBM CellBE计算集群(2007年)、百万亿次深腾7000超级计算机(2008年)在内的多款超级计算机,而最新的 “元”超级计算机,计算能力更将突破一个新的极限。在硬件的不断更新中,中科院超算中心的计算能力也获得了稳步提高。

除了强大的硬件设施,软件优化更应该被业界重视。“中科院超算中心除了为用户提供计算服务之外,同时也与其他的科研单位或者相关的科研机构进行合作。”中科院超算中心主任助理王彦表示,“我们将与这些机构一起,共同开发包括可视化、并行算法和并行软件等在内的相关高性能计算软件。”

强强联合 全面合作

借助拥有更高效率的并行计算技术,科学研究和产品研发得以提速,进而提高了国家和企业应对产业升级、经济发展等社会经济挑战的能力。但是,自该技术大规模投入使用后,其软件优化与硬件发展之间存在的差异问题始终困扰着学术界和最终用户。为了让更多的软件代码实现改造,使之释放并行计算硬件平台的潜能,英特尔并行计算中心于2013年正式启用。至今,英特尔已在全球15个国家,与数十所大学和科研机构协作成立了50多个并行计算中心。并行计算中心可促进跨领域的开发者、科学家和技术专家进行技术培训和交流。

今年4月,英特尔公司与中科院超算中心达成合作,启动了中国首家英特尔并行计算中心(Intel PCC)。中国英特尔并行计算中心结合了英特尔并行计算平台的优势与中科院雄厚的并行计算人才力量,对推进软件代码从串行转向并行,从传统计算平台转向并行计算平台的代码现代化(Code Modernization)进程起到了促进作用。并且,该中心还围绕分子动力学模型进行探索。通过应用LAMMPS进行并行优化,同时采用相场动力学模拟软件,来完成上述工作。这些工作将为材料科学、生命科学、计算化学、计算物理等领域的应用提供计算支持。

谈及目前英特尔并行计算中心的主要工作,王彦表示,该中心目前正在建设“元”超级计算机。“元”超级计算机分为两期建设,第一期平台总峰值303.4Tflops(已完成),这一期主要做CPU节点,因此仅采用了40个至强融核节点和30个GPU节点,而今年9月即将开建的第二期平台几乎将全部采用至强融核节点,总峰值为2.056Pflops。因此,英特尔并行计算中心所做的代码并行化工作正是为将来更高效地使用“元”超级计算机做准备工作。

中科院超算中心将中国英特尔并行计算中心的工作分成两部分,第一部分是专门开发刚性偏微分方程求解器。该求解器目前可以应用在很多领域,包括计算力学、材料科学、化学、生物科学等。“优化前,在一个节点上发挥的性能是理论性能的百分之六七,CPU一个节点大概是十几GB flops”,中科院超级计算中心主任助理王彦介绍道:“为了提升整个系统的性能,我们做了一个现场方面的模拟,通过运用负载均衡、通信兼容叠加、MKL相关函数等相应的技术,最终发挥了1300GB flops的浮点性能,达到理论性能的52%,单节点性能获得大幅提升。”

此外,由于英特尔并行计算中心支持各大机构的开源软件,所以第二部分的工作集中在开源软件方面。中科院超算中心开发了基于MIC的DPD算法,并以API方式加入LAMMPS中,进一步优化了算法,提升了运算效率。

王彦表示,中科院在“十二五”期间支持了多个万核级重点应用,未来超算中心也将选择比较合适的算法向MIC方面移植。

通过参与众多科研单位的合作,超算中心也积累了多项成果,研发出了一系列产品,包括我国第一个沙尘暴预报系统,稠密和稀疏特征的并行软件包和我国首个万核级并行气动数值计算软件等产品。

据英特尔相关负责人介绍,推动软件现代化包括两个方面:其一是英特尔并行计算中心的建立与发展,其二是跟国内的高校合作建立培训中心,为感兴趣的人提供至强处理器和至强融核协处理器硬件架构和编程培训。

在软硬件培训之余,英特尔还将推出英特尔代码现代化开发者社区,帮助HPC开发人员实现在当前和未来硬件平台上编制具有更高效率编码。该计划将向全球超过40万HPC开发人员和合作伙伴提供各类工具、培训,并且让他们能够及时与高性能计算领域的专家建立联系、获得技术支持,从而对基于英特尔架构的硬件进行更好的优化,释放其全部潜能。

目前,中科院超算中心不仅得到英特尔并行计算中心的支持,还与曙光合作建设了MIC应用程序并行化实验室。此外,中科院超算中心与北京市公安局和北京科技大学也成立过各种实验室,分别涉及应用开发和优化。

大计算崛起 与英特尔共创未来

在前不久结束的2015年国际超级计算机大会(International Supercomputing Conference,简称ISC))上,来自54个国家和地区的153个参展商和2600名高性能计算(HPC)领域的专家出席。的TOP500排名榜单上,采用英特尔架构的HPC计算机仍占到86%。此外,在88套应用了协处理器的超级计算机中,33套采用了英特尔的至强融核协处理器,比例接近40%。这也说明了英特尔处理器在高性能计算中发挥了更多的作用。

超级计算机技术范文11

 

关键词:数据库 浮点运算 虚拟化 资源共享 

 

一、网格计算的由来与发展 

网格计算是伴随着互联网技术而迅速发展起来的,是将地理上分布的计算资源(包括数据库、贵重仪器等各种资源)充分运用起来,协同解决复杂的大规模问题,特别是解决仅靠本地资源无法解决的复杂问题,是专门针对复杂科学计算的新型计算模式。这种计算模式是利用互联网把分散在不同地理位置的电脑组织成一个“虚拟的超级计算机”,其中每一台参与计算的计算机就是一个“节点”,而整个计算机是由成千上万个“节点”组成的“一张网格”,所以这种计算方式叫网格计算。这样组织起来的“虚拟的超级计算机”有两个优势,一个是数据处理能力超强,另一个是能充分利用网上的闲置处理能力。简单地讲,网格是把整个网络整合成一台巨大的超级计算机,实现计算资源、存储资源、数据资源、信息资源、知识资源、专家资源的全面共享。 

近几年,随着计算机计算能力的迅速增长,互联网络的普及和高速网络成本的大幅降低以及传统计算方式和计算机的使用方式的改变,网格计算已经逐渐成为超级计算发展的一个重要趋势。网格计算是一个崭新而重要的研究领域,它以大粒度资源共享、高性能计算和创新性应用为主要特征,必将成为21世纪经济发展的重要推动力。 

二十世纪九十年代以来,世界各个国家,尤其是发达国家,建立了很多超级计算应用中心和工程研究中心,美国还制定了新一轮规划的先进计算框架(ACIP),发展面向21世纪的先进计算技术。我国在科技部的领导和主持下,经过专家组及相关单位的努力,作为我国高性能计算和信息服务战略性基础设施的国家高性能计算环境发展很快。在已经建成的5个部级高性能计算中心的基础上,又于中南、西北等地建立了新的国家高性能计算中心,科技部加强了网络节点的建设,形成了以科学院为主体的计算网格。教育部也启动了网格计算工程,第一批12个网点正在建设之中,国家基金委也列出专项基金资助网格计算。 

网格是借鉴电力网的概念出来的,网格的最终目的是希望用户在使用网格的计算能力时,就如同现在使用电力一样方便简单。 

二、网格计算的应用 

(一)分布式超级计算 

网格计算可以把分布式的超级计算机集中起来,协同解决复杂大规模的问题。是大量的闲置计算机资源得到有效的组织,提高了资源的利用效率,节省了大量的重复投资,使用户的需求能够得到及时满足。

(二)高吞吐率计算机 

网络技术能够十分有效地提高计算的吞吐率,它利用CPU周期窃取技术,将大量闲置计算机的计算资源集中起来,提供给对时间不太敏感的问题,作为计算资源的重要来源。 

(三)数据密集型计算 

数据密集型计算的问题求解通常同时产生很大的通讯和计算需求,需要网格能力才可以解决。网格已经在药物分子设计、计算力学、计算材料、电子学、生物学、核物理反映、航空航天等众多领域得到广泛应用。 

(四)给予更广泛信息共享的人与人交互 

网格的出现更急突破了人与人之间地理界线的限制,使得科技工作者之间的交流更加的方便,从某种程度上说,可以实现人与人之间的智慧共享。

(五)更广泛的资源贸易 

随着大型机性能的提高和微机的更加普及,其资源的闲置问题越来越突出,网络技术可以有效地组织这些闲置资源,使得有大量的计算需求用户能够获得这些资源,而资源提供者的应用也不会受到太大的干扰。 

三、网格计算应用的优点 

(一)网络中所有的服务都基于这些接口的实现,就可以很容易的构造出具有层次结构的、更高级别的服务,这些服务可以跨越不同的抽象层次,以一种统一的方式来看待。

(二)虚拟化也使得多个逻辑资源应射到相同的物理资源上成为可能,在对服务进行组合时不必考虑具体的实现,可以以低层资源组成为基础,在虚拟组织中进行货源管理。 

四、网格的分类 

超级计算机技术范文12

美国国家大气研究中心怀俄明州超级计算中心,刚刚上线了每秒能实现2万万亿次运算的气候研究超级计算机,用以分析研究中心和美国海洋暨大气总署(NOAA)在过去半个世纪里统计的地面和天气观测数据,它能模拟大气或海洋的变化,对暴雨、飓风进行准确的追踪、预警。

淘宝的量子统计系统是淘宝掌柜离不开的工具,它能对销售、收藏等数据进行实时分析,让掌柜们随时了解顾客的喜好、地理位置,分析、解读店铺的经营状况。作为淘宝进行服务增值的利器,它同样是依靠高性能计算实现的。

……

近十年来,高性能计算的每一步发展都推动了科技、商业的深刻变革。在超级计算系统不断刷新记录的同时,人类在军事航天、核工业、能源勘探、天气预报、生命科学、基因分析、游戏视频制作、电力、教育、工程、政府决策、互联网服务等众多领域,也获得了飞速发展的可能。

在今年6月召开的2012国际超级计算机大会上,超算TOP500排行榜单(以下简称TOP500)中全球最快的超算系统的浮点运算速度已经达到了16.32 PetaFLOPS(千万亿次/秒)。仅几个月后,美国橡树岭国家实验室刚刚建成的超级计算系统——Titan,就凭借20 PetaFLOPS以上的峰值性能改写了这一记录。在刚刚结束的2012年全国高性能计算学术年会上,与会专家预测:峰值100 PetaFLOPS的超算系统将在2014年到2015年之间出现在中国。

超级计算系统从P级计算(PetaFLOPS,千万亿次)迈向E级计算(Exascale,百亿亿次)时代的时间表越来越明确,未来的无限可能将如何展开?面向云计算、大数据时代的应用,E级计算面临的真正挑战又是什么?对于中国,超级计算这条路又应该如何走下去?

E级计算猜想

技术对国家发展带来的巨大实惠远超人们的想象。据IDC预计,百亿亿次级计算将极大推动科学进步,增加各国的工业和经济竞争力,改善人们的生活品质。这也是为什么今天美国、日本、中国、俄罗斯等和欧盟,均在E级计算领域不惜投入展开激烈竞争的原因。

科技、经济发展对高性能计算的依赖,已让计算力成为国力的表征。在美国能源部(DOE)的一份关于百亿亿级计算的研讨报告中,曾经充分论述了百亿亿级超级计算系统在美国能源与环境、国家安全、高能物理、核物理和天体物理等研究项目中的价值。在这份报告中,百亿亿次计算被视为支撑核能、生物学与生物燃料、材料、气候建模研究,确保国家核储备安全,以及探索宇宙奥秘和发现微观物质组成的“必要条件”。

在通往E级计算时代的阶梯上,中国与美国的差距到底有多大呢?在TOP500排行榜中,中国的两套超算系统“天河1A”和“曙光星云”进入了TOP10榜单,分别排在第五位和第十位。“天河-1A”的Linpack性能已达到2.57 PetaFLOPS,峰值达到4.7 PetaFLOPS。在TOP500的榜单上,中国有68套超算系统上榜,成为仅次于美国的第二大超算国家。

国际超算权威专家、TOP500的发起人之一Hans Werner Meuer 博士曾用“极具震撼力”来形容中国超算的发展。2011年,中国了首台自主研发CPU及底层系统的千万亿次超算系统——“神威蓝光”,将全世界高性能计算领域技术专家的眼光转移到中国。Hans Werner Meuer在接受Super Computers记者的采访时表示:“‘神威蓝光’意味着中国已经形成了足以改写未来产业格局的技术储备。”

在2012中国高性能计算TOP100(以下简称中国TOP100)榜单上,共有8家厂商上榜,国内厂商数量为6家,国外厂商只剩下IBM和惠普两家。曙光以36%的份额超过IBM,夺取了TOP100数量份额第一的宝座,浪潮则以12%的份额位居第三。中国计算机学会高性能计算专委会秘书长张云泉认为,曙光与IBM之间的竞争正在加剧,而浪潮等厂商崛起,意味着中国本土厂商在高性能计算市场位置的巩固。在应用领域,由中科院计算技术研究所自主研发的龙芯系列CPU,也开始在嵌入式应用、桌面应用、服务器应用领域处处开花。现在,龙芯在工业领域的市场份额已达到了5%。基于未来“百亿亿次”计算时代的众核架构应用,浪潮还推出了全自主研发的HPC专用“云冈”刀片服务器等产品。

E级计算不得不推倒“能耗墙”

采用了8700个计算核心(SW 1600)但电力消耗仅为百万瓦特,这正是让Hans Werner Meuer等高性能计算领域的专家对计算性能与英特尔处理器相当的“神威”CPU刮目相看的原因。

超级计算机在性能提升的同时,也带来了能耗问题。“天河1A”要想达到百亿亿次计算级别,必须付出16亿瓦的耗电量,相当于200万个家庭的用电量。在高性能计算发展到P级计算时,能耗问题的严重性就已经显现。IBM深度计算部门副总裁戴夫·特瑞克曾表示,一台只配置中央处理器处理核心的P级超级计算机的能耗约为20亿瓦特,相当于一个中等规模的原子能核工厂的耗能,降低能耗必将成为研究人员考虑的重点。

“高性能计算机的计算速度每十年提高1000倍,大规模应用已经表现出对超高E级计算机能力的需求。但是,根据ITRS预测,未来高性能CUP的功耗将达到120~200W。”在2012年全国高性能计算学术年会上,国防科技大学杨学军院士指出,“能耗墙”将是E级计算将要面对的最大挑战之一。

“每一代芯片的发展,都会使能耗问题变得更糟,未来计算架构必须使系统更加高效才能解决这一问题,未来的高性能计算必将走向混合计算架构。”NVIDIA的Tesla事业部CTO Steve Scott在大会演讲中谈到,为了解决能耗问题,高性能计算的架构演进已经出现了明确方向。

英特尔资深院士、数据中心及互联系统事业部首席技术官、架构事业部和数据中心及互联系统事业部拓展部总经理 StephenS.Pawlowski告诉记者,晶体管本身的耗电问题将成为E级计算发展的羁绊,电压升高可以提升计算能力,但同时又会造成系统稳定性下降,必须为此寻找一个合适的平衡点,在控制能耗的同时还能提升性能。

他指出,要在20兆瓦内做到E级计算,意味着数据在整个系统内部的能耗必须降到20皮焦以内。而现在数据仅从内存迁移到计算单元就大约会产生50皮焦的能耗,让20皮焦变成整个系统内数据移动的全部能耗几乎是不可想象的任务。但如果不完成这个任务,人们就没有办法在有限能耗下完成E级计算。据介绍,英特尔目前正在尝试通过尽量减少数据在系统内移动路径的方法节能降耗,类似的思路也被扩展到了片上通信、片间通信及系统内部通信过程的节能降耗。在他看来,减少数据移动的路径将成为在20兆瓦内做到E级计算的有效方案之一。

谁在束缚E级计算释能

高性能计算应用大多是数据密集型和计算密集型相结合的,对计算和I/O的处理能力都有较高的要求。数据的I/O瓶颈一直是制约高性能计算释放计算能力的关键因素:如果集群中的节点无法获得高速率的数据传输性能,其计算性能也无法获得充分发挥。

高性能计算发展到今天,超级计算机需要处理的任务也越来越庞大复杂,集群需要支持多种类型的数据流。过去只能在同一集群中采用不同类型的互联网络,而这些网络又拥有各自的网络协议,因为网络性能和特性的不同,反而会束缚高性能计算数据中心计算性能的释放。不仅如此,数据中心的运维、管理也会因此而格外复杂。目前,集群计算、存储区域网、网格计算、内部处理器通信等,都在对高带宽、高扩展性、高QoS以及高RAS(Reliability、Availability and Serviceability)产生迫切的需求。目前,石油勘探行业对高性能计算系统的需求已经显露出对E级计算能力的渴望。石油勘探领域的用户非常关注如何将应用迁移到Hadoop架构,以解决计算性能的提升和成本的降低等细节问题。在本次全国高性能计算学术年会上,当记者向美国俄亥俄州立大学的Dhabaleswar K. Panda教授咨询石油勘探应用向Hadoop架构迁移可能存在的风险时,他指出最大问题正是要解决网络通信的瓶颈。“Hadoop架构只有在完成网络优化后,才有可能实现计算性能提升和成本降低的双向受益.如果没有高效的网络通信,基于Hadoop架构的计算平台只是鸡肋。”

“网络通讯将成为E级计算发展的瓶颈。”国际高性能计算咨询委员会主席、Mellanox全球市场开发副总裁Gilad Shainer认为,传输介质所能提供的带宽、传输速率以及数据传输的稳定性和成本效益,都将成为影响超算中心计算能力的关键因素。从操作管理的角度来看,传统方案已经让高性能计算数据中心的维护费用上涨到硬件成本的8倍。从功耗的角度看,用于冷却的能耗费用也上升为硬件成本的两倍。但在很多数据中心,却有超过一半的CPU处于无应用负载的闲置状态。他认为,面向大数据、云计算等应用需求,Infiniband标准显然更具优势。

在Top500榜单中,目前有41.2%的超算系统采用了Infiniband互连技术。据统计,中国超算Top100榜单中,位于前十的系统,也有半数都采用了Mellanox的Infiniband产品,如天河一号、曙光星云等。Gilad表示,Infiniband互连技术在高性能计算市场的占有率已经超过了以太网,高性能计算的网络标准已经转变,这是未来发展的一个趋势。从成本和性能的角度来看,Infiniband的特性比以太网更胜一筹;在扩展性方面,Infiniband的前景也要更好。据他介绍,56Gb/s FDR是当前最高带宽、最低延迟的Infiniband产品,具有最快的网络连接速度和最低的CPU开销。它具有完整的I/O架构——包括适配器、交换机、电缆和软件,能够实现12GB/s的网络带宽,是QDR的两倍,延迟却只有0.7us,是QDR的一半。

超算竞赛将是应用的竞赛

TOP500榜单,只是一次计算力的竞赛结果。比如亚洲最快的超级计算机“K Computer”,虽然在LinPack测试中获得了高分,但其对实际应用的贡献还非常有限。仅将某些超级计算机变成“计算超人”,并不能代表一个国家在高性能计算领域的真正实力。

从今年中国TOP100榜单超算系统的行业分布情况来看,超级计算机的应用领域比去年有所下降。机器数量上变化最明显的是互联网领域,从去年的21%增加到今年的35%,工程领域的占比为11%,首次排到第三位。

在中国科学院计算技术研究所所长孙凝晖看来,虽然中国目前在高性能计算的技术方面与领先国家还有差距,但中国在应用领域的需求却走在了世界的前列,这一变化不容忽视。特别是在互联网和通信领域,中国产生的应用负载需求可能是任何一个国家都难以出现的。

“当前如何让高性能计算承载互联网应用的发展,也是国际领先科研机构和技术领导型企业需要攻克的难题,而如何降低成本、制造更加便宜廉价的产品,满足更广泛的需求,这些问题全球的研究机构和技术企业都是无解的,大家又站在了同样的起跑线上。”他指出,未来中国需求将刺激高性能计算领域的技术发展,中国在高性能计算领域的研究一旦在互联网这样的领域解决了中国的问题,也会连带解决世界的问题。

HPC商业应用新方向

在商用市场,HPC的技术发展正在成为CIO们最关心一个话题。未来,HPC在商业市场的应用前景如何,HPC云与商用云的区别在哪里,HPC在大数据领域又将如何前行……

Platform Computing于去年10月被IBM收购。这家企业服务于全球2000多家客户,包括30家最大规模跨国企业中的23家,欧洲核子研究组织、花旗集团、英飞凌、红牛车队、挪威国家石油公司都是它的客户,它还是HPC在全球商业应用的软件事实标准制定者。针对HPC商业应用的热点问题,本报记者独家采访了Platform Computing联合创始人,IBM系统与科技部Platform Computing全球开发总监王敬文博士。

大数据HPC

中国计算机报:传统的HPC主要用于科学计算,而IBM Platform Computing却在商业领域推进了HPC的发展,为HPC打开了更为广阔的天地。

王敬文:传统应用就像“象牙塔”中的HPC,而我们希望它能够应用于各行各业。可以说我们的技术重点有三个领域,一是将HPC的计算推广到商业领域,二是让HPC用户从现有的IT模式转入到云计算模式,三是让HPC在新兴的商业分析和大数据领域发挥作用。

中国计算机报:新兴的商业分析和大数据是未来资源密集型计算的重要领域,能够应用HPC也是一个新的增长点。

王敬文:是的。其实生命科学、CAE、EDA,以及HPC在石油等领域的应用也还只能算是传统的HPC应用。在现今的经济体系下,模拟和分析能力是产品竞争能力的关键,因此商业模型和数据分析应用是HPC商用的发展方向。

这主要分为计算密集型和数据密集型。计算密集型是一种随机过程,模拟未来经济如何发展,根据市场数据计算承担风险。这个模型在银行当中应用很多,比如金融市场和信用风险与保险领域的应用,包括金融衍生品,定价与风险价值模型,信用风险。

数据密集型分析则是最近两三年热起来的“大数据”,包括防欺诈检测、Web分析,以及用户行为分析。大数据最开始热在Web分析,实际上最大的潜力不是Web,而是商业、银行、电信、零售、政府、安全各行各业当中的大数据应用。

中国计算机报:新的需求需要全新的应用软件结构,不能按照传统的模式。那么,Platform Computing的产品架构是怎样的?

王敬文:我们的产品构架很明晰,最高层是应用,最低层是设备。理想状态下这些应用直接在设备上运行,但现实是多台计算机组成集群,操作系统不同,有Windows、Linux、KVM,存储设备各异,用户有很多,应用也千差万别,比如制造业、石油、科学计算、智能商务、金融分析、大数据分析。这么多的应用怎么使用这些分散的设备呢?这就需要软件来组织,因此设备之上一层是动态集群管理平台,也可以说是一种云技术,它使得HPC动态调配,按需变化,自助服务。

机器配置好了怎么与应用结合?动态集群管理平台之上就是应用管理中间件,通过一个界面,让用户把需求描述出来,并找到最合适的资源。当然软件是不同的,有的串行、有的并行,有的长作业,有的短作业,应用环境也不一样,所以我们有两大家族的软件来支持。一个是LSF分布式批处理应用管理平台,另一个就是Symphony并行SOA分析类应用管理平台。这个结构不是传统的物理模型,而是随机的模型,这和传统的机械计算、工程模拟的数据模型完全不一样,它更适合于做经济模型的模拟。另外,我们也支持第三方应用管理中间件。

架构的演变

中国计算机报:软件在HPC领域是非常重要的,传统的一对一开发不利于HPC的推广。那么在没有Platform Computing之前,所有HPC用户都是自行研制和开发么?

王敬文:可以这么说。因为我们成立公司之前,在20年前,HPC集群用的是工作站,主要是UNIX平台。大部分用户一台计算机不够用了就用两台,手工编写程序脚本,模拟和分析规模都很小。而有了我们的产品之后,用户就可以同时应用几百台计算机。

中国计算机报:几百台都是x86架构服务器吗?

王敬文:不是,最开始都用的工作站,那时都是价格昂贵的机器,几百台已经是很大规模的计算集群了。上世纪90年代末 x86才开始正式进入普及, 2000年以后慢慢转向x86架构。而我们的软件业大大降低了单台x86服务器故障对整体集群所造成的影响,减少了x86的不可靠性。

中国计算机报:我们不得不提银行领域应用的z系列主机,我们知道在国外HPC的商业应用客户有一部分来自于银行,那么两者有什么区别?

王敬文:主机应用很多是“Bank office”,每天做完交易,每天要结账,所有用户的账号是绝对不能出错的,不敢冒哪怕是百万分之一的风险。所以,主机的可靠性很重要的。从这个角度看,很多银行客户的“Bank office”数据交易的关键应用都在主机上,作为一种通用的商业机器,它的特点是可靠,以前的应用都一直保持,几十年前的,很老的语言都继续支持,有很好的历史兼容性。

而HPC在银行业的应用主要是“Analytics Computing”,用于数据分析。数据是存储在固定的地方,分析之后再做结论。而且HPC是高并发式的,一旦出问题还可以重算,但如果用户存款、取款就不可以出现重算的可能。此外,计算密集型需要很多个CPU同时运算,里面用的全部都是数学模型。

HPC云不用虚拟化

中国计算机报:HPC云和一般商业云的区别在于很少用到虚拟化,这与我们一直在商业云领域强调的虚拟化是云化的基础截然不同。那么HPC云和商业云的主要区别在哪里呢?

王敬文:个人认为,HPC首先强调的是高性能。虚拟化在技术上其实是在硬件上又加了一层虚拟机,需要通过软件模拟实现,从某种程度上会降低机器的计算速度。对于性能要求很高的HPC应用并不应该采用虚拟化方案。事实上大部分HPC用户是比较排斥虚拟化的,至少目前阶段是这样。

另外,HPC云的分配单位是集群而不是虚拟机,,关注的是整体容量。HPC云所分配的资源,其硬件基本架构是一样的,系统配置也是一样的,所以从云实现的角度来讲将更容易。但商业云则完全不同,每台服务器的硬件、软件配置可能完全不同,个体配置复杂,更适合用虚拟化方案。所以,HPC云的配置是可以批处理的,但商业云中的每一台服务器则需单独处理,云管理更为复杂。

中国计算机报:HPC云一般应用在什么地方?

王敬文:HPC云普通应用在计算中心,比如中国应用较多的是超算中心,国外有很多大型研究中心,也会借此进行化学、生物等领域的研究。

HPC的昨天、今天与明天

与原子能、航天等领域的高精尖技术一样,高性能计算(HPC)也诞生于军事需求,其发展在相当长的时间里都是为军事用途所驱动的。上述重大项目的实施往往需要智力、技术、资金的高强度投入,因而注定是国家行为,也决定了其最初用户往往是国防部门。

在军事与摩尔定律的双重驱动下,HPC在不断追求更高性能的同时,也从军事、科学计算扩展到技术计算、商业应用乃至公共服务。如同电力、通信、交通等一样,HPC成为社会基础设施只是时间问题。

军用需求催生HPC

HPC的历史源头可以追溯到1946年,应美国陆军军械部要求,美国宾夕法尼亚大学研制了ENIAC计算机,用于炮弹弹道的计算,这也是全球首台电子管计算机。之后,ENIAC的两位研发者于1951年为美国人口统计局研发了UNIVACⅠ,这台商品化的计算机开启了公众服务先河,严格意义上说,当时UNIVACⅠ还不能算是商业应用。

最早把核物理和计算机这两个领域联系起来的是哥伦比亚大学。早在1939年,物理学家费米在哥大普平实验室用实验证实了原子的裂变。1942年,来到芝加哥大学的费米主持研发了核反应堆,实现了受控原子裂变反应,从而用实验证实了原子弹的裂变理论,人类从此进入原子能时代。3年后的1945年,老沃森在哥伦比亚大学设立了IBM第一个实验室——沃森科学计算实验室。1953年,沃森实验室研发出IBM 701计算机,这是IBM推出的第一台计算机,也是IBM进入计算领域的起点。

也许,上述发生在哥大的两件事只是一种巧合,但高性能计算技术与核技术相辅相成地发展,却是不争的事实。在今年6月最新的全球HPC500强中,美国性能最高的3台机器分别安装在美国能源部下属的洛斯阿拉莫斯、阿贡和橡树岭等3家国家实验室。

在核技术应用拉动HPC技术发展的同时,半导体技术则是HPC技术发展的驱动力。在晶体管问世后不到7年,贝尔实验室于1954推出全球首台全晶体管计算机TRADIC。

从上个世纪60年代开始,HPC市场基本上是由数据控制公司(CDC)和克雷公司相继把持,直到80年代中期32位RISC通用微处理器成熟后,对称多处理架构(SMP)才结束了向量机体系20多年的统治,HPC进入并行计算时代。

到了1994年,美国航空航天局(NASA)推出基于英特尔486和Linux的集群系统。随着本世纪初多核x86处理器的问世,集群架构风靡HPC领域。2004年,克雷公司推出采用现场可编程门阵列(FPGA)加速的集群系统Cray XT3,而有趣的是专注于核武器系统研发的美国桑迪亚国家实验室在其网站首页上声明,Cray XT3的架构采用的是其授权。

之后,为了解决性能和功耗的问题,采用通用图形处理器(GPGPU)加速的混合架构开始流行。

HPC将成为基础设施

HPC追求的是性能为王,当HPC的性能尚不能满足核武这样单一应用的需求时,HPC必须针对特定的应用进行性能优化,与此同时,高昂的拥有和使用成本也只有军用、气象、石油勘探等极少数的用户可以承受,因此,HPC长期都是专机专用。

然而,伴随着信息技术的发展,商品化的通用处理器和通用图形处理器不断增进HPC的性价比;而集群架构以及其后的虚拟化技术使得HPC在多任务的动态部署与管理上变得方便起来。当用户无须拥有HPC而只须为使用付费时,应用门槛大为降低,HPC也就从专用走向通用。

我国商用高性能计算的先行者曙光公司,于2001年推出曙光3000,开始了HPC通用化的探索。到了2008年,曙光5000A成为我国首个进入全球超算500前10名的商用HPC,更大的意义在于它是当时全球性能最高的通用高性能计算系统。以曙光5000A为核心的上海超级计算中心,在2000年已经拥有300多个用户,涉及航空航天、汽车、核电、钢铁、机电装备、市政工程、油气勘探、气象、气候、生命科学、药物、新材料、物理和化学等多个领域。

从上海超算中心的实践不难看出,HPC已经从昔日狭窄的科学计算走向今天宽阔的技术计算、工程模拟。而当HPC与云计算结合在一起后,它便可以在智能交通、智慧城市等与人们日常生活息息相关的领域发挥独特的作用。HPC终将从计算基础设施上升为社会公共基础设施,如同水、电、气、交通等公共基础设施一样不可或缺。届时,HPC也将实现其自身价值的最大化。

迈向百亿亿次

如果个人计算过去四十多年的快速发展让人们感叹不已,那么,HPC性能发展的速度更令人惊讶。从1961年IBM7030的1.2MF(百万次),提高到1983年苏联M-13的2.4GF(10亿次),再到1997年英特尔ASCIRed的1.338TF(万亿次),直至2008年IBM走鹃的1.026PF(千万亿次),HPC性能每提高1000倍所用的时间,依次为22年、14年、11年,而据预测,2018年,HPC将迈入百亿亿次时代,此番1000倍性能的提高预计只用10年时间。

近十多年来,我国的HPC发展速度更为惊人。2008年曙光5000A首次挤进全球超算500强前十阵容,排名第十;2010年国防科大为国家超级计算天津中心建造的天河一号跃居全球超算500强首位;2011年,国家并行计算机工程技术研究中心为国家超级计算济南中心研制的神威蓝光落成。

神威蓝光从处理器到系统软件都是自主研发的,因而成为我国第一个自主可控的千万亿次HPC。虽然神威蓝光在当年中国HPC百强中名列第二,但研发单位表示,神威蓝光采用的是万万亿次体系架构,言外之意,神威蓝光还有数十倍的性能扩展能力。神威蓝光采用自主研发的16内核处理器和水冷散热,在性能功耗比、组装密度位居世界先进水平。

根据市场研究公司Market Research Media的预测,从2015年至2020年,全球军用HPC市场将以10.4%的年复合增长率成长,到2020年将达到655亿美元;而全球非军用HPC市场将以8.3%的年复合增长率成长,到2020年达到400亿美元。

从千万亿次到百亿亿次,将引发芯片、网络到体系架构的技术变革,其中最值得关注的是处理器内核的急剧增加,特别是硅光电子学对现有高速网络总线标准Infiniband的颠覆。无生产线的芯片设计厂商Luxtera公司今年3月与意法半导体达成单片硅光电子解决方案量产协议,这意味着, 单块集成电路就可以完成光电转换以及400Gb/s速率的发射和接收,HPC节点间互连简单到只用一根光纤,而Luxtera的愿景是实现系统间、板卡间乃至芯片间的光互连。