tag 标签: 超级计算机

相关帖子
相关博文
  • 热度 29
    2015-4-20 13:55
    2766 次阅读|
    9 个评论
    最近,连续四次蝉联超级计算机世界第一的“天河二号”遇到了麻烦,4月9日,美国商务部发布报告,决定拒绝英特尔公司向中国的国家超级计算广州中心出售至强芯片用于天河二号系统升级的申请。国家超级计算长沙中心、广州中心、天津中心和国防科技大学四家国家超算中心被列入出口管制名单。 美国方面给出的解释是这4家中国超算中心从事“违反”美国国家安全或外交政策利益的活动。而据《华尔街日报》报道,美国商务部曾于今年2月18日发布一份通知称,使用了两款英特尔微处理器芯片的天河二号和早先的天河1号A系统,“据信被用于核爆炸模拟”。   美国暂时不卖芯片了,中国的超级计算机还有戏吗?这得从头说起。 一、超级计算机的由来 其实,计算机最早就是从超级计算机开始的,无论是第一台机械计算机(英国巴贝奇爵士设计,未最终完成),还是第一台电子计算机Eniac,都是做科学计算和军事用途用的。 计算机性能的扩展有两条道路,一条的不断改进制造工艺,提升芯片设计水平,把单个芯片设计的很强悍,提升性能。还有一条道路是尽可能用比较多的机器并行,用多机机器一起运算来提升性能。 早期,超级计算机都是昂贵的高级货,处理器是专门设计的,芯片组是配套的,甚至每根连接线都是定制的,成本极高。 而随着PC和网络的发展,人们发现追求强大的计算能力可以不那么昂贵。于是,人们开始尝试用大批量生产的PC或者工作站来攒超级计算机。 若干台PC或者工作站通过网络连接起来,把任务分给这些机器并行,然后返回,计算能力丝毫不弱于昂贵的专用超级计算机,于是传统的超级计算机开始没落。 这个时代出现了很多平民化的超级计算机,譬如用浩鑫HTPC准系统凑起来的超级计算机,把一个学校的MAC电脑凑起来的超级计算机等等,这些看似玩具的东西居然一度占据了TOP500超级计算机排行榜,甚至谷歌自己用的服务器也是用这种办法攒出来的。 而在这个过程中,人们发现,限制超级计算机能力居然是功耗,人们不能堆积太多的数量是因为功率和发热限制,性能功耗比甚至比性能本身更重要。 于是,IBM开发出蓝色基因,不追求单个核心的高性能,而是降低功耗,攒更多的数量来提升性能。但是因为单独开发这种处理器在批量和成本上无法与通用的PC处理器相比,并没有流行开。 二、从CPU到协处理器 索尼为了提升PS3游戏机的性能,联合IBM搞了Cell处理器,这是异构计算的开始。因为在计算任务中,有些任务是简单的,不需要复杂的逻辑处理,只需要足够的计算单元暴力计算,这样处理器就可以设计成两部分,一个简单的运算核心,几个强大的简单计算单元,这就是Cell的思路。 因为这种计算编程难度太高,所以Cell用在游戏机上并不成功,但是这个思路可以拿到电脑上,这就是我们熟悉GPU通用计算。 因为3D的需求,显卡有强大的计算能力,这种能力只用于3D游戏浪费了,于是在Cell之后就有了GPU的通用计算,CPU处理复杂任务,GPU处理暴力计算,nVIDIA甚至搞出来CUDA专门解决这个问题,而且在GPU的设计上就为通用计算做了优化。 单台计算机异构化,获得强大的计算能力,那么就可以把这些单台计算机联网,组成计算能力强大的异构超级计算机。 于是中国在2009年搞出来天河一号超级计算机,就是CPU和GPU异构组成的超级计算机,一度排名世界第一。百度搞人工智能的计算机也是这种异构的超级计算机。 如果以后超级计算机全部异构化,那么CPU提供的计算能力只占一小部分,这无疑代表了nVIDIA和AMD要抢Intel的饭碗,Intel当然不能坐以待毙。 于是Intel开始自己做异构用的芯片,这就是Larrabee计划,其实GPU本来就是一个个小的计算核心,然后组合起来。而Intel手里是有小核心的,这就是当年的奔腾一代处理器核心P54C。 Intel把这款20年的老核心集成起来做成众核,做成协处理器,可以做3D显卡,也可以做超级计算机的协处理器。这个项目初期失败了。但是,Intel在这个基础上发展出来了“众核架构”(MIC)的Xeon Phi协处理器。并且获得了天河2号(目前世界第一超级计算机)的选用。 而协处理器的能力取决于单个小核心的计算能力,P54C这个20年前的核心弱爆了。而Silvermont作为Intel反击移动市场的利器,性能功耗比非常出色,于是,Intel把这个小核心攒起来做成众核的Xeon Phi,这就是Knights Landing,也就是目前被禁售的处理器。 三、美国禁售会有影响吗? 从技术上看,Xeon Phi相比nVIDIA和AMD的产品,优势在于支持X86指令集,编程和编译都比较方便,易用性更好。如果美国真的严格执行禁售,那么中国可以采购nVIDIA和AMD的产品,实际上天河一号就是用的AMD的显卡作为协处理器。 而从这次禁售的范围看,国家超级计算长沙中心、广州中心、天津中心和国防科技大学四家国家超算中心被列入出口管制名单,这几个都与军方有一定关系。国家深圳超算中心,国家济南超算中心,上海超算中心都没有在管制名单以内,中国购买Xeon Phi并没有障碍。 而且Xeon Phi作为Intel上货架的产品,即使对中国全面禁售,世界这么大,中国通过转口贸易进口也毫无问题。 所以,这次禁售更像是一次政治秀,起不到太大的作用。 四、中国自己有替代品吗? 这次禁售更像政治秀,而即使美国真的全面禁售,在超级计算机方面,中国也是留有后招的。 中国早在1999年就买到Compaq公司的Alpha处理器的授权。Alpha处理器一款技术成功,商业失败的处理器,其性能远超越同时代的X86处理器,但是商业上却失败,其研发人员后来去了Intel和AMD,AMD公司的K7所使用的EV6总线技术,Intel的超线程技术,都是Alpha处理器的遗产。 中国买下Alpha的授权以后,逐渐发展出来了神威系列。2012年9月16日安装在山东省的国家超级计算济南中心就是使用神威1600处理器。 在技术指标上,16核心的神威1600在1.1ghz的时候,双精度浮点运算能力是140.8G,i7 980xe 6核心在3.2ghz,双精度浮点是107.55G。i7的功耗是130W,神威1600的功耗是70W。神威在性能功耗比上已经超越了当时的Intel。 而在协处理器的发展上,Alpha在10多年前就预留了64核的众核架构,必要时候替代Xeon Phi也是完全可能的。 正如我们前面所说的,专用处理器专用架构价格高昂,使用困难。所以神威只是备用的后招,天河还是用Intel的处理器。 但是,一旦Intel真的买不到,中国自己也是有替代品的,神威性能足够,无非成本和便捷程度有差异罢了。 所以,此次美国禁售芯片更像是一次政治秀,对中国超级计算机的发展并没有实质性的影响,相反,它会给我们的决策部门提醒,让中国自己的处理器产业有更好的发展环境。禁售阻挡不了中国超级计算机进步的脚步。  
  • 热度 26
    2014-9-9 15:46
    2123 次阅读|
    5 个评论
    材料科学家Sharon Glotzer与David Pine目前正在进行一项重大的使命──开发世界上首款 液态硬盘 ,并进一步证明这种液态硬盘可实现更大容量的数据 储存密度 。根据两位材料科学家的计算估计,大约一茶匙的数据就能够储存约1TB的数据。   该研究尚处于起步阶段,因此目前还没有可工作的原型。然而,Glotzer和Pine希望能在未来十年左右看到商用化液体硬盘上市。他们所创造的这种“软性物质”相当具有创新性。 软性物质指的是液体、泡沫、聚合物与生物材料等均具有一项共通特性:稳定且可预测的分子结构。 Glotzer和Pine已经设计出一种调合的 纳米粒子 ,可由于温度变化而改变配置。图中的照片显示纳米粒子的配置变化。 液态数据的显微影像──Sharon Glotzer与David Pine Glotzer希望将这种液态数据转变成液态硬盘。 纳米粒子悬浮于液体中。它们并不一定是液态的,但却是整个胶状丛集的一部分。这些纳米粒子的基本结构通常有4或多个粒子连接到中央的球体。当在溶液中施加热或能量时,其配置将会发生变化。由于能够确认纳米粒子的状态,使得研究人员们能够为不同的阶段归纳0与1的值。 然而,目前还没有可行的方法。再者,利用这种物质进行数据储存,需要一种能够持续改变个别粒子丛集状态的方法。尽管如此,Glotzer与Pine仍对此充满信心。 这项研究的基础来自其他研究人员追寻更密集的数据储存方式。哈佛大学的研究人员最近发现可在单链DNA上储存700TB数据,因此,在自然数据储存能力方面,DNA仍然脱颖而出。然而,这种方式并不会在近期内成为普遍流行的USB盘。 一种可望很快出现在市场上的可行创新技术是IBM用于在一个铁原子上储存二进制数据的方式。1位的数据可存在12个原子上,整个数据字节则可储存在96个原子上。虽然这项技术仍有得进一步琢磨,才能成为下一代硬盘,但目前已经有可运作的初期原型与开发方法了。或许下一个可负担得起的超级计算机就能让我们随身携带了。   本文授权翻译自EE TIMES,谢绝转载   原文链接:http://www.eet-china.com/ART_8800703197_626963_NT_321fd1cb.HTM  
  • 热度 47
    2013-11-25 16:39
    8037 次阅读|
    23 个评论
      量子反常霍尔效应,对普通人来说,拗口而晦涩。但在物理学家眼中,它“神奇”又“美妙”。因为它的发现可能带来下一次信息技术革命。采用这种技术设计集成电路和元器件,千亿次的超级计算机有望做成平板电脑那么大,智能手机的内存可能会提高上千倍。   首次从实验中观测到量子反常霍尔效应后,清华大学副校长薛其坤院士和他的团队受到外界广泛关注。   “我们正在努力提高观测量子反常霍尔效应这一物理现象的温度,希望能从原来的零下273摄氏度提升至零下269摄氏度。”薛其坤在接受记者采访时表示。半年多来,他们一直在为量子反常霍尔效应进一步深入研究和应用奋斗着。薛其坤说:“零下269摄氏度是氦气的液化温度,是一个标志性温度。比如医院的CT工作时就是这个温度。如果能实现这一目标,将为应用打下良好的基础。”   今年3月15日,薛其坤团队的研究成果在线发表于美国《科学》杂志。4月12日,该杂志正式发表这一论文,其“展望”栏目还刊登了题为《完整的量子霍尔家族三重奏》的评论文章。文章表示,中国科学家“证实了期待已久的量子反常霍尔效应的存在,这是量子霍尔家族的最后一位成员”。   凝聚态物理中,量子霍尔效应占据着极其重要的地位。整数量子霍尔效应和分数量子霍尔效应的实验发现分别于1985年和1998年获得诺贝尔物理学奖。   要想了解量子反常霍尔效应,必须先认识量子霍尔效应。比如我们使用计算机的时候,会遇到计算机发热、能量损耗、速度变慢等问题。这是因为常态下芯片中的电子运动没有特定轨道,相互碰撞从而发生能量损耗。而量子霍尔效应则可以对电子的运动制定一个规则,让它们在各自跑道上“一往无前”。“这就好比一辆跑车,常态下是在拥挤的农贸市场路上行驶,而在量子霍尔效应下,则可以在互不干扰的高速路上前进。”薛其坤打了个形象的比方。   但是量子霍尔效应的产生需要非常强的磁场,“相当于外加10个计算机大的磁铁,这不但体积庞大,而且价格昂贵,不适合个人电脑和便携式计算机”,薛其坤说,量子反常霍尔效应的美妙之处是不需要任何外加磁场,在零磁场中就可以实现量子霍尔态,更容易应用到人们日常所需的电子器件中。   从美国物理学家霍尔丹1988年提出可能存在不需要外磁场的量子霍尔效应,到我国科学家为这一预言画上完美句号,中间经过了20多年。课题组成员、中科院物理所副研究员何珂告诉记者:“量子反常霍尔效应实现非常困难,需要精准的材料设计、制备与调控。尽管多年来各国科学家提出几种不同的实现途径,但所需的材料和结构非常难以制备,因此在实验上进展缓慢。”   “这就如同要求一个运动员同时具有刘翔的速度、姚明的高度和郭晶晶的灵巧度。在实际的材料中实现以上任何一点都具有相当大的难度,而要同时满足这三点对实验物理学家来讲是一个巨大的挑战。”课题组成员、清华大学教授王亚愚这样描述实验对材料要求的苛刻程度。   薛其坤团队经过近4年研究,生长测量了1000多个样品。最终,他们利用分子束外延方法,生长出了高质量的Cr掺杂(Bi,Sb)2Te3拓扑绝缘体磁性薄膜,并在极低温输运测量装置上成功观测到了量子反常霍尔效应。   对于外界的关注,薛其坤说:“国家越来越重视基础科学研究,我们备受鼓舞。任何一个现象从原理性的发现走到应用,都需要不同领域的科学家和工业界的共同努力。”至于何时能把超级计算机变成平板电脑大小,薛其坤严谨地表示:“这在原理上是可实现的,但需要温度和材料方面都要有重大突破。量子反常霍尔效应的应用潜力非常大,但是将来能不能走向应用,什么时候能应用,是很难预期的。也可能会出现一个意想不到的、更重要的应用。我们将与更多人合作将这个领域研究成果发扬光大,推动它向着应用方向发展。”   来自:科技日报  
  • 热度 37
    2013-1-15 16:23
    1758 次阅读|
    2 个评论
    Cray“美洲虎”超级计算机,每秒运算速度超过1000万亿次。这台超级计算机位于美国的橡树岭国家实验室,占地面积超过5000平方英尺(约合464平方米)。2009年,它成为世界上运算速度最快的计算机   当前世界上最快的超级计算机是日本的K Computer,配备了864个机柜。照片展示了其中一个机柜    K Computer安装在神户的理化学研究所高级计算科学研究所,采用88128个处理器   CDC 6600被誉为世界上第一台超级计算机,由美国人西摩-克雷设计,1964年完工。每秒浮点运算次数超过100万     克雷设计的另一台超级计算机名为“克雷1”号,1976年投入使用,每秒浮点运算次数超过1亿次   (新浪科技讯 ) 北京时间4月1日消息,据美国有线电视新闻网(CNN)30日报道,目前,美国、中国、日本、欧盟和俄罗所都投入巨资研制超级计算机。2月,欧洲宣布将研 制超级计算机的经费提高一倍,达到12亿欧元(约合16亿美元)。随着技术的不断进步,一个新运算时代——exaFLOPS级运算正朝我们走来。科学家表 示未来的exaFLOPS级计算机运算速度至少可达到目前最强大的超级计算机的1000倍。     在这个十年结束时,exaFLOPS级计算机便可成为现实并投入使用,开启科学发现的一个新篇章。计算机科学家利用FLOPS(每秒浮点运算次 数的英文首字母缩写)衡量超级计算机的性能,exa是exascale的前缀,意为“”。exaFLOPS级计算机每秒的运算次数相当于5000万台笔记 本电脑。英国贝尔法斯特女王大学电子学学院教授迪米特里奥斯-尼科罗普洛斯表示:“exaFLOPS是高性能运算的下一个疆界。”     尼科罗普洛斯指出,当前运算速度最快的超级计算机可达到petaFLOPS级(1peta为10的15次方),每秒运算次数超过1000万亿。 第一台突破petaFLOPS的超级计算机是IBM的“走鹃”,2008年实现这一成就。不过,“走鹃”的最快头衔并没有保持很久。2009年,美国橡树 岭国家实验室的Cray“美洲虎”运算速度达到1.75 petaFLOPS,取代“走鹃”,成为第一。     根据追踪高性能运算发展趋势的TOP500排行榜,当前运算速度最快的超级计算机是日本的K Computer,由富士通公司研制。这台超级计算机安装在神户的理化学研究所高级计算科学研究所,运算速度超过10 petaFLOPS,是排名第二的中国NUDT YH MPP的3倍,后者达到2.57 petaFLOPS。尼科罗普洛斯说:“高性能超级计算机采用数千个处理器,安装时需要足球场大小的空间以及大量计算机架。”     K Computer采用88128个处理器,配备了864个机柜。尼科罗普洛斯指出,exascale级计算机的个头并不会更大,甚至有可能更小一点。但所 采用的处理器数量远远超过当前的超级计算机,在100万到1亿个之间。他说:“研制超级计算机仍面临严峻的技术挑战,其中最大的挑战就是能耗。超级计算机 的能耗通常不具有可承受性。根据当前的预测,exascale级计算机的能耗可达到100兆瓦特,为exascale级计算机建造一个满足能量需求的设施 并不具有可行性。”     计算机的处理器是最大的耗能大户,耗能在总能耗中的比重达到40%到50%左右,但尼科罗普洛斯表示存储器正在快速追赶处理器。他说:“改变处 理器和存储器使用的材料和结构对exascale级计算机能否取得成功至关重要。我们已开始了解到exascale级计算机在硬件、软件和应用方面面临的 挑战。目前,我们正处在确定研究方向的阶段。”     尼科罗普洛斯表示exascale级计算机可用于很多科学研究领域,帮助科学家得出重要发现。他说:“航空航天工程学、天体物理学、生物学、气 候建模和国家安全领域都需要借助高性能超级计算机。”橡树岭国家实验室公共信息官比尔-卡巴格指出,exascale级计算机在供电和经济可承受性方面面 临非常严峻的挑战。他说:“这些都是非常严峻的问题,需要研发一系列超前技术才能加以解决。目前,我们正投入所有可能的资源,解决这些问题。”     尼科罗普洛斯表示exascale级计算机同样能够让社会学研究受益。他说:“越来越多的人对从整体上研究社会行为产生浓厚兴趣。这种研究需要进行大规模模拟,了解人与人之间如何互动、交流以及活动方式,因此需要借助exascale级计算机。”(孝文)
  • 热度 32
    2012-11-2 16:38
    6506 次阅读|
    16 个评论
      美国田纳西州橡树岭国家实验室的科学家们展示了一款超级计算机,它可能是世界上运算速度最快的超级计算机。   据橡树岭国家实验室官员说,这款新计算机名叫“泰坦”,运算速度超过每秒2亿亿次,即相当于全世界70亿人每个人每秒钟进行300万次运算。“泰坦”的内存也超过了700兆兆字节。     橡树岭国家实验室“领导计算设施”项目主任巴迪·布兰德说:“这个数字太大了,我都很难解释清楚。这令人难以想象。2亿亿次就是(数字)20后面再加15个0。”   “泰坦”由18688个计算机节点构成,每个节点由一个16核AMD Opteron 6274处理器和一个NVIDIA Tesla K20 GPU组成。每个Opteron 6274处理器由两个8核模块封装而成,采用32纳米工艺,包含24亿个晶体管。泰坦的所有CPU合起来有44.85万亿个晶体管。NVIDIA Tesla K20有2688个CUDA核心,采用28纳米工艺,总共71亿个晶体管,泰坦的GPU共有132.68万亿个晶体管,CPU+GPU的晶体管超过177万亿。      每个节点CPU配有32GB DDR3内存,GPU配有6GB of GDDR5(ECC指出)显存,因此泰坦的总内存710TB,它的硬盘则超过10PB——由1万个标准1TB 7200 RPM 2.5英寸组成。IO子系统能传输240GB/s数据。橡树岭正考虑未来升级中部分使用固态硬盘,下一轮升级将把硬盘容量增加到 20-30PB。泰坦的操作系统是Cray Linux Environment,基于SUSE 11。       实际上,“泰坦”是橡树岭国家实验室此前研制的世界上最棒的超级计算机“美洲虎”的升级版。据布兰德说,“泰坦”的体积与“美洲虎”大致相当,但运算能力却是“美洲虎”的10倍。“泰坦”所有元件占用的空间约为一个篮球场大,约有2.5米高。     研究人员可用“泰坦”在许多领域开展工作。    橡树岭国家实验室国家计算科学中心主任詹姆斯·哈克说:“‘泰坦’可让科学家们更切实可行、更详尽地去模拟实体系统。模拟精确度的提高将在广大科研领域 加快进展速度,这些科研领域包括替代性能源、能源使用率、新材料的确认与开发等,利用这款超级计算机还可进行更先进的气候预测。”     布兰德说,这样的超级计算机还会带来直接的商业利益。   “泰坦”是世界上运算速度最快的超级计算机争夺战的最新加入者。预计,“泰坦”会与“红杉”争夺超级计算机500强的榜首。“红杉”在去年6月获得世界上运算速度最快的超级计算机称号。     中国和日本也有超级计算机跻身运算速度排行榜的前五名。   布兰德说:“高性能计算就是一场跳蛙游戏。世界上所有国家都认识到这很重要。”   布兰德说,超级计算机当前正在应对家用计算机同样面临的技术难题。   他说:“我们使用高端家用计算机的芯片去制造超级计算机。这些芯片并不是为超级计算机定做的芯片。2002年和2003年以来,处理器的运行速度没有得到提高。现在只是增加了处理器的数量而已。”   能源消耗是强大的超级计算机面临的一大问题。但橡树岭国家实验室的官员说,“泰坦”的用电量只会“略高于”“美洲虎”。     编辑整理:Ana Hu  
相关资源
  • 所需E币: 2
    时间: 2020-5-18 17:53
    大小: 37KB
    上传者: 十次方
    模拟依赖于像Ansys这样的有限元素分析软件,该软件需要强大的算力。几年前的一天,它出乎意料地超出了计算极限。