tag 标签: 高性能计算

相关博文
  • 2024-4-26 17:05
    0 个评论
    网络研讨会 | 数据中心中的人工智能
    人工智能(AI)是嵌入式开发人员必须解决的最复杂的技术之一。将其集成到您的系统中会带来很多问题而不是很多答案。行业媒体Embedded Computing Design特地推出“工程师的人工智能集成指南”月度网络研讨会系列,目的是尽可能地简化嵌入式计算设计的设计过程。本次活动是其中研讨会系列之一,主题为“数据中心中的人工智能”。 会议简介 高性能计算(HPC)是数据中心的标准,也是许多人工智能功能的执行场所。在本次会议中,我们将讨论数据中心设计与传统的嵌入式计算机的不同之处,以及开发人员需要做出哪些选择。 会议日期 2024年4月26日周五 北京时间上午2:00 本次网络研讨会将提供记录回放,如因时差或者其他因素希望在会后观看回放,或者希望进一步了解Achronix的AI解决方案及提出相关问题,请发邮件到:Dawson.Guo@Achronix.com 会议形式 线上研讨会 演讲嘉宾 Viswateja Nemani Achronix人工智能和软件产品经理 Viswateja Nemani目前担任Achronix人工智能和软件产品经理。他是一位拥有丰富经验的产品领导者,其在人工智能和软件解决方案领域以制定和执行产品策略的能力而闻名。凭借其将创意转化为成功产品的能力,Viswa为Achronix半导体公司的带来收入的增长和运营效率的提高。他参加了于斯坦福大学商学院著名的LEAD项目,并持有电气工程硕士学位。Viswa将创新的解决问题方法与战略领导力相结合,体现了一种以客户为中心的产品开发方法。 Matthew Burns Samtec全球技术营销总监 Matthew Burns为Samtec的硅到硅解决方案制定市场化策略。在20多年的时间里,他一直在电信、医疗和电子元件行业担任设计、应用工程、技术销售和市场营销方面的领导者。Burns先生拥有宾夕法尼亚州立大学(Penn State University)的电气工程学士学位。
  • 热度 3
    2023-12-19 13:57
    412 次阅读|
    0 个评论
    Achronix提供由FPGA赋能的智能网卡(SmartNIC)解决方案来打破智能网络性能极限
    作者:Achronix 随着人工智能 / 机器学习( AI/ML )和其他复杂的、以数据为中心的工作负载被广泛部署,市场对高性能计算的需求持续飙升,对高性能网络的需求也呈指数级增长。高性能计算曾经是超级计算机这样一个孤立的领域,而现在从超级计算机到边缘解决方案,在各个层面都可以看到高性能计算,随着我们推动更快的解决方案进入市场,网络安全和高复杂性应用在其中也扮演着更重要的角色。 为了满足对网络加速的需求,并提供灵活的、可重新编程的网络, Achronix 为数据中心运营商、云服务提供商和电信公司提供 Achronix 的 Network Infrastructure Code (简称 ANIC )和基于 Achronix Speedster7t FPGA 芯片构建的 SmartNIC 。这些可编程的加速器集成了前沿性技术,如 400 GbE 连接速度、 PCIe Gen 5.0 功能、片上网络和高速并行处理,以提供无与伦比的性能、可扩展性和灵活性组合。 ANIC 是一套由模块化 FPGA IP 组成的完整设计,提供专为高性能网络流水线进行了优化的 SmartNIC 解决方案的所有基本功能单元。它有力地支持 400 GbE 和 PCIe Gen 5.0 功能,使各类用户能够根据其特定要求快速开发高带宽 SmartNIC 解决方案,满足其随着条件的变化而变化的要求。 更好的性能,更高的灵活性 为了提高网络性能,越来越多的客户转向 SmartNIC ,因为它可以通过卸载数据包处理和加密等日常任务来减轻主机服务器 CPU 的负担。除了节省 CPU 周期带来的经济效益之外,卸载还可以提高整体系统性能和资源效率。 SmartNIC 还具有可定制和可编程性,使用户能够灵活地适应不断变化的网络需求。 InfiniBand (简称 IB )是用于高性能计算的传统网络技术。尽管 IB 的性能很好,但对于部署在传统数据中心(用以太网来作为标准网络协议),它却不能提供其中的 HPC 高性能计算解决方案所需的灵活性或功能密度。 Achronix 的 ANIC 解决方案支持 400 GbE ,可实现快速的数据传输速率,同时还提供了在网卡( NIC )上部署网络应用的能力;这一功能可显著提高应用性能并降低事务延迟。基于 FPGA 的 ANIC 方法具有出色的确定性,并始终提供极低的应用延迟,从而使 ANIC 成为具有严格实时处理需求的应用的首选。 SmartNIC 架构的一种实现方法是将计算单元(如 Arm 内核等)添加到高性能网络数据路径中,以实现灵活的且可编程的网络。虽然添加 CPU 内核确实可提供网络卸载和应用加速功能,但处理器内核所能提供的网络性能也受限于其自身。功耗和空间限制将单张网络卡上可部署的内核数量限制于 10 个,从而使指令集受到限制,性能也就受到限制。 ANIC 没有使用性能受限的 Arm 内核,而是运行在高性能的 Achronix Speedster7t FPGA 器件上,并且 ANIC 的模块化架构简化了组件选择过程并加快了设计阶段。此外, Speedster7t FPGA 器件的部分重新配置功能支持实现动态调整,从而能够满足不断变化的需求。这种部署敏捷性可以节省大量的时间和成本。 “这是性能上的一个数量级飞跃,” Achronix SmartNIC 产品规划总监 Scott Schweitzer 说道。“在 ANIC 上用一微秒内就可完成的工作在 Arm 内核上则可能需要几毫秒,而可在几纳秒内完成的工作可能需要几微秒。” 基于 ANIC ,用户有机会去部署自定义的 IP 功能。这种自定义的 IP 功能为定制应用打开了大门,如键值存储、入侵防御、重复数据删除和其他网络功能,所有这些应用都以 400 GbE 的网络速度运行。 在高性能计算中使用由 FPGA 加速的智能网卡:游戏规则改变者 高性能计算环境需要卓越的处理能力、高效的数据移动速度和高速的互连能力才能实现最佳性能。各种 SmartNIC ,尤其是像 Achronix 提供的基于 FPGA 的解决方案,可以无缝地满足这些要求。 在高性能计算中采用基于 FPGA 的 SmartNIC 带来的主要优势之一是定制化。凭借 Speedster7t 可重新编程的 FPGA 具有 400 GbE 以太网和 PCIe Gen5 功能,是高性能计算集群的多功能构建模块。 Achronix 打造 ANIC 的目的是使用户能够优化其网络数据路径并加速网络应用。 ANIC 提供了一个完整的 SmartNIC 流水线,包括数据包接口、 FIFO 缓冲区、报头 / 解析器、流表格、规则引擎和 DMA 引擎。每种功能单元可以根据客户的需要去选择或取消,从而实现全部或部分数据包加速,并在 Speedster7t FPGA 器件上为客户自定义的网络加速功能应用预留高达 50% 的逻辑资源。 Speedster7t FPGA 器件还提供二维片上网络( 2D NoC ),该项设计可在 FPGA 芯片内提供高达 20 Tbps 的带宽,并进一步增强模块化应用的部署。每个 ANIC 模块通过利用 80 个网络接入点可以实时放置在 FPGA 上或对其进行升级。 “ ANIC 的逻辑模块可以像乐高积木一样组合起来,以创建量身定制的 SmartNIC 解决方案,” Schweitzer 说道。“根据想要完成的工作,客户可以选择使用部分或全部 ANIC 功能单元来组装解决方案。”这种模块化可组合性可确保用户只使用其特定应用所需的模块,从而消除了不必要的开销。 在 HPC 中,加速的 I/O 至关重要。 SmartNIC 允许超快速数据移动,从而有助于大型数据集的快速处理。如在 DDoS 缓解应用中,要求更深入的数据包检测, ANIC 基于 FPGA 的高度并行设计支持高效的数据包处理,从而确保及时识别和缓解威胁。 在高性能计算和数据驱动应用的时代, Achronix 提供的基于 FPGA 的 SmartNIC 可提供无与伦比的速度、卸载的处理能力、增强的安全性和卓越的灵活性。无论是寻求高速数据处理,减少延迟还是提高整体效率, SmartNIC 都为高性能网络的未来铺平了道路。随着数据的不断激增和应用的要求越来越高,对于任何希望在高性能网络和计算方面突破极限的人来说, SmartNIC 代表着一项至关重要的创新。
  • 2023-5-29 14:17
    0 个评论
    你是否对人工智能(AI)感到好奇?你是否想要了解GPT如何改变我们的生活?你是否对并行计算和高性能计算( HPC )有所耳闻,但又对其知之甚少? 如果你的答案是肯定的,那么这门课程就是为你量身定制的! 在这个AI的时代,我们的课程将带你深入了解并行计算和 高性能计算 的奥秘。你将学习如何利用 超算 (Supercomputing)的力量,来解决现实生活中的复杂问题。 人工智能(AI)的浪潮正在全球范围内席卷而来,无论是在科研、工业、医疗,还是在我们日常生活中,AI的影响力都在日益增强。然而,AI的发展并非凭空而来,它的基础——高性能计算(HPC)在其中起到了至关重要的作用。只有掌握了高性能计算相关的技能,我们才能在未来的AI领域中获得更好的机会。 首先,让我们来看一个例子。GPT,也就是我们熟知的生成预训练转换器,是一种基于AI的自然语言处理模型。它能够生成与人类几乎无法区分的文本,被广泛应用于机器翻译、问答系统、聊天机器人等领域。然而,GPT的训练过程需要大量的计算资源,这就是高性能计算发挥作用的地方。通过并行计算,我们可以将复杂的计算任务分解成多个子任务,同时在多个处理器上进行计算,大大提高了计算效率。这就是为什么我们可以在短时间内训练出GPT这样的复杂模型。 再来看一个例子,自动驾驶。自动驾驶汽车需要实时处理大量的传感器数据,包括图像、雷达、激光雷达等,以便做出正确的驾驶决策。这种大数据处理的任务对计算能力的要求极高,而高性能计算正好可以满足这种需求。通过高性能计算,我们可以在短时间内处理大量的数据,实现自动驾驶汽车的实时决策。 最后,我们再来看看AI在医疗领域的应用。AI可以帮助医生进行疾病诊断,例如通过分析医学影像数据来检测肿瘤。这种任务需要处理大量的医学影像数据,而且需要在短时间内给出结果,这对计算能力的要求非常高。高性能计算可以帮助我们快速处理这些数据,提供准确的诊断结果。 以上这些例子都说明了一点,那就是高性能计算是AI发展的基础。无论是GPT的训练,还是自动驾驶的决策,或者是AI在医疗领域的应用,都离不开高性能计算。因此,掌握高性能计算相关的技能,对于我们在未来的AI领域中获得更好的机会至关重要。 然而,高性能计算并不是一项简单的技能,它需要深厚的计算机科学基础,包括 并行计算 、分布式系统、计算机体系结构等。此外,还需要对相关硬件,如CPU/GPU、FPGA等有深入的理解。因此,学习高性能计算是一项长期的任务,需要我们投入大量的时间和精力。 但是,这并不意味着高性能计算是一项无法攀登的高峰。事实上,随着教育资源的丰富,我们可以通过在线课程、工作坊、实验室项目等方式,逐步掌握高性能计算的相关技能。 无论你是AI新手,还是有一定基础的学者,这门课程都将帮助你提升技能,开启你的AI之旅。
  • 热度 6
    2023-2-8 17:42
    1530 次阅读|
    0 个评论
    百度 | Bard | Chat GPT 谷歌 | RLHF| ERNIE Bot 随着深度学习、高性能计算、数据分析、数据挖掘、LLM、PPO、NLP等技术的快速发展,Chat GPT得到快速发展。 Chat GPT是OpenAI开发的大型预训练语言模型, GPT-3模型的一个变体,经过训练可以在对话中生成类似人类的文本响应。 为了占据ChatGPT市场的有利地位,百度谷歌等巨头公司也在运筹帷幄,不断发展。 作为国内液冷服务器知名厂商,蓝海大脑Chat GPT深度学习一体机实现了软硬协同的深度优化,在分布式存储加速、智能网络加速等关键性技术上取得重要突破,提供更加出色的云系统性能。采用NVMe专属定制的加速引擎,发挥NVMe极致性能,全栈的数据传输通道实现分布式存储副本数据传输零损耗。同时,升级智能网络引擎,通过更多类型网卡进行虚拟化调度,释放CPU性能,可以使计算资源节约最多达90%,网络转发速率提高数倍,进一步提升平台性能深受广大Chat GPT 工作者的喜爱。 深度学习一体机 ChatGPT的训练过程 在整体技术路线上,Chat GPT引入了“手动标注数据+强化学习”(RLHF,从人的反馈进行强化学习 )来不断 Fine-tune预训练 语言模型。 主要目的是让LLM模型学会理解人类命令的含义(比如写一篇短文生成问题、知识回答问题、头脑风暴问题等不同类型的命令),让LLM学会判断对于给定的提示输入指令(用户的问题)什么样的回答是优质 的( 富含信息、内容丰富、对用户有帮助、无害、不包含歧视信息等多种标准 )。 在“人工标注数据+强化学习”的框架下,具体来说,Chat GPT的训练过程分为以下三个阶段: 一、第一阶段:监督调优模型 就 GPT 3.5 本身而言,虽然功能强大,但很难理解不同类型人类的不同指令所体现的不同意图,也很难判断生成的内容是否是高质量的结果。为了让GPT 3.5初步理解指令中包含的意图,将随机选择一批测试用户提交的 prompt (即指令或问题),由专业标注人员对指定指令提供高质量的答案, 然后专业人员标注数据对GPT 3.5模型进行微调。 通过这个过程,可以假设 GPT 3.5 最初具有理解人类命令中包含的意图并根据这些意图提供相对高质量答案的能力。 第一阶段的首要任务是通过收集数据以训练监督的策略模型。 数据采集: 选择提示列表,要求标注者写出预期结果。Chat GPT 使用两种不同的prompt 来源:一些是直接使用注释者或研究人员生成的,另一些是从 OpenAI 的API 请求(即来自 GPT-3 用户)获得的。尽管整个过程缓慢且昂贵,但最终结果是一个相对较小的高质量数据集(大概有 12-15k 个数据点),可用于调整预训练语言模型。 模型选择: Chat GPT 开发人员从 GPT-3.5 套件中选择预训练模型,而不是对原始 GPT-3 模型进行微调。使用的基础模型是最新版本的text-davinci-003(用程序代码调优的GPT-3模型)。 二、第二阶段:训练回报模型 这个阶段的主要目标是通过手动标注训练数据来训练回报模型。具体是随机抽取用户提交的请求prompt(大部分与第一阶段相同),使用第一阶段Enhancement的冷启动模型。对于每个prompt,冷启动模型都会生成K个不同的答案,所以模型会生成数据 , .... 。之后,标注者根据各种标准(上述的相关性、 富含信息性、有害信息等诸多标准 )对X个结果进行排序,并指定X个结果的排名顺序,这就是这个阶段人工标注的数据。 接下来,使用这个排名结果数据来训练回报模型。使用的训练方式实际上是常用的pair-wise learning to rank。对于 X 排序结果,两两组合起来形成一个训练数据对,ChatGPT 使用 pair-wise loss 来训练 Reward Model。RM 模型将 作为输入,并提供奖励分数来评估答案的质量。对于一对训练数据,假设 answer1 排在 answer2 之前,那么Loss函数驱动 RM 模型比其他得分更高。 总结一下:在这个阶段,首先冷启动后的监控策略模型对每个prompt生成X个结果,并根据结果的质量从高到低排序,并作为训练数据,通过pair-wise learning to rank模式来训练回报模型。对于学好的 RM 模型来说,输入 ,并输出结果质量分数。分数越高,答案的质量就越高。其 工作原理是: 选择prompt列表,SFT 模型为每个命令生成多个输出(4 到 9 之间的任何值); 标注者从最好到最差对输出进行排名。结果是一个新标记的数据集,其大小大约是用于 SFT 模型的确切数据集的 10 倍; 此新数据用于训练 RM 模型。该模型将 SFT 模型的输出作为输入,并按优先顺序对它们进行排序。 三、第三阶段:使用 PPO 模型微调 SFT 模型 本阶段不需要人工标注数据,而是利用上一阶段学习的RM模型,根据RM打分结果更新预训练模型参数。具体来说,首先从用户提交的prompt中随机选择一批新的指令(指的是不同于第一阶段和第二阶段的新提示),PPO模型参数由冷启动模型初始化。然后对于随机选取的prompt,使用PPO模型生成答案,使用前一阶段训练好的RM模型,提供一个评价答案质量的奖励分数,即RM对所有答案给出的整体reward。有了单词序列的最终回报,每个词可以看作一个时间步长,reward从后向前依次传递,由此产生的策略梯度可以更新PPO模型的参数。这是一个标准化的强化学习过程,目标是生成符合 RM 标准的高质量答案。 如果我们不断重复第二和第三阶段,很明显每次迭代都会让 LLM 模型变得越来越强大。因为在第二阶段,RM模型的能力通过人工标注数据得到增强,而在第三阶段,增强的RM模型更准确地评估新prompt生成的答案,并使用强化学习来鼓励LLM模型学习新的高质量内容 ,这类似于使用伪标签来扩展高质量的训练数据,从而进一步增强LLM模型。显然,第二阶段和第三阶段相辅相成,这就是为什么连续迭代的效果会越来越大。 不过小编认为,在第三阶段实施强化学习策略并不一定是Chat GPT模型如此出色的主要原因。假设第三阶段不使用强化学习,而是采用如下方法:与第二阶段类似,对于一个新的prompt,冷启动模型可能会生成X个答案,由RM模型打分。我们选择得分最高的答案组成新的训练数据 ,进入fine-tune LLM模型。假设换成这种模式,相信效果可能会比强化学习更好。虽然没那么精致,但效果不一定差很多。不管第三阶段采用哪种技术模型,本质上很可能是利用第二阶段学会的RM,从LLM模型中扩展出高质量的训练数据。 以上是Chat GPT训练过程。这是一个改进的 instruct GPT。改进主要是标注数据收集方法上的一些差异。其他方面,包括模型结构和训练过程,基本遵循instruct GPT。估计这种Reinforcement Learning from Human Feedback技术会很快扩散到其他内容创作方向,比如一个很容易想到的方向,类似“A machine translation model based on Reinforcement Learning from Human Feedback”等。不过个人认为在NLP的内容生成的特定领域采用这项技术并不是很重要,因为Chat GPT本身可以处理很多不同类型的任务,基本上涵盖了NLP产生的很多子领域。因此,对于NLP的某些细分领域,单独使用这项技术的价值并不大,其可行性可以认为是经过Chat GPT验证的。如果将该技术应用到其他模式的创作中,比如图像、音频、视频等,这或许是一个值得探索的方向。可能很快就会看到类似“A XXX diffusion model based on Reinforcement Learning from Human Feedback”之类的内容。 Chat GPT的不足之处 尽管Chat GPT好评如潮且商家采用率不断提高,但仍然存在许多缺点。 一、回答缺少连贯性 因为Chat GPT只能基于上文且记忆力差,倾向于忘记一些重要的信息。 研究人员正在开发一种 AI,可以在预测文本中的下一个字母时查看短期和长期特征。 这种策略称为卷积。 使用卷积的神经网络可以跟踪足够长的信息以保持主题。 二、有时会存在偏见 因为 Chat GPT 训练数据集是文本,反映了人类的世界观,这不可避免地包含了人类的偏见。如果企业使用 Chat GPT 撰写电子邮件、文章、论文等无需人工审核,则法律和声誉风险会很大。例如,带有种族偏见的文章可能会产生重大后果。 Facebook 的 AI 负责人 Jerome Pesenti 使用 Kumar的 GPT-3 生成的推文来展示输出如何根据需要使用“犹太人、黑人、女性或大屠杀”等词,其输出可能会变得多么危险。Kumar 认为这些推文是精心挑选的,Pesenti 同意,但回应说“产生种族主义和性别歧视的输出不应该那么容易,尤其是在中立的情况下。” 另外,对GPT-3文章的评价也有失偏颇。人类写作文本的风格会因文化和性别而有很大差异。如果 GPT-3 在没有校对的情况下对论文进行评分,GPT-3 论文评分者可能会给学生更高的评分,因为他们的写作风格在训练数据中更为普遍。 三、对事实理解能力较弱 Chat GPT不能从事实的角度区分是非。例如,Chat GPT 可能会写一个关于独角兽的有趣故事,但 Chat GPT 可能不了解独角兽到底是什么。 四、错误信息/虚假新闻 Chat GPT可能会创作逼真的新闻或评论文章,这些文章可能会被坏人利用来生成虚假信息,例如虚假故事、虚假通讯或冒充社交媒体帖子,以及带有偏见或辱骂性的语言。或垃圾邮件、网络钓鱼、欺诈性学术论文写作、煽动极端主义和社会工程借口。Chat GPT 很容易成为强大宣传机器的引擎。 五、不适合高风险类别 OpenAI 声明该系统不应该用于“高风险类别”,例如医疗保健。在 Nabra 的博客文章中,作者证实 Chat GPT 可以提供有问题的医疗建议,例如“自杀是个好主意”。Chat GPT 不应在高风险情况下使用,因为尽管有时它给出的结果可能是正确的,但有时会给出错误的答案。在这个领域,正确处理事情是生死攸关的问题。 六、有时产生无用信息 因为 Chat GPT 无法知道哪些输出是正确的,哪些是错误的,并且无法阻止自己向世界传播不适当的内容。使用此类系统生成的内容越多,互联网上产生的内容污染就越多。在互联网上寻找真正有价值的信息变得越来越困难。由于语言模型发出未经检查的话语,可能正在降低互联网内容的质量,使人们更难获得有价值的知识。 谷歌、百度应对OpenAI所采取的措施 近日,Chat GPT聊天机器人风靡全球,轰动一时。这些AI产品是众多大厂竞相竞争的对象。2月7日消息,据外媒报道,当地时间周一,谷歌公布了Chat GPT的竞争对手Bard,一款人工智能聊天机器人工具。此外,百度计划在今年 3 月推出类似于 Chat GPT OpenAI 的 AI 聊天机器人服务。 一、谷歌推出AI聊天机器人工具Bard 谷歌CEO桑达尔·皮查伊(Sundar Pichai)在一篇博文中宣布了该项目,将该工具描述为一种由LaMDA(谷歌开发的大型语言模型)支持的“实验性对话式人工智能服务”,将回答用户问题并参与对话 。 他还指出,Bard 能够从网络中提取最新信息以提供新鲜、高质量的回复,这意味着 Bard 可能能够以 Chat GPT 难以做到的方式回答有关近期事件的问题。 Pichai 表示,该软件最初将开始面向可信任的测试人员开放,然后在未来几周内更广泛地向公众提供。目前尚不清楚 Bard 将具有哪些功能,但聊天机器人似乎将像美国人工智能研究公司 OpenAI 拥有的 Chat GPT 一样免费使用。 据悉,Chat GPT由OpenAI于2022年11月30日推出,Chat GPT可以根据用户需求快速创作文章、故事、歌词、散文、笑话,甚至代码,并回答各种问题。Chat GPT一经发布就在互联网上掀起一股风暴,并受到包括作家、程序员、营销人员在内的用户以及其他公司的青睐。对于Chat GPT的走红,Pichai在公司内部发布了“红色警报”,表示将在2023年围绕Chat GPT全面适配谷歌在AI方面的工作。上周,皮查伊表示,谷歌将在未来几周或几个月内推出自己的 AI 语言建模工具,类似于 Chat GPT。 二、百度Chat GPT产品官宣确认:文心一言3月完成内测 值得注意的是,据外媒报道百度计划在今年3月推出类似于Chat GPT OpenAI的人工智能聊天机器人服务。初始版本将嵌入其搜索服务中。目前,百度已确认该项目名称为文心一言,英文名称为ERNIE Bot。内部测试于 3 月结束,并向公众开放。此时,文心一言正在做上线前的冲刺。 去年9月,百度CEO李彦宏判断人工智能的发展“在技术层面和商业应用层面都出现了方向性转变”。据猜测百度那时候就开始做文心一言。按照谷歌和微软的节奏,文心一言可能提前开启内测。 百度拥有 Chat GPT 相关技术,在四层人工智能架构上( 包括底层芯片、深度学习框架、大模型、顶级搜索应用 )进行了全栈布局。文心一言位于模型层。百度深耕人工智能领域数十年,拥有产业级知识增强文心大模型ERNIE,具有跨模态、跨语言的深度语义理解和生成能力。 业内人士分析,尤其是在自然语言处理领域,国内绝对没有一家公司能接近百度目前的水平。有专家提出Chat GPT是人工智能的一个里程碑,更是分水岭,意味着AI技术的发展已经到了一个临界点,企业需要尽快落地。
  • 热度 7
    2023-1-31 17:42
    861 次阅读|
    0 个评论
    公司简介 DNV GL 是全球领先的能源、石油和海事行业风险管理及资产绩效提升的软件供应商,主要为客户提供全面的风险管理和各类评估认证服务,认证涉及信息通信技术、汽车及航空天、食品与饮料、医疗等方面。 DNV GL以让世界更安全、更智能、更环保为使命,为海事、石油、天然气和能源行业提供技术保证和独立专家咨询服务。该公司为来自100多个国家的客户提供分类服务,得到了16000名专业人士的支持。 在该公司成立150周年之际,DNV G提出了四个关键目标: 1. 创造一个安全和可持续的未来 2. 缓和从技术到改革的转变 3. 适应不断变化的气候 4. 定义航运的未来 面临的挑战 为全球石油和天然气行业的领先技术顾问,DNV GL需要及时且高度准确的计算功能,为可行各业客户提供一致且完整的分析服务。 DNV GL的一个项目是评估防喷器 (BOP)的流体动力学。传统上,BOP受限于维护时间可能导致运营停机时间增加,例如非结构化维护管理、可靠性降低和设备大修。 计算流体动力学(CFD)仿真软件有助于预测流体流动对海上石油钻井平台和相关产品等结构的影响。CFD仿真软件的流体流动分析功能可用于设计及优化新设备、对现有安装进行故障排除等。 为了进行流体动力学评估,DNV GL公司需要使用高性能计算在石油和天然气结构上运行计算流体动力学(CFD)。此外,该公司还依赖ANSYS® Fluent®软件进行广泛的物理建模,以确定工业应用的流动、湍流、传热和反应—以进行网格划分和准备仿真参数。总体看,该项目的数据总计4000万个单元。 然而,对于DNV GL而言,想要获得HPC资源具有很大的困难。由于该公司的核心集群可用性有限,即便在两个地方拥有2000和 7000个集群核,但还不足以运行外流、进行深水数据分析以及进行如此大的计算。 “我们部门负责通过有限元分析和计算流体动力学为石油和天然气客户提供最先进的分析—我们非常需要高性能计算,然而,我们的基础设施难以胜任这项任务。” —DNV GL的深水技术工程师 卡拉博士 为了应对上述挑战,DNV GL选择了HK-Nimbix,使用该公司基于云的HPC基础设施和应用程序。 高性能计算解决方案 ANSYS®(大型通用有限元分析软件)推荐DNV GL使用Nimbix高性能计算套件(HK-Nimbix),Nimbix混合云由JARVICE平台提供支持—作为HPC处理的公共和私有工作负载之间的网关。其用户友好的API完全简化了数据处理周期,可帮助DNV GL公司创建量身定制的工作流程,同时构建一个友好的工作环境,更有效地管理和加速工作负载处理。 在首次测试中,DNV GL利用ANSYS® Fluent®在平台上提交任务,该ANSYS+Nimbix组合解决方案立即被用于提交和执行任务,其中案例、数据和日志文件通过VPN连接从本地计算机来回拷贝,然后复制到Nimbix HPC云服务。 卡拉博士说:“使用HK-Nimbix后,我们发现工作流程原来可以如此简单和流畅。据需要的容量和数据处理速度,HK-Nimbix为我们精心设计了强大的HPC云,它可以支持交付工作所需的时间线,同时又不超出我们的预算,这样可以确保我们更好、更快地进行计算!” 结果 ANSYS® Fluent®和Nimbix JARVICE平台的结合有助于提高DNV GL的盈利率,不仅帮助该公司创建更快的计算模型、提高客户服务质量,还建立了客户群,提高了石油和天然气行业客户的服务质量和效率。 HK-Nimbix客户支持模型帮助DNV GL快速解决任何集成问题:“Nimbix的客户支持堪称完美。我们公司正在一个度复杂的行业中运转,需要快速回答和快速计算。当我们开始使用Nimbix后,其专家团队总是及时出现,无缝、高效地帮助我们推出了防喷器 (BOP)项目。”卡拉说道。 未来发展计划 基于BOP项目的成功,DNV GL准备在未来几个月内扩展ANSYS® + Nimbix组合—将高性能计算完全集成到该公司的分析基础设施中。 使用HK-Nimbix,DNV GL公司非常有信心落地新的项目,例如: ▪ Nuwave:DNV和MARINTEK正在启动一个项目,其目标是使用CFD解决与海洋/近海问题并为数值波浪水槽制定提供解决方案。 ▪ Jumper:主要为分析校准和模型测试,该项目的目标是开发和推荐复杂跳线系统的涡激振动 (VIV) 评估实践。 ▪ VIV:该项目包括对VIV管道进行3000次仿真的高级分析和CFD用例。 “在使用Nimbix后,我们觉得其混合云的HPC非常不错,但从未预料到它执行数据计算的效率和速度如此之快,不仅确保我们能够超额交付当前项目,而且能够为我们的新项目提供解决思路。”—卡拉博士 Nimbix产品简介 虹科是Nimbix中国区的合作伙伴。虹科HK-Nimbix高性能计算套件是一套灵活且安全的即服务高性能计算 (HPC) 解决方案。这种面向云中的HPC、AI和Quantum的即服务模型为客户提供了访问最广泛的HPC和高性能计算产品组合的权限—从硬件到裸机即服务,再到先进计算的民主化、是跨公共和私有数据中心的云。
相关资源
  • 所需E币: 0
    时间: 2022-1-5 22:49
    大小: 1.61MB
    上传者: czd886
    FPGA应用于高性能计算的研究现状和未来挑战
  • 所需E币: 2
    时间: 2022-1-2 14:59
    大小: 729.13KB
    上传者: czd886
    一种面向高性能计算的多FPGA互连结构及划分方法
  • 所需E币: 1
    时间: 2020-4-13 19:27
    大小: 24KB
    上传者: 十次方
    高性能计算(HPC)指通常使用很多处理器(作为单个机器的一部分)或者某一集群中组织的几台计算机(作为单个计算资源操作)的计算系统和环境。高性能集群上运行的应用程序一般使用并行算法,把一个大的普通问题根据一定的规则分为许多小的子问题,在集群内的不同节点上进行计算,而这些小问题的处理结果,经过处理可合并为原问题的最终结果。由于这些小问题的计算一般是可以并行完成的,从而可以缩短问题的处理时间。
  • 所需E币: 5
    时间: 2019-12-24 22:32
    大小: 286.58KB
    上传者: wsu_w_hotmail.com
    目前应用软件的需求已经远远超出了传统处理器的能力所及。一种解决方法是通过硬件加速,采用专用协处理器来提升处理性能。FPGA作为协处理器设计的基础,在价格、性能、易用性以及功耗方面有明显的优势。微处理器有近40年的历史,在这期间,其性能得到了大幅提高,每18个月翻倍,这就是众所周知的“摩尔定律”。处理器从最初不实用的“玩具”发展到现在,性能上已经超越了曾轰动一时的Cray-1超级计算机。处理器在每一轮性能增长过程中,都能支持更复杂和要求更高的应用软件,使得用户对未来处理器的性能有更高的期望。在微处理器发展历史中,随着处理器性能的提高,应用软件的需求也随之增长,而处理器总是能满足应用软件的需求。但是,在过去几年中,情况发生了变化。处理器本身无法满足高性能计算(HPC)应用软件的性能需求,导致需求和性能之间出现了缺口。白皮书___________________________________________________________________利用FPGA加速实现高性能计算引言目前应用软件的需求已经远远超出了传统处理器的能力所及。一种解决方法是通过硬件加速,采用专用协处理器来提升处理性能。FPGA作为协处理器设计的基础,在价格、性能、易用性以及功耗方面有明显的优势。微处理器有近40年的历史,在这期间,其性能得到了大幅提高,每18个月翻倍,这就是众所周知的“摩尔定律”。处理器从最初不实用的“玩具”发展到现在,性能上已经超越了曾轰动一时的Cray-1超级计算机。处理器在每一轮性能增长过程中,都能支持更复杂和要求更高的应用软件,使得用户对未来处理器的性能有更高的期望。在微处理器发展历史中,随着处理器性能的提高,应用软件的需求也随之增长,而处理器总是能满足应用软件的需求。但是,在过去几年中,情况发生了变化。处理器本身无法满足高性能计算(HPC)应用软件的性能需求,导致需求和性能之间出现了缺口(参见图1)。图1.工业发展形势:技术缺口很多应用需求都要求改变这一形势。一个例子是金融分析,金融期权交易所通过加速应用软件来获得市场竞争优势。对金融应用软件加速,金融交易所能够比竞争对手更快更好地完成交易,更少出错,大幅度提高收益。要提升性能首先得提高处理能力,全面提升性能要求处理能力至少提高一个数量级。很多传统应用软件采用了越来越复杂的算法,对处理器的要求也随之提高。例如,为了提高通信应用软件的功能,编解码(C……