原创 科技云报道:从“奇点”到“大爆炸”,生成式AI开启“十年周期”

2024-4-17 14:45 259 0 分类: 机器人/ AI

科技云报道原创。


世界是复杂的,没有人知道未来会怎样,但如果单纯从技术的角度,我们总是能够沿着技术发展的路径,找到一些主导未来趋势的脉络。


从Sora到Suno,从OpenAI到Copilot、Blackwell,这些热词在大众眼里或许还分不清楚,但很多人已经用上各种“ChatGPT”,或聊天或创作。不知不觉间,我们已经卷入新一轮AI浪潮中。


这轮人工智能浪潮,自ChatGPT这类生成式AI工具问世,被迅速引爆。AI大模型从研究走向应用,复用成本大幅降低,各种应用得以更快渗透进各行各业。


IDC发布报告称,2027年全球人工智能IT总投资规模有望从2022年的1324.9亿美元增至2027年的5124.2亿美元,年复合增长率(CAGR)为31.1%。


聚焦生成式AI,IDC预测,全球生成式AI市场年复合增长率将达85.7%,到2027年全球生成式AI市场规模将接近1500亿美元。


英伟达CEO黄仁勋表示,生成式AI已经开启了全新的投资周期,已经进入了“十年周期”(技术从出现、传播到大规模应用所需的时间)的第一年。

当生成式AI从一个“奇点”到迎来“大爆炸”时刻,其将在现实世界发生哪些改变?又将激发怎样的潜力?

生成式AI迎来“三个转变”


生成式AI技术可分为四个层次,即面向消费者应用;大语言模型(LLM)等基础技术;支持服务的云基础设施;以及对于开发和运营至关重要的半导体。

从技术发展看,今年生成式AI将从纯理论探讨阶段,全面进入到业务应用阶段。过去一年,大部分企业和机构并没有真正打造出生成式AI系统;而今年,生成式AI系统将全面进入到生产当中,企业将真正地开始使用生成式AI工具。


对于生成式AI本身,即将迎来三个方面的转变。


首先,要把生成式AI投入到企业以及业务用例的过程中,就要从构建训练基础架构转向构建推理基础架构。


到目前为止,大部分企业往往是通过对开源基础模型进行调优、优化或者是互联,来实现自己的某些功能和需求。


对于各个企业、各个垂直行业领域的企业来说,无论是GenAI还是GPT4,大语言模型的训练成本是高昂的。特别是对于垂直行业的企业用户,不会在业务推进过程中直接采用这些模型。


如果未来需要将AI能力赋予企业的业务,那么企业就需要进一步开发已有的模型,从而让这些模型在部署到垂直行业的生产中时,可以真正地转化为生产力。


而这种转变也对企业提出了更加明确的要求:如何更好地设计出这种推理基础架构?该把它们放在哪里?如何确保其安全?


其次,是企业的关注点将越来越多地将从宽泛的实验转向自上而下的战略推进,即挑选出少数几个真正具有变革意义的生成式AI应用项目。


去年,很多企业都在考虑采用生成式AI技术。但如今,企业已经认识到,要应用生成式AI技术,每个项目都非常庞大,需要占用大量人力、物力、财力,才能构建和实施一个能够投入生产的生成式AI系统。


到了今年,一方面,生成式AI领域将会有成百上千乃至上万的潜在用例,但另一方面,由于每一个企业的资源有限,因此只能选择其中几个重点实施。


对于企业的CIO和领导者,必然会面临一个问题:就是从几百个AI项目中,优先选择几个进行实施。这其中的风险在于:一旦选对了,这些项目将对业务产生正向影响;而万一选错,可能就会造成大量的资源浪费。


要想做出一个正确的选择,各个企业必须要充分理解GenAI价值,以及生成式AI最有可能从哪些方面能够为企业提升生产力而赋能。


第三,是用户对于AI投入的成本考量,从对“训练成本”的计算转向对“运营成本”的衡量。


在理论研究和训练阶段,生成式AI的成本取决于构建模型的复杂程度,以及架构开发和维护人员的规模,除此之外再无其他成本可言。


但当企业用户开始实施部署和应用生成式AI工具时,现实的运营成本就会成为企业用户面临的最大经济考量。


以戴尔科技为例,其最初开始建立自己的生成式AI系统时,基本上会在三个月的时间里用到20台服务器,此刻其整体运营成本是未知的。


但当这套系统开始被戴尔科技内部的工程师应用时,6000名工程师每个月就需要大约5000万次处理量,因此该系统最大的成本不是建立一个模型的成本,而是基于大规模处理而产生的巨额运营成本。


这对企业用户而言,从训练成本到运营成本的考虑,将是未来必将面对的一个相当现实的问题。


从本质上说,生成式AI的转变其实是技术从研发到应用的商用化过程中必然要经历的过程。


只是由于AI自身业务形态的改变,也将带来更多行业的改变,其中的一个影响就是会带动一批相关技术和应用,成为未来的热点和趋势。


如何激发生成式AI更大潜力


仅仅一年,随着各大资本和巨头入场,AI从底层大模型,到基础设施,到机器学习操作(MLOps),再到消费端应用,生成式AI的生态已经初步建立。

随着今年生成式AI的进一步训练和稳定,行业发展将加速向下游移动,生成式AI将进一步改变人们的生活,乃至改变整个世界,其为企业提供了无限的想象空间,使产品和服务的研发过程更加高效、有趣。


面对生成式AI市场的巨大潜力,亚马逊、谷歌、微软、Meta等科技巨头不甘示弱。去年12月,谷歌多模态大模型Gemini发布,包含三个版本:Nano、Pro和Ultra。


Pro对标GPT-3.5,Ultra对标GPT-4,可以处理文本之外的信息,包括图像、视频和音频。同时,谷歌上线文生图模型Imagen 2、视频生成模型VideoPoet,推出医疗人工智能大模型MedLM,将大模型与医疗保健行业紧密结合。


去年11月,微软将集成了GPT的Bing Chat更名为Copilot,可以免费使用GPT-4、DALL·E 3功能,并且拥有了独立网站,Copilot将嵌入所有微软旗下应用中。微软还推出Copilot Studio,使用者可以自定义GPT、创建新插件、自定义工作流。


Meta则接连发布了650亿参数的开源大模型 LLaMA和700亿参数的LLaMA2。近日,Meta推出全新开源大模型Code Llama 70B,其准确率达到了53%,超过了GPT-3.5的48.1%,是目前评分最高的开源大模型。


2023年以来,看似默默无闻的亚马逊频频出击。去年9月,亚马逊宣布将向人工智能初创公司Anthropic投资40亿美元,近日,其再次宣布追加投资27.5亿美元,完成了对Anthropic40亿美元的投资,决心可见一斑。


更为重要的是,亚马逊云科技提出了基于生成式AI的三层技术栈。


第一层是高性能基础设施,过去五年,亚马逊云科技持续加大在自研芯片方面的投入,比如Amazon Trainium和Amazon Inferentia芯片,可以提供在云上训练模型和运行推理的最低成本。


除此之外,在GPU方面,NVIDIA多款先进算力均率先在亚马逊云科技落地。


第二层是最广泛的基础模型选择。亚马逊云科技认为“没有一个模型可以适用于所有业务场景”,因此推出Amazon Bedrock,企业可以灵活选择适合自己的模型,更容易地构建应用,并在保证数据安全和隐私基础上,进行定制化模型的开发,还无需大量的标注数据。


Amazon Bedrock提供各种领先的基础模型供客户选择:既有知名的开源模型,如Stable Diffusion XL、Llama、Mistral 7B和Mixtral 8*7B,也有如Anthropic Claude 3、AI21labs Jurassic、Cohere Command、Amazon Titan等非开源模型。


基于Amazon Bedrock云托管服务,企业可以通过API访问从文本到图像的一系列强大的基础模型。


值得一提的是,亚马逊和Anthropic在生成式AI领域有着广泛的合作,Anthropic在Amazon Bedrock上提供的Claude 3系列模型是全球最领先的大模型之一,共包含三个模型:Haiku、Sonnet、Opus,从模型尺寸来看,可以理解为模型的中杯、大杯、超大杯。


客户可以根据自己的商业需求,从中选择最合适的智能、速度和价格组合。


· Haiku:是响应速度最快的模型,也是成本最低的选项,在大多数纯文本任务上的表现仍然相当出色,也同时包含多模态能力(比如视觉)。


· Sonnet:适用于需要平衡性能和成本的场景,它在纯文本任务上的表现与后面的Opus相当,但在成本上更为经济,适合于那些需要性能稍微好点,但预算有限的企业和个人用户。


· Opus:具有强大的推理、数学和编码能力,接近人类的理解能力,适用于需要高度智能和复杂任务处理的场景,如企业自动化、复杂金融预测、研究和开发等。


对于Claude 3,更有行业人士认为其终结了GPT-4时代。Claude 3有两大亮点,一个是长文本,二是多模态能力。


长文本是Claude 3的一个显著优势,体现为在读论文、小说等字数更多的文本时,Claude 3更擅长理解和回答用户的相关问题。


此次Claude 3大大提升了上下文对话窗口,达到200k,可以理解为单次和模型对话能够输入的文本。


具体而言,Claude 3 200k的对话长度,相当于能够单次处理超过15万英文单词,而GPT-4 Turbo的上下文窗口为128k,大约是9.6万个英文单词。同时,Claude 3也第一次允许图像和文档上传。


和ChatGPT一样,Claude 3能够“认”出来图里的是什么东西,直接描述,回答用户的问题。更令人印象深刻的是,Claude 3在分析一些复杂问题时,已经能够和人一样,先拆解问题,并且交由子模型来进行调度。


第三层就是应用生成式AI技术的开箱即用的云服务,进一步降低使用门槛。目前已经推出Amazon Q这一AI助手,可以根据客户业务进行定制,专用于办公场景需要。


还与像Amazon QuickSight,包括智能客服的产品Amazon Connect,面向编程开发人员的平台Amazon CodeWhisperer,都实现了非常有效的结合。


可以看到,从底层基础设施到上层应用拓展,今年亚马逊云科技在生成式AI领域不断发力。不同的客户可以根据需求选择不同层级的产品,通过这三层来支持他们的业务创新。


此外,对于如何帮助企业快速具备生成式AI能力,亚马逊云科技拥有丰富的专业技术支持资源,包括SA、产品专家、人工智能实验室、数据实验室、快速原型团队、专业服务团队,帮客户打通应用生成式AI的“最后三公里”工程化挑战。


对于作为扮演“底层架构师”角色的亚马逊云科技而言,大模型固然重要,但关键技术能力的集合才是提升企业生产力的根本动力。


亚马逊云科技大中华区产品部总经理陈晓建表示,“尽管大模型非常重要,但仅靠大模型对企业的生产是远远不够的。从模型能力到真正的运营生产之间,企业还需要增加很多辅助能力。企业需要一系列周边的能力来正确、合理、安全、高效地使用大模型,这就是亚马逊云科技一系列产品所提供的价值所在。”


生成式AI领域接下来发展的最关键一步是什么?陈晓建表示,首先,从最底层来看,芯片性能仍然落后于需求。虽然半导体芯片的发展已经非常快,但模型本身参数规模的扩大实际上远超芯片的能力。


“以前一个几百万参数的模型,就觉得已经很大了,但现在动辄达到数百亿的规模。基础服务商仍需关注如何将底层能力、业务复杂度和大模型复杂度相匹配,使硬件发展赶上软件发展规模。”


其次,他认为大模型能力本身还有很多发展空间,今天看到的模型可能代表了一个博士生水平,但是能不能做得更好?比如达到教授或者院士水平?


包括亚马逊云科技在内的诸多生成式AI供应商需要在未来持之以恒地去做模型能力方面的工作。


在最上层与各行各业务相结合方面,陈晓建表示,相关的SaaS解决方案非常多。


从这点上看,将生成式AI能力与垂直场景的解决方案结合需要做巨大的工作。“我们需要思考大模型如何为人类社会各行各业中的应用提供更好的模型能力、更易用的方式和更低的成本。”


无论如何,人们对未来的期许总是充满希望。对于科技未来的走向,以AI为代表的技术进化,正在成为一场考验人类想象力的比赛。


科技企业能做的,就是通过技术普惠,降低AI参与门槛,先把大模型打造成像电、水一样随取随用的公共资源,再将生成式AI技术应用于各行各业,变成真正能够推动人类发展的生产力。


【关于科技云报道】

专注于原创的企业级内容行家——科技云报道。成立于2015年,是前沿企业级IT领域Top10媒体。获工信部权威认可,可信云、全球云计算大会官方指定传播媒体之一。深入原创报道云计算、大数据、人工智能、区块链等领域。

作者: 科技云报到, 来源:面包板社区

链接: https://mbb.eet-china.com/blog/uid-me-4076771.html

版权声明:本文为博主原创,未经本人允许,禁止转载!

文章评论0条评论)

登录后参与讨论
EE直播间
更多
我要评论
0
0
1
2
3
4
5
6
7
8
9
0
关闭 站长推荐上一条 /1 下一条