tag 标签: 人工智能

相关博文
  • 2024-11-30 14:43
    49 次阅读|
    0 个评论
    随着人工智能(AI)技术的飞速发展,其在军事领域的应用日益广泛,极大地改变了传统的战争形态和作战方式。AI不仅提升了军事作战的效率和精度,还为军事决策、装备研发、后勤保障等方面带来了革命性的变革。 一、AI在军事领域的应用 军事决策支持:AI技术可以通过大数据分析和机器学习算法,为军事指挥官提供实时的战场态势分析、敌情预测和作战方案优化等支持。这有助于指挥官更加准确地把握战场情况,制定更为科学的作战计划。 自主武器系统:AI技术已经广泛应用于自主武器系统中,如无人机、无人战车等。这些装备能够自主感知、识别目标和进行打击,大大提高了作战的灵活性和效率。同时,自主武器系统还可以减少人员伤亡,降低战争成本。 情报收集与分析:AI技术可以自动从海量信息中筛选出有价值的情报,并进行深度分析和挖掘。这有助于军事人员及时发现潜在威胁,掌握敌情动态,为军事决策提供有力支持。 军事训练和模拟:AI技术可以构建高度逼真的虚拟战场环境,为军事训练提供有力的支持。通过模拟实战场景,军事人员可以在不真实投入的情况下进行训练,提高作战技能和应对能力。 二、AI在军事领域的前景 智能化战争:随着AI技术的不断发展和应用,未来的战争将更加智能化。自主武器系统和无人化装备将成为战场上的主力军,而人类将更多地扮演指挥和决策的角色。这将使得战争更加高效、精确和致命。 网络化作战:AI技术将推动军事领域向网络化作战方向发展。通过构建高度协同的作战网络,不同军种、不同部队之间可以实现信息共享、资源互补和协同作战,从而大大提高作战效能。 1. 自动驾驶车辆(无人机、地面车辆和船舶) 自主车辆(包括无人机、地面车辆和船只)是 2024 年人工智能(AI)在军事领域的主要应用之一。在现代战场上,自动驾驶汽车正在彻底改变军事行动。无人机(又称无人驾驶飞行器(UAV))走在前列,增强了情报、监视和侦察(ISR)任务。这些无人机可以组成蜂群,像昆虫群一样协同工作,高效地共享信息并协调行动,以完成目标识别和战场评估等任务。在地面上,自动地面车辆(AGV)正在崭露头角。这些由人工智能驱动的机器能应对危险的地形,并在极少的人工监督下执行后勤支持和侦察任务,减轻了士兵的负担。在海洋领域,水面和水下的自动船只在监视、地雷探测和反潜战中发挥着至关重要的作用。它们在敌对环境中工作,提供重要数据并维持战略存在。人工智能增强了它们的决策和数据处理能力,这对海上安全至关重要。 2. 网络安全 人工智能在网络安全领域的应用有多种技术,包括异常检测、预测分析和自动响应系统。美国国防部(DoD)已将人工智能纳入其网络安全行动,以加强对关键基础设施和敏感数据的保护。人工智能工具被用于持续监控网络、检测异常情况和实时应对网络事件,帮助抵御间谍活动和网络恐怖主义。其次,DARPA 的 “网络大挑战 ”旨在开发无需人工干预即可检测和修补软件漏洞的自主系统。这项计划展示了人工智能在自动化传统上由人类处理的网络安全任务方面的潜力。最后,以无人机监控应用而闻名的 Project Maven 也将人工智能用于网络安全。它利用机器学习算法分析大型数据集,识别潜在的安全威胁和漏洞。 3. 战斗模拟 战斗模拟是人工智能(AI)在军事行动中最重要的应用之一,为训练和作战准备提供了变革潜力。战斗模拟在军事战略规划和训练中发挥着至关重要的作用。美国军事分析人员可以通过模拟探索与伊朗、俄罗斯等国冲突的潜在结果,深入了解战略影响和后勤挑战,而无需承担现实世界的风险。这些模拟为测试各种战略和了解不同情景的后果提供了一个虚拟战场。美国陆军采用人工智能驱动的模拟软件来创建近似真实场景的虚拟作战环境,根据个人需求量身定制训练演习。Sentient Digital等公司正在开发先进的人工智能军事训练软件,利用强化学习提高战备水平。此外,生成式人工智能通过生成逼真的图像和自适应场景,提高了训练项目的真实性和挑战性,从而推动了军事模拟的发展。全球人工智能军事应用市场正在经历显著增长。根据 http://Market.us 的预测,人工智能军事市场预计将以 12.4% 的复合年增长率(CAGR)增长,从 2022 年的 79 亿美元增至 2032 年的 247 亿美元。 4. 情报、监视和侦察 情报、监视和侦察(ISR)是人工智能(AI)在军事领域的主要应用之一。人工智能驱动的 ISR(情报、监视和侦察)系统利用计算机视觉、机器学习和自主平台等先进技术来分析大量图像和视频数据。这些系统可提高目标识别、跟踪和物体识别能力。例如,人工智能可以处理包括社交媒体在内的各种来源的数据,以提高态势感知能力。在乌克兰战争中,人工智能工具协助翻译和分析截获的通信,这是现实世界中的一个显著应用。人工智能的使用加快了情报分析的速度,使军事人员能够专注于最关键的信息。在资金方面,人工智能在军事应用方面的投资也非常可观。美国国防部(DOD)正在大力资助人工智能研发,以保持技术优势。国防部 2024 财年的预算申请包括 18 亿美元用于人工智能和机器学习,以促进决策和增强无人系统。同样,中国也在大力投资人工智能,以在 2035 年前实现军事能力现代化。 5. 威胁评估 威胁评估领域的人工智能系统整合了来自卫星、传感器和情报报告等多个来源的大量数据,以提供实时态势感知和预测见解。基于人工智能的威胁评估系统通过整合来自卫星、传感器和其他情报来源的数据来提供全面的态势感知,从而加强军事行动。这些系统可实时检测异常情况和潜在威胁,从而实现快速反应,提高战备状态。自主监视系统,包括人工智能驱动的无人机和无人驾驶飞行器(UAV),可收集有关潜在威胁和敌方动向的实时情报。人工智能在国防和安全领域的市场正在迅速扩大,2023 年的估值估计为 106 亿美元,预计到 2023 年将达到 391 亿美元,年复合增长率为 9.5%。此外,人工智能对网络安全至关重要,因为它可以监控网络中的异常活动和潜在网络威胁,从而采取先发制人的措施来保护敏感信息和基础设施。严重依赖人工智能技术的全球网络安全市场在 2023 年的价值为 1904 亿美元,预计到 2028 年将增长到 2985 亿美元,复合年增长率为 9.4%。 6. 决策(战略和战术战斗管理) 人工智能(AI)正越来越多地融入军事行动,极大地增强了战略、作战和战术层面的决策过程。在战略层面,人工智能有助于分析复杂的数据集,找出模式和趋势,帮助快速应对威胁和制定长期计划。它可以模拟场景并预测结果,通过战争博弈等演习改进战略决策。在作战方面,人工智能通过处理卫星图像等来源的实时数据,优化后勤、管理供应链和协调部队行动。人工智能还能检测和应对威胁,保护军事通信和信息系统,从而加强网络安全。例如,麦肯锡公司强调,人工智能驱动的物流解决方案可将运营成本最多降低 15%,将交付效率提高 25%。以下是修订版,采用了更有条理的方法:在战术上,人工智能通过提供实时数据分析和威胁评估,为无人机操作和自动驾驶车辆导航等场景中的决策提供支持,从而发挥至关重要的作用。人工智能通过整合来自多个传感器的数据来提高态势感知能力,从而提供全面的战场视角。与此相关,特斯拉计划在 2024 年底前投资 10 亿美元建造 Dojo 超级计算机。这项投资是特斯拉推进自动驾驶能力的更广泛战略的一部分。总体而言,特斯拉对人工智能和自动驾驶的承诺是巨大的,计划到 2024 年底累计投资超过 100 亿美元。 7. 智能武器 智能武器利用人工智能提高军事行动的精确性、决策性和效率,减少人为干预,提高现代战争的整体效能。人工智能在智能武器中最显著的应用之一是美国国防部的 “Project Maven ”项目。它通过处理视频数据来提高目标识别能力和战场感知能力。2020 年,它成功识别并锁定了自由堡的一辆退役坦克,与 HIMARS 系统协调进行精确打击,展示了人工智能在实时战斗中的有效性。 8. 军事后勤 军事后勤涉及管理供应链、运输和维护,以保持部队装备精良、随时待命。人工智能在军事物流中的应用包括预测性维护,F-35 喷气式战斗机的自主物流信息系统(ALIS)等系统可预测和预防设备故障,从而减少停机时间和成本。人工智能还能通过实时数据分析和预测性洞察优化供应链管理,将资源分配和物流效率提高 20% 以上。人工智能驱动的云服务,如美国陆军与 IBM 合作使用的云服务,可简化数据处理和决策。此外,正在探索将人工智能驱动的无人驾驶车辆用于自主补给任务,以提高安全性并确保在恶劣条件下及时运送物资。美国国防部联合人工智能中心(JAIC)领导着人工智能在军事后勤领域的整合,重点关注可扩展的应用,以提高效率和效益。与此同时,埃德-戴利(Ed Daly)将军领导的陆军物资式指挥部正在将人工智能融入后勤,以提高及时性和效率,旨在为任务的成功提供与 “相关速度 ”相一致的支持。 9. 运输和伤员护理 运输和伤员护理是 2024 年人工智能(AI)在军事领域的首要应用之一。人工智能通过优化后勤、降低成本以及管理资源和部队的高效移动,大大加强了军事运输。它还有助于开发未来可用于军事用途的自动驾驶汽车。在伤员救护方面,人工智能通过分析医疗数据和提供治疗建议为医护人员提供支持,但由于人工智能在处理生死攸关的决策方面存在局限性,因此人工智能的监督仍然至关重要。在战斗伤员救护领域,创新的人工智能解决方案正在产生重大影响。由 Charles River Analytics 公司开发的自动化加固战斗伤员救护(ARC3)系统可协助医护人员诊断伤情、监控病人,并在无法立即撤离时提供治疗指导。该系统使医护人员能够在充满挑战的条件下做出明智的决定。同样,同样来自 Charles River Analytics 公司的 “战斗伤员救护集合预测”(EPIC3)移动应用程序利用机器学习预测危及生命的伤害,并通过用户友好的界面提供逐步治疗指导。EPIC3 根据用户的技能水平量身定制,可提高医护人员在危急情况下的决策能力。 10. 预测性维护 预测性维护是人工智能(AI)在军事行动中的重要应用,旨在提高军事装备和系统的可靠性和效率。预测性维护利用人工智能算法分析军事装备上安装的各种传感器的数据。这种分析有助于预测部件可能出现故障的时间,从而进行主动维护调度。德勤公司的一份报告提到,预测性维护可将生产率提高 25%,故障率降低 70%,维护成本降低 25%。美国政府问责局(GAO)指出,美国国防部(DoD)每年在维护方面的支出约为 900 亿美元,目前正在努力实施预测性维护,以提高战备状态并降低成本。
  • 2024-11-8 17:55
    96 次阅读|
    0 个评论
    艾迈斯欧司朗数字光,光领域的 “梦幻交响曲”
    数字光由成千上万乃至数百万个微小点光源(即像素)构成,能实现毫秒级的矩阵光输出动态重构。 在人类历史长河中,火焰一直是人们生成光源的主要方式。随着科技进步,人们发现灯泡内的金属元素在超高温下亦能发出有效光亮,然而这项技术后来又被LED所取代。 这些不同形式的光源存在一个共性:即它们均为单一光源,能够在广泛的照明范围内投射出相对均匀的光束。这也极大地限制了光束方向控制的灵活性。与传统光源相比,LED灯在光束控制上表现更优,但即便借助透镜或反射器,LED光束的调整仍旧受限。 得益于艾迈斯欧司朗在设计与制造领域的一系列革新,照明技术迎来了历史性的转折。研发人员成功开发出一种由极其微小的LED组成的光源阵列,其尺寸仅为人类发丝直径的十分之一。这一技术突破创造出全新的照明方式:它摒弃了传统的块状或光束状发光模式,采用由成千上万乃至数百万个微小点光源(即像素)构成的矩阵。每个点光源均由数字数据流精准控制,能实现毫秒级的矩阵光输出动态重构。 这一新型发光模式奠定了一种新概念的基础,我们称之为“数字光”。 图:高分辨率投影技术的运用使得智能照明能够提升我们日常生活的安全性 半导体技术的重大突破 这一构想最早可追溯至20年前:利用由微米级光点阵列构成的新型LED芯片,打造高分辨率投影光源。但要实现将传统平方毫米级LED芯片的半导体区域,细分为数千个仅有几微米大小的光像素矩阵,就需在基础物理学、半导体制造及材料科学等多个领域取得一系列的技术突破。 此外,艾迈斯欧司朗还研发出全新的芯片架构以及像素级键合技术,确保在单个集成器件内实现每个LED像素与其驱动器之间的连接。正是这些创新技术的融合,使得艾迈斯欧司朗成功实现了单片式微型LED阵列的构想(见下2图)。 图:点光源阵列:单片式微型LED芯片 图:一体化设计:即用型封装内集成超过25,600个独立光源 新型高性能投影头灯 采用微型LED阵列技术 目前,该技术已实现批量生产。艾迈斯欧司朗的首批LED像素阵列正被应用于一种创新型自适应远光灯(ADB)汽车头灯系统——EVIYOS®。汽车制造商成为EVIYOS®芯片的首批商业客户,他们正着手打造配备240x80像素独立可控LED像素阵列的先进头灯设计。此数字光技术的应用将对驾驶安全、夜间驾驶体验产生深远影响,并为驾驶员及其他道路使用者提供全新的信号指示方式。 逐像素数字化控制技术赋能头灯,实现永久远光模式的安全运行。借助摄像头捕捉对向车辆及路边行人等道路使用者的位置信息,EVIYOS®头灯可精准关闭造成眩光的像素点,同时确保最大照明范围,为驾驶员清晰照亮前方道路。系统以毫秒级速度动态调整像素控制,旨在实现最宽最远光束投射,且不影响其他道路使用者的视线。这一创新技术显著提升驾驶员的行车舒适度,为所有道路使用者筑牢安全防线(见下图)。 图:防眩光设计:提升整体安全性 EVIYOS® LED头灯还具备将信息投影至路面的功能。举例而言,微型LED头灯可投射指示线,明确标示出车辆即将占用的路面区域:前照灯能够提示驾驶员其车辆是否能通过狭窄空间,或在复杂路况(如临时道路施工区域)中为驾驶员提供行车指引。 透明显示屏与微型投影仪 重塑科技产品设计 数字光技术的潜力远不止于照明功能。例如,微型LED像素体积微小,足以嵌入透明显示屏中,同时仍能保持图像的清晰与锐利。这一透明显示技术的初步应用或可见于汽车后窗,用于向后方车辆展示信号与警示信息。 微型LED显示屏的透明度源于其微米级光点之间宽广的间距——在高分辨率电视中,RGB微型LED阵列所占的总显示面积可能低至0.5%。这些微型LED之间较大的间隙还为添加其他微观组件提供了空间,例如分布式摄像头或红外传感器,从而使其转变为具备手势感应、近距离检测等功能的多功能显示屏。 微型像素阵列,以其极小的像素尺寸,已然成为下一代增强现实(AR)和虚拟现实(VR)设备的核心组件。以智能眼镜为例,微型LED显示屏可作为微型投影仪嵌入设备中,以非侵入式的方式将AR信息叠加至用户的视野之中。概念验证研究显示,单个像素阵列可嵌入超过200万个可独立寻址的LED像素,且每个像素的边长仅约为1微米,从而为智能眼镜用户呈现出全高清分辨率的图像(见下图)。 图:展望未来:高清图像直现视野 除上述投影系统之外,数字光还在诸多其他应用中展现了全新价值。例如,3D打印机将能够实现超高精度固化,从而构建出更为精密复杂的结构。 在人工智能(AI)应用数据中心领域,数字光技术的运用有望显著提升高带宽光通信的效率。当前,高速光通信链路主要依靠高频切换的激光光源,通过光纤电缆传输串行数据流。而微型LED阵列技术——其中的LED像素尺寸比激光光源小数百倍——则展现出并行传输数据的巨大潜力。这一创新技术将大幅提升带宽效率,并助力降低高能耗数据中心的能源消耗。 光,无处不在,随心所想 开发由独立可寻址像素构成的光源,需要付出巨大的努力。在过去的十多年里,艾迈斯欧司朗与柏林的弗劳恩霍夫可靠性和微集成研究所(IZM)等工业合作伙伴携手并进,同时得益于政府和欧盟的资金支持,共同实现了这一技术突破。 实现灵活、数字化可寻址光源的愿景,也离不开一系列技术革新的累积。这一光学技术是完全创新的科研成果,其潜在应用前景尚待我们深入探索和想象。首个应用案例——自适应远光灯(ADB)系统,将彻底改变夜间驾驶体验。这只是微型LED阵列创造价值的开端,未来其应用潜力将更加广阔。 通过汇聚众多英才,并联合多方工业与科学力量,共同致力于实现重大技术突破,我们得以在工业、消费、汽车等多个市场领域的产品中开辟崭新视野。这一激动人心的成果,是艾迈斯欧司朗发展史上的又一新篇章。 作为一家历史悠久的企业,艾迈斯欧司朗在重要产品类别中屡创变革性进展:数字光技术,正是这一系列创新中的最新力作。 Norwin von Malm博士 艾迈斯欧司朗 新技术部高级总监 自2003年以来,Norwin在欧司朗(OSRAM)的研发部门历任多个岗位。他成功研发了热工艺、有机发光二极管(OLED)的材料堆叠,并开发出首款多像素InGaN和InGaAlP发光二极管(LED)。在担任LED芯片研究经理一职时,他从研发角度出发,推动了µAFS项目的实施。领导后端材料开发之后,Norwin目前掌管新技术部门。该部门专注于在科学界和初创企业界中探寻新的前端创意与技术理念,并对这些理念进行评估,以确认其是否适用于公司产品的未来发展。 Stefan Groetsch 艾迈斯欧司朗 系统解决方案工程部总监 Stefan目前担任欧司朗移动系统解决方案工程部的硬件/软件团队主管。自1995年起,他积累了丰富的职业经历,包括在应用领域担任高级首席工程师、EVIYOS®系统架构师、µAFS项目的FMER项目协调员,以及在视频投影和汽车头灯OSTAR功率LED及功率激光二极管方面担任应用工程师和研发项目及平台经理。
  • 2024-10-17 16:31
    0 个评论
    【哔哥哔特导读】全球数据中心的井喷式发展下,何种线缆能高效传输庞大的数据?有源电缆AEC能否成为高速互连技术新突破口?   2024年,我国发布了一系列关于数据中心的政策支持,不仅明确算力中心是国家人工智能产业的基础支撑,还对大规模计算集群、新型数据中心的技术要求和评估方法进行规范。   到2025年底,全国数据中心整体上架率将不低于60%,平均电能利用效率也将降至1.5以下。 ▲数据中心 图/包图网   在AI技术及制造业的升级下,全球云平台和企业数据中心流量大幅上升,数据中心需要处理大量数据的应用增多,对多GPU协同工作的集群需求上升。而大规模GPU集群的构建对线缆的性能也提出了更高的要求。 Credo作为全球领先的高速连接解决方案提供商,致力于为AI、数据中心等领域提供端到端的高速互联技术方案。 依托于独特的SerDes和DSP技术,Credo的光DSP产品以及AEC有源电缆在中国数据中心市场规模不断扩大。 01 | Credo推出新系列AEC,专为中国数据中心设计   人工智能、云计算技术的不断迭代催生出了超大规模数据中心的需求,应用于数据中心的AI服务器和交换机连接的线缆性能要求也在升级。尤其是在 信号密度、信号完整性、传输速率和功耗 等方面,高速互连线缆行业面临着新的挑战和机遇。   不少国内外厂商正积极响应这一趋势,通过技术创新和产品升级构建完整的高速互连方案,满足AI数据中心和高性能计算的需求。   在9月光博会期间,Credo进行了一场新品发布会,隆重推出了 专为中国超级数据中心市场量身打造的HiWire SHIFT AEC新系列产品,适用于400G Q112网络接口,能够满足AI/ML后端网络与TOR交换机之间的网络连接需求。   新系列HiWire SHIFT AEC包括以下产品:   ● 400G QSFP-112 (4x112) ⇄ 2* 200G QSFP-56   ● 400G QSFP-112 (4x112) ⇄ 2* 200G QSFP-112   ● 400G QSFP-112 (4x112) ⇄ QSFP-112 (4x112)   Credo有源电缆AEC覆盖 100G、200G、400G、800G和1.6T速率 ,且相比于传统的无源DAC甚至一些场景中的AOC,AEC具备低功耗、系统兼容性强、使用周期长、连接更可靠等优势。 低功耗: 一个400G的AEC的单端功率仅有5W,相比于400G的光模块,其功耗降低率达到了50%左右。 布线便捷: 传统的无源DAC高度依赖铜线介质,在长距离传输方面易因信号衰减问题而影响信号的完整性。并且当数据传输速率要达到400G以上时,DAC线缆会变得愈加粗重。 ▲复杂的服务器机架布线 图/包图网   相比之下,AEC在数据中心密集布线环境中便于布线,不易阻挡机架空气流,有利于散热和机架管理,减少信号干扰,且端头内置的DSP芯片能够快速转换传输速率。 高可靠性和长寿命: 相比于含有易受损光学组件的AOC,AEC有源电缆的使用周期更长,且可靠性高出100倍。   “AEC是一根铜缆,里面没有任何光学组件,但每端都放置了一个基于Credo自有铜DSP技术的Retimer,来负责端到端的信号传输。”Credo市场副总裁Chris Collins介绍道。   由于集成了Credo 基于DSP技术的Retimer, 有源电缆AEC在成本与功耗上相对AOC产品具有非常明显的优势 。根据实际使用测试数据,AEC的连接可靠性比光缆高出一到两个数量级。 02 | Credo光DSP产品,助力AI服务器高速互连 ▲服务器 图/包图网   在高速互联的场景中,连接形态及端口越来越多,如何搭建出一个完美的符合100G、200G、400G和800G互连传输速率的系统,对厂商来说是个不小的挑战。   作为市场上光DSP种类最齐全的公司之一,Credo的一整套光DSP支持50Gb/s至800Gb/s光收发器,包括:50G、100G、200G、400G和800G PAM4。   网卡和交换机普遍采用单通道50Gbps或100Gbps的架构。   基于单通道50G DSP架构,Credo开发了Seagull系列:   ● Seagull 152:广泛应用于服务器和交换机之间的连接   ● Seagull 252:支持分路连接,适用于交换机到交换机间、交换机下行到服务器间的连接   ● Seagull 452:常应用于AI网络中的交换机到交换机之间的连接,也可用于传统网络。   基于单通道100G DSP架构,Credo发布了Dove系列:   ● Dove 410和Dove 800没有集成驱动器   ● Dove 410D/Dove 800D集成 VCSEL驱动   ● Dove 411/Dove 801集成 EML 驱动   ● Dove 412/Dove 802集成硅光驱动器   此外,Credo还推出了 具有 Gearbox 功能, 支持单通道 50G 到单通道100G 速率变换的Dove480 ,支持正向和反向两种模式。   而针对线性接收光模块,Credo则推出了新的解决方案—— Dove 850 。作为市场上第一款针对LRO应用优化的 DSP产品,Dove 850 实现了800G光收发器的功耗低于10W,与使用完整DSP方案的800G光模块相比节省了40%左右的功耗。   为了更好地助力中国AI/ML网络发展,Credo 即将推出基于5nm工艺单通道100G DSP 产品, 明年推出基于3nm工艺的单通道200G 产品方案。 03 | 营收增长70%!产品赋能企业成功闯「中」   Credo财报显示,其 2025财年第一季度营收为 5970万美元,同比增长了70% ,GAAP毛利率为62.4%。 ▲Credo 2025财年第一季度财报 图/Credo官网   据悉,去年12月份,Credo还增发了股票业务,再次融资1.75亿美元。   作为刚在纳斯达克上市不到三年的企业,Credo的表现可谓亮眼。在美国以及中国市场对光电产品和AEC的强劲需求下,Credo不断升级其IP技术,以产品赋能企业发展。   面对中国强大的数据中心市场, Credo提供创新的芯片内部的封装互连、PCB板芯片间的连接、芯片到模组间的互联全套完整的高速连接方案,不断加码中国市场。 ▲Credo媒体交流会 图/Credo官方   Credo市场副总裁Chris Collins透露,Credo在上海、南京、武汉、香港和台湾均设有办公室,上海是研发中心。 相信在自研技术及有源电缆AEC等创新性高速互连产品的加持下,Credo能在算力及人工智能爆发期内中国市场迎来广阔的发展前景。 本文为哔哥哔特资讯原创文章,未经允许和授权,不得转载
  • 热度 3
    2024-7-10 22:12
    665 次阅读|
    7 个评论
      人类热议的话题,气候变化危及到人类存续,说来说去,到底是为什么呢?说法多啦!觉得就是人类活动和自然变化双因所致,看来,根本还是自然环境的变化,毕竟人类改变不了自然,不是说适者生存吗?神秘的是如何适?这就涉及到人为了,对气候变化适应的好,人类存续的时间就长,适的不好,人类存续的时间就短了。会是这样吗?不知道,骑毛驴看唱本走着瞧吧。也好奇,就聊聊。   今读报,见文《 今年或将成为有记录以来最热的一年 》   FT中文网 更新于2024年7月8日 12:37 阿特拉克塔•穆尼   看标题,第一联想道的这该不是最的后一年吧?   接着自问:地球表面气温上升是那一年开始的呢?   还是自然想到百度搜索看看,见CCTV央视网报道:《 研究:全球变暖始于180年前工业革命_新闻频道_央视网(cctv.com) 》 科技频道 来源: 环球网 2016年08月25日 14:35   开篇说到:人为造成气候变化早已不是什么新现象,但直到如今,科学家们都不能确定气候变化究竟是从何时开始的。据英国《每日邮报》8月24日报道,最新研究表明,陆地气温升高以及北半球热带海洋变暖始于180年前。就是工业革命开始到现在排放了大量的有害温室气体。   2016年到后180年是1836年, 19世纪30年代,人为造成地球表面气温开始上升了 。   难怪,接下来,人类一个劲地要减排啊减排,现在是2024年,8年啦!实现减排了多少呢?看来在做,似乎没有效果,否则干嘛要说:今年或将成为有记录以来最热的一年?明年接下来没有这么热了吗?怎做到呢?自然想到这些年来的去工业化行为。   百度搜索“去工业化”,显然并不容易,成要180年,去能不要180年吗?   更难为的是何为代价?百度搜索“去工业化的代价”   去工业化在多方面的体现,归根结底都是落实到人,这是万事之源,更是难解之最。   看题图,人类走投无路?够难了吧!   开篇提到的新闻《 今年或将成为有记录以来最热的一年 》配置的题图可见一斑,人的前方和左右都是峭壁与河流,无路可行,低头沉思,后退?   怎么办?咋退?   减排?使环境退回到工业化时代的气候环境,显然是不可能的。   一、人类已经造成的排放是收不回来的,靠宇宙自然降解?可行性?时长?   二、人人做到减排,可能吗?即使人人都做到了节约消费,最基本的人体自身必须的排放是不能无止境地减少,这看来就只有减少人口数量了,可能吗?有可能,却很难!   看历史,为什么人类永远有战争和瘟疫?不管怎么说法,看似无情,但最终结果都是人口减少了。   看智慧,我们是智人,科学和技术的发达,遏制了疾病,熄火了战争,人的寿命长了,这下可好,人口数量增加了,同时地球资源枯竭了。再这样下去,人类可持续生存麻烦大了!   于是乎,人类早早想到了工业自动化,用机器替换人的劳动,还得要符合人类生命周期的节律,欲速则不达。记得1986年我负责操作的一套全自动化生产线,十几个人能取代三百多人的手工作业的产量,领导一看,那哪成!于是决定八成的内销产品还是用手工生产。   到今天的人工智能,用软件替换人的脑力劳动了,旨在加快减少人口数量,最有效的作用就是人们不愿意生育子女了,这部分人正是“Z世代”(生于1995年至2010年之间)的一代年轻人。人口减少了,不就和以往战争的结果一个样?所以当下这是 AI战争 进行时,何时了?待到气候变化结束时?那气候变化何时了?看来人类好像早就是知道了的,用黄道十二宫说明留给了后人我们参照,如果是,接下来还是难解的问题,到底人类怎么办?难就难在意见不统一。   你说呢?你会用人工智能吗?   
  • 热度 7
    2024-5-23 15:24
    452 次阅读|
    0 个评论
    数据中心与云端存储新战力 – PCIe 5.0 SSD 随着人工智能(Artificial Intelligence, AI)和机器学习(Machine Learning, ML)爆炸性的应用如雨后春笋般的出现,代表着数据中心与储存服务器需要更高效能、更低延迟的高速传输需求,以应付海量数据运算存取,对储存容量、储存性能的需求空前高涨。 在市场上,我们也可以观察到PCIe 5.0接口逐渐在系统以及服务器上实际搭载应用,就接口规范数据来看,可以发现到PCIe 5.0的传输速率是前代PCIe 4.0的两倍,基于以上优点,市场上已经开始有厂商发表基于PCIe 5.0协议SSD,作为终端应用的厂商或服务器制造商怎么挑选可靠稳定高性能的SSD成为重大课题。 资料来源: https://pcisig.com/blog/evolution-pci-express-specification-its-sixth-generation-third-decade-and-still-going-strong PCIe 5.0 SSD应用风险与解决方案 验证高速PCIe 5.0 SSD对各家厂商是一个重大挑战。若未经过验证便应用在系统甚至服务器上运作,对追求稳定效率的服务器来说便是一颗不定时炸弹,轻则传输效能低落不符合规格预期,让用户感觉响应延迟;严重地更会发生耐久度不佳、发生当机的风险。 如何确保挑选的SSD可靠稳定高效能? 针对PCIe 5.0 SSD验证平台- SANBlaze RM5支持热插入和PCIe 5.0 的16个插槽的企业级NVMe测试设备,该系统具有独特的模块设计,可对应U.2/U.3、M.2以及时下服务器新架构开始导入的EDSFF链接接口的SSD。从下图可以看出,不论是何种接口、PCIe 3.0~5.0,皆能在SANBlaze RM5平台上进行验证测试服务。 从下列表格可以了解到除了基本的 I/ O command、Performance测试以外,更可以执行UNH/IOL 相关NVMe以及MI验证。当然近期服务器规范新宠儿,OCP验证 1.0以及2.0版皆能提供相关服务。随着未来版本演进,未来OCP 2.5验证部分一旦发布也能及时提供验证服务。
相关资源
  • 所需E币: 0
    时间: 2024-5-24 17:08
    大小: 2.93KB
    一、PyQT的概念PyQt是一个创建PythonGUI应用程序的工具包,是Qt和Python结合的一个产物,可以说是为了将Qt的功能用于Python开发的一个Qt的Python包装器。它是Python编程语言和Qt库的成功融合。PyQt的整个程序开发框架,主要包括如下部分:图形界面编辑的工具:QtDesigner不同部分信息交换机制:信号和槽界面操作的事件及捕获机制一套控制界面显示和数据存储分离以及映射的机制:Model/View架构通过这些重要的工具和框架机制,开发人员可以设计对应的GUI图形化界面、定义不同部件的操作及响应、捕获部件或应用的消息以及实现界面显示组件和数据存储组件的联动,从而构造完整的应用程序框架。PyQt实现了一个Python模块集。它有超过300类,将近6000个函数和方法。它是一个多平台的工具包,可以运行在所有主要操作系统上,包括UNIX,Windows和Mac。PyQt采用双许可证,开发人员可以选择GPL和商业许可。在此之前,GPL的版本只能用在Unix上,从PyQt的版本4开始,GPL许可证可用于所有支持的平台。二、OpenCVOpenCV项目最初由Intel于1999年启动,当时的目标是提供一个免费的计算机视觉库,并开放其源代码,以促进计算机视觉研究的发展。随后,OpenCV在2000年发布了第一个公开版本,从那时起,OpenCV迅速成为了计算机视觉领域最受欢迎的库之一。后来,OpenCV的开发由WillowGarage公司继续,随后由Itseez公司接管,直到今天,OpenCV的开发由OpenCV开发团队维护。核心功能和模块:OpenCV库包含了众多的模块,每个模块都提供了不同的功能,以下是一些核心的模块:2.1核心功能模块(CoreModule)这个模块提供了基本的数据结构和功能,包括图像数据类型、矩阵操作、文件IO等。图像操作:读取和保存图像:可以使用imread()函数读取图像文件,使用imwrite()函数保存图像到文件。图像属性访问:可以通过Mat对象的属性访问功能获取图像的尺寸、通道数、数据类型等信息。像素操作:可以直接访问和修改图像的像素值,或者使用像素迭代器遍历图像。图像通道操作:可以将多通道图像拆分成单通道图像,或者将单通道图像合并成多通道图像。创建矩阵:可以使用Mat类的构造函数或create()函数创建矩阵。矩阵运算:支持常见的矩阵运算,如加法、减法、乘法等。矩阵转换:可以对矩阵进行转置、仿射变换、透视变换等操作。2.2图像处理模块(ImageProcessingModule)OpenCV的图像处理模块提供了各种图像处理算法,包括图像滤波、边缘检测、图像变换等。这些算法可以帮助用户对图像进行预处理、增强、分析和特征提取等操作。下面是图像处理模块中常用的功能和算法:图像滤波(ImageFiltering):平滑滤波(SmoothingFilters):如均值滤波、高斯滤波、中值滤波等,用于去除图像中的噪声。锐化滤波(SharpeningFilters):如拉普拉斯滤波器、Sobel滤波器等,用于增强图像的边缘和细节。图像变换(ImageTransformations):几何变换(GeometricTransformations):如平移、旋转、缩放、仿射变换等,用于调整图像的尺寸和位置。透视变换(PerspectiveTransformation):用于校正图像中的透视失真。边缘检测(EdgeDetection):Sobel算子:Sobel算子通常用于灰度图像的边缘检测,其基本思想是利用图像中像素灰度值的变化情况来识别边缘。Sobel算子在水平和垂直方向上分别定义了两个卷积核(通常为3x3的矩阵),用于计算图像中每个像素点的水平和垂直方向的梯度值。Canny边缘检测:首先,对输入图像进行高斯滤波,以减少图像中的噪声。高斯滤波可以平滑图像,并模糊图像中的细节,从而有助于检测到真实的边缘。在经过高斯滤波的图像上,利用Sobel算子或其他梯度算子计算图像的梯度幅值和梯度方向。梯度方向可以帮助确定边缘的方向。对图像中的梯度幅值进行非极大值抑制,保留局部梯度幅值最大的像素点,以使得边缘变得更细化。利用双阈值检测策略对梯度幅值进行阈值处理,将图像中的像素点分为强边缘、弱边缘和非边缘三类。通常设置两个阈值,一个是高阈值(highthreshold),用于确定强边缘像素;另一个是低阈值(lowthreshold),用于确定弱边缘像素。通过连接强边缘像素,利用弱边缘像素进行边缘跟踪,得到完整的边缘。三、人工智能应用人工智能在生活中的应用有:1、虚拟个人助理,使用者可通过声控、文字输入的方式,来完成一些日常生活的小事;2、语音评测,利用云计算技术,将自动口语评测服务放在云端,并开放api接口供客户远程使用;3、无人汽车,主要依靠车内的以计算机系统为主的智能驾驶仪来实现无人驾驶的目标;4、天气预测,通过手机gprs系统,定位到用户所处的位置,在利用算法,对覆盖全国的雷达图进行数据分析并预测。
  • 所需E币: 5
    时间: 2024-3-13 13:47
    大小: 1.45MB
    上传者: 美格智能
    大模型作为人工智能发展脉络中的里程碑,引发了新一轮的科技创新浪潮其以强大的计算能力和深度学习技术,极大地提高了内容生产效率,促进内容生产方式颠覆式变革。各行各业纷纷布局大模型应用,把握智能化发展的机遇。然而,大模型也面临隐私泄露、侵犯第三方权益以及违背伦理等潜在风险,引发了社会各界的关注和担忧。随着大模型的广泛应用,加快完善大模型的立法监管以确保大模型的应用与发展符合伦理道德和社会价值观,推动人工智能科技的健康发展变得迫在眉睫。世界上主要国家和地区均着手并加快完善大模型相关的法律监管。例如,欧盟以《人工智能法案》为核心,结合大模型可能涉及的其他领域的立法,逐步建立起专项法案为主、现存法规为辅的人工智能法律监管框架;美国对于人工智能大模型的立法较为分散,各州分别各自推进人工智能立法,联邦政府则试图在现有的立法框架及监管规则内对大模型及人工智能进行规制,但同时,人工智能相关的联邦专项立法提案也在推进当中。我国围绕网络安全、数据安全、个人信息保护等重点领域制定了法律法规,并及时跟进人工智能技术创新发展态势,先后针对互联网信息推荐、生成式人工智能等技术领域出台了管理办法,建立了法律法规和标准规范相协调的人工智能监管制度体系。
  • 所需E币: 0
    时间: 2024-1-30 15:29
    大小: 2.32KB
    今天抽空跟大家讨论一下关于成为AI人工智能算法工程师的条件是什么?众所周知,AI人工智能是当前最热门的技术之一,那么需要掌握哪些技术才能胜任这一职位呢?我们今天就来唠一唠。算法工程师是一个很高端的岗位,要求有很高的数学水平和逻辑思维能力,需要学习高等数学、离散数学Q、线性代数、数据结构和计算机等课程。专业要求:计算机、通信、数学、电子等相关专业。学历要求:本科及其以上学历,大多数都是硕士及其以上学历。语言要求:英语要求熟练,基本上可以阅读国外相关的专业书刊。另外,还必须要掌握计算机相关的知识,能够熟练使用仿真工具MATLAB等,必须要掌握一门编程语言。那算法工程师到底具体需要哪些知识第一个:肯定就是数学和统计学数学和统计学是算法工程师必备的基础知识,要掌握线性代数、概率论、统计学等知识,才能理解和应用各种机器学习算法和模型。第二个:数据结构和算法数据结构和算法是算法工程师必备的知识,需要熟练掌握各种数据结构和算法,如数组、链表、树、图、排序、查找、动态规划等,以便能够设计和实现高效的算法。第三个:编程语言和工具算法工程师需要熟练掌握至少一门编程语言,如Python、C++等,并熟悉常用的开发工具和框架,如Git、JupyterNotebook、PyTorch等。第四个:深度学习深度学习是机器学习的一个子集,常见的深度学习算法包括受限波尔兹曼机、DeepBeliefNetworks、卷积网络、堆栈式自动编码器等。第五个:算法基础算法工程师需要掌握算法基础,包括线性代数、概率论与数理统计、数据结构、算法分析与设计等方面的知识。当然还有很多,在此就不一一列举,主要分为4个部分:数学基础、编程能力、算法基础、实战。接下来,我们聊聊大家最关心的薪资这块。算法岗位薪资方面:在前几年,算法岗的薪资确实是比开发岗要高很多,可以称之为红利期。但最近几年,算法和开发岗有趋于拉平的意思,但是相对来说,同级情况下,算法岗还是要高1~2k的样子。领域分类:算法岗位的方向还是很多的,一方面是按技术领域,可以划分为计算视觉(CV),自然语言处理(NLP),AIGC,语音算法等等。另一方面是按行业领域,分成气象、交通、工业。。。等等等等。方向不一样,技术栈相差非常大了。优缺点在薪资方面,算法打赢开发。在难度方面,算法打赢开发。在工作强度方面,开发打赢算法。在岗位数量方面,开发打赢算法。在职业周期长度方面,算法打赢开发。(这也是一些焦虑状态下的程序员对算法岗动心的原因)在职业发展上限方面,算法打赢开发。最后我们来谈谈十大基础算法都有哪些。一、选择排序过程简单描述:首先,找到数组中最小的那个元素,其次,将它和数组的第一个元素交换位置(如果第一个元素就是最小元素那么它就和自己交换)。其次,在剩下的元素中找到最小的元素,将它与数组的第二个元素交换位置。如此往复,直到将整个数组排序。这种方法我们称之为选择排序。二、插入排序我们在玩打牌的时候,你是怎么整理那些牌的呢?一种简单的方法就是一张一张的来,将每一张牌插入到其他已经有序的牌中的适当位置。当我们给无序数组做排序的时候,为了要插入元素,我们需要腾出空间,将其余所有元素在插入之前都向右移动一位,这种算法我们称之为插入排序。三、冒泡排序1、把第一个元素与第二个元素比较,如果第一个比第二个大,则交换他们的位置。接着继续比较第二个与第三个元素,如果第二个比第三个大,则交换他们的位置….四、希尔排序五、归并排序六、快速排序七、计数排序八、桶排序九、基数排序十、堆排序
  • 所需E币: 0
    时间: 2024-1-30 12:04
    大小: 2.79KB
    上传者: 开心就很好了
    今天给大家讲讲关于AI,打通视觉,NLP,机器学习,深度学习,推荐搜索,AIGC,大模型等等这些当下最热门技术,我将从以下9个方面给大家做详细讲解关于AI人工智能算法工程师的相关知识。阶段一:从AI全面认知到基础夯实-行业认知&Python&必备数学阶段二:从AI核心技术理论体系构建到项目实战:机器学习&深度学习阶段三:构建AI的数据驱动力--数据预处理工程阶段四:AI深度学习框架实战-Pytorch从基础到进阶阶段五:AI核心算法+方法——经典深度学习模型实战阶段六:AI计算机视觉核心技术与项目实战-工业&医疗与直播&自动驾驶等主流领域阶段七:AIGC火热领域技术与项目-文本图像生成&扩散模型等阶段八:NLP自然语言处理与LLM大语言模型应用实战阶段九:AI工程师入行&转化&就业&面试指导首先,我们先来说说什么是人工智能:人工智能(ArtificialIntelligence),简称为AI,是一门集多学科于一体的综合性技术科学。它的核心目的是创造出能够模拟人类思维能力的机器,使其具备感知、思考和决策的能力。自然语言处理(NaturalLanguageProcessing,简称NLP)是计算机科学和人工智能领域的一个重要分支。它的核心目标是让计算机能够理解和生成人类自然语言,这包括了文本、语音等多种形式的人类语言输入输出。机器学习是一门人工智能的科学,其核心在于计算机通过对数据的学习和经验积累来自动提升性能。深度学习是机器学习的一个子领域,它受到人类大脑神经网络的启发,旨在模拟人类的学习过程。生成式人工智能——AIGC(ArtificialIntelligenceGeneratedContent),是指基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。大模型是指包含超大规模参数(通常在十亿个以上)的神经网络模型。接下来,我们讲解环境的安装配置:安装CPU版本PyTorch#创建PyTorch环境condacreate-ntorch2python==3.10#进入环境condaactivatetorch2#安装cpu版本pytorchpipinstalltorch==2.0.0torchvision==0.15.1torchaudio==2.0.1--index-urlhttps://download.pytorch.org/whl/cpu验证CPU版是否安装成功importtorchprint(torch.__version__)print(torch.cuda.is_available())输出2.0.0+cpuFalseTensor存储的数值Tensor可以用多种方法进行初始化。下面给出例子:直接传数据Tensor可以直接从数据进行创建,数据类型会自动适应。importtorchdata=[[1,2],[3,4]]x_data=torch.tensor(data)print(x_data)使用Numpy数据可以通过Numpy矩阵中进行创建importtorchimportnumpyasnpnp_array=np.array([[1,2],           [3,4]])x_np=torch.from_numpy(np_array)print(x_np)利用已有tensor根据已有的数据形式(形状,数据类型),创建出新的tensorimporttorchdata=[[1,2],[3,4]]x_data=torch.tensor(data)#保持了x_data的数据属性与形状x_ones=torch.ones_like(x_data) print(f"OnesTensor:\n{x_ones}\n")#保持x_data的形状,重新定义x_data的数据属性x_rand=torch.rand_like(x_data,dtype=torch.float) print(f"RandomTensor:\n{x_rand}\n")最后到案例部分:案例1:导入两个列表到Dataset举一个例子,fromtorch.utils.dataimportDataset,DataLoaderclassMyDataset(Dataset):#继承自Dataset  def__init__(self,):#定义数据集包含了什么东西    self.x=[iforiinrange(10)]    self.y=[2*iforiinrange(10)]  def__len__(self):#返回数据集的总长度    returnlen(self.x)  def__getitem__(self,idx):#当数据集被读取时,需要返回的数据    returnself.x[idx],self.y[idx]my_dataset=MyDataset()my_dataloader=DataLoader(my_dataset)forx_i,y_iinmy_dataloader:  print("x_i=",x_i,"y_i=",y_i)输出x_i= tensor([0]) y_i= tensor([0])x_i= tensor([1]) y_i= tensor([2])x_i= tensor([2]) y_i= tensor([4])x_i= tensor([3]) y_i= tensor([6])x_i= tensor([4]) y_i= tensor([8])x_i= tensor([5]) y_i= tensor([10])x_i= tensor([6]) y_i= tensor([12])x_i= tensor([7]) y_i= tensor([14])x_i= tensor([8]) y_i= tensor([16])x_i= tensor([9]) y_i= tensor([18])案例2:导入Excel数据到Dataset中dataset只是一个类,因此数据可以从外部导入,我们也可以在dataset中规定数据在返回时进行更多的操作,数据在返回时也不一定是有两个。fromtorch.utils.dataimportDataset,DataLoaderimportpandasaspdclassMyDataset(Dataset):#继承自Dataset  def__init__(self,data_loc):#定义数据集包含了什么东西    data=pd.read_excel(data_loc)    self.x1,self.x2,self.x3,self.x4,self.y=data['x1'],data['x2'],data['x3'],data['x4'],data['y']  def__len__(self):#返回数据集的总长度    returnlen(self.x1)  def__getitem__(self,idx):#当数据集被读取时,需要返回的数据    returnself.x1[idx],self.x2[idx],self.x3[idx],self.x4[idx],self.y[idx]if__name__=='__main__':  data_loc="模仿数据读取.xlsx"  my_dataset=MyDataset(data_loc)  my_dataloader=DataLoader(my_dataset,batch_size=2)  forx1_i,x2_i,x3_i,x4_i,y_iinmy_dataloader:    print(f"x1_i={x1_i},x2_i={x2_i},x3_i={x3_i},x4_i={x4_i},y_i={y_i}")
  • 所需E币: 5
    时间: 2023-5-28 11:59
    大小: 6.05MB
    上传者: 木头1233
    基于python人工智能算法的五官识别设计资料
  • 所需E币: 1
    时间: 2023-5-9 14:31
    大小: 50.34MB
    智慧的疆界:从图灵机到人工智能-周志明
  • 所需E币: 1
    时间: 2023-5-9 09:55
    大小: 80.81MB
    人工智能伦理-于江生
  • 所需E币: 1
    时间: 2023-4-25 15:01
    大小: 2.2MB
    人工智能十万个为什么
  • 所需E币: 1
    时间: 2023-4-25 15:04
    大小: 3.17MB
    2019中国医疗人工智能市场研究报告(亿欧智库)
  • 所需E币: 1
    时间: 2023-4-25 15:05
    大小: 3.13MB
    2019年人工智能发展白皮书(中科院大数据挖掘与知识管理重点实验室)
  • 所需E币: 1
    时间: 2023-4-27 10:36
    大小: 11.5MB
    人工智能:国家人工智能战略行动抓手-腾讯研究院-中国信通院互联网法律研究中心-2017(epub格式,附阅读器安装程序)
  • 所需E币: 1
    时间: 2023-4-27 10:36
    大小: 8.79MB
    人工智能简史-刘韩-人民邮电出版社(epub格式,附阅读器安装程序)
  • 所需E币: 1
    时间: 2023-4-26 09:46
    大小: 129.46MB
    人工智能导论(第4版)-王万良-高等教育出版社
  • 所需E币: 1
    时间: 2023-4-26 09:46
    大小: 132.01MB
    TensorFlow+Keras深度学习人工智能实践应用-林大贵-清华大学出版社
  • 所需E币: 1
    时间: 2023-4-18 11:33
    大小: 200.19MB
    TensorFlow+Keras深度学习人工智能实践应用-林大贵
  • 所需E币: 1
    时间: 2023-4-19 09:39
    大小: 98.99MB
    无所不能:从逻辑运算到人工智能,计算机科学趣史-[英]DernmotTuring
  • 所需E币: 1
    时间: 2023-4-19 10:42
    大小: 22.69MB
    人工智能哲学-[英]MargaretA.Boden
  • 所需E币: 1
    时间: 2023-4-20 10:45
    大小: 137.56MB
    科学的极致:漫谈人工智能-(图灵原创)-集智俱乐部
  • 所需E币: 0
    时间: 2023-4-24 16:21
    大小: 72.35MB
    人工智能伦理-于江生-清华大学出版社(epub格式,附阅读器安装程序)
  • 所需E币: 1
    时间: 2023-4-14 08:06
    大小: 4.75MB
    上传者: Jpower
    大学教材,介绍了人工智能的相关的基础知识