tag 标签: ai

相关博文
  • 2025-4-2 13:05
    75 次阅读|
    0 个评论
    新一代AI低代码MES,助力企业数字化升级
    随着DeepSeek低成本AI模型的火热,对于传统的MES而言,在这场AI的盛宴中,该如何去调整产品的定位,让MES更符合工业企业的需求呢? 工业互联网、AI、数字孪生等技术加速与MES融合,实现生产全流程的实时监控与智能优化。 云MES和边缘计算普及,降低部署成本,支持分布式生产管理(如多工厂协同)。 一、技术突破点 1. 智能低代码平台 - 可视化拖拽+AI辅助开发(如自动生成表单/工作流) - 预置300+工业组件库(SPC看板、设备接口等) - 模型驱动架构(MDA)实现需求自动映射 2. 嵌入式AI能力 - 实时质量检测:计算机视觉+深度学习(缺陷识别准确率>98%) - 动态排产优化:强化学习算法响应异常事件速度提升40% - 设备预测性维护:LSTM神经网络预测故障提前72小时 二、MES(制造执行系统)的具体功能模块详解 1. 工单动态调度 - 智能排产:基于遗传算法实时优化生产顺序(考虑设备状态/紧急插单) - 拖拽式甘特图调整,自动冲突检测 - 插单影响模拟(AI预测交付延迟概率) 2. 过程追溯体系 - 全维度追溯:物料批次→工艺参数→操作人员→环境数据 - 区块链存证关键质量数据(低代码配置存证规则) - 缺陷根因分析(AI关联SPC数据与工艺日志) 3. 实时绩效监控 - 设备OEE自动计算(AI识别停机真实原因) - 电子作业指导书(AR可视化叠加,低代码更新内容) - 人员效能看板(动作分析算法识别效率瓶颈) 4. 智能检验系统 - AI视觉检测(支持小样本迁移学习) - 检验计划自动生成(根据BOM关键特性) - 质量数据预测(LSTM预警潜在偏差) 5.异常处理流程 - 自动触发8D报告(低代码表单引擎) - 相似缺陷案例推荐(NLP知识库检索) - 遏制措施模拟(数字孪生验证效果) 6.精准物料配送 - AGV调度集成(低代码配置路径规则) - 齐套率预测(ML分析历史缺料规律) - 智能货架(RFID+视觉双校验) 7.设备全生命周期管理 - 振动/温度多传感分析(边缘AI实时计算) - 维修知识图谱(自然语言生成维修建议) - 备件需求预测(关联设备故障模型) 8.系统集成能力 - PLC数据采集(预置200+设备驱动) - ERP工单同步(低代码字段映射) - SCADA报警联动(规则引擎配置) 万界星空科技AI低代码MES系统以其强大的功能与显著的应用效果,为制造业企业提供了全新的生产管理解决方案。通过引入该系统,企业可以提升生产效率、降低生产成本、提高管理水平与竞争力,实现可持续发展。
  • 2025-3-27 11:14
    56 次阅读|
    0 个评论
    AI低代码MES:制造业从“制造”到“智造”
    低代码开发平台可以大大简化软件开发的过程,无需编写繁杂的代码,只需通过拖拽组件和配置参数即可实现系统的开发。利用低代码开发平台,制造企业可以快速搭建MES系统,并对系统进行灵活的定制和扩展,满足不同企业的特殊需求。 万界星空科技AI低代码MES 的开发过程中,充分融合了人工智能技术和低代码开发平台的优势。通过低代码技术,企业可以快速搭建起符合自身需求的MES系统,大大缩短了开发周期,降低了开发成本。同时,AI技术的应用使得MES系统具备了更强大的智能分析和决策能力,能够自动调整生产计划、预测设备故障等,从而进一步提升企业的智能化水平。 ​1. 核心概念 ​MES系统:传统MES是位于企业ERP(上层计划)与车间设备控制层之间的管理系统,负责生产调度、过程监控、质量管理、设备管理、数据采集等,确保生产透明化和高效执行。 ​低代码开发:通过可视化界面、拖拽组件和预置模板,让用户无需编写大量代码即可快速开发应用,缩短开发周期并降低技术依赖。 ​AI集成:将机器学习、自然语言处理、计算机视觉等AI技术嵌入MES功能中,实现数据分析、预测优化和智能决策。 ​2. AI低代码MES的核心功能: ​(1) 生产过程管理 ​可视化排程:通过AI算法优化生产计划,动态调整工单优先级,减少设备空闲时间。 ​实时监控:利用物联网(IoT)设备采集生产线数据,通过低代码仪表盘实时展示生产状态。 ​异常报警:AI自动检测设备故障、工艺偏差或质量问题,并触发预警。 ​(2) 质量控制 ​AI质检:基于计算机视觉或传感器数据,自动识别产品缺陷(如外观瑕疵、尺寸偏差)。 ​根因分析:通过机器学习分析质量问题的根本原因(如设备参数异常、原材料批次问题)。 ​(3) 设备维护 ​预测性维护:AI分析设备运行数据(振动、温度等),预测故障并推荐维护时间。 ​OEE(设备综合效率)优化:低代码配置设备效率指标,AI自动生成维护建议。 ​(4) 数据分析与决策 ​智能报表:低代码生成生产KPI报表(如良率、能耗、交期达成率),AI辅助数据洞察。 ​数字孪生:构建产线虚拟模型,通过AI模拟优化工艺流程。 ​(5) 柔性生产 ​快速换型:低代码配置支持多品种、小批量生产需求,AI辅助调整参数。 ​物料追溯:结合区块链或RFID,实现从原材料到成品的全链路追踪。 ​3. AI低代码MES的优势 ​快速部署:低代码平台减少开发时间(通常几周内即可上线),AI模型可基于现有数据快速训练。 ​低成本:无需专业IT团队,业务人员也能参与系统搭建;AI功能通过云服务或预置模块降低成本。 ​灵活性:适应多变的制造场景(如新产品线、工艺变更),低代码支持快速迭代。 ​智能化:AI提供预测性分析、自主决策能力,传统MES依赖人工经验的问题得到改善。 ​4. 典型应用场景 ​汽车制造:AI质检替代人工目检,低代码配置适应不同车型生产线。 ​电子装配:实时监控SMT贴片机的良率,预测设备故障。 ​医药生产:通过低代码配置GMP合规流程,AI追踪批次数据确保合规性。 ​食品饮料:AI视觉检测包装缺陷,低代码管理复杂的配方工艺。 AI低代码MES系统通过技术融合,解决了传统MES开发周期长、成本高、灵活性差的问题,同时赋予制造企业智能化能力。其核心价值在于降低技术门槛、加速数字化转型、提升生产韧性,尤其适合中小型制造企业快速响应市场变化。未来,随着AI算法的优化和低代码工具的普及,这一模式将成为智能制造的重要推动力。
  • 2025-3-26 14:22
    0 个评论
    AI+低代码:企业数字化转型的双引擎
    在数字化转型浪潮中,企业对定制化应用的需求激增,但传统开发模式面临技术门槛高、成本高、周期长的困境。AI低代码平台的出现,正在打破这一僵局——它让业务人员无需编码能力,仅通过可视化界面和AI辅助,即可快速构建企业级应用,甚至赋予系统自学习、自优化的“智慧大脑”。 一、什么是AI低代码平台? AI低代码平台是低代码开发(Low-Code Development)与人工智能(AI)深度融合的产物,其核心特征包括: 1. 可视化开发:通过拖拽组件、配置参数完成应用搭建,替代传统代码编写。 2. AI增强能力:集成自然语言处理(NLP)、机器学习(ML)等技术,实现需求自动解析、代码生成、数据洞察等功能。 3. 全生命周期管理:从设计、调试到部署、迭代,全程支持智能化辅助。 AI低代码平台的核心价值 1. 效率飞跃 • 开发周期缩短70%以上:传统需要数周的应用,现在几天甚至几小时即可上线。 • 降低技术依赖:业务部门自主完成80%的标准化功能开发,IT团队聚焦复杂系统整合。 2. 成本革命 • 减少专业开发人员投入,人力成本降低50%-80%。 • 支持SaaS化订阅模式,企业按需付费,避免重资产投入。 3. 敏捷创新 • 快速响应市场变化:营销活动页、临时审批流程等业务需求可即时落地。 • 数据驱动决策:内置AI分析模块,实时生成可视化报表并预测趋势(如销售峰值预警)。 三、挑战与未来趋势 1、当前挑战: • 技术成熟度:复杂算法(如深度学习)的集成仍需专业支持。 • 数据安全:企业敏感数据在低代码平台中的权限管理需严格把控。 • 人才转型:业务人员需掌握基础建模逻辑,IT团队需学习AI辅助工具。 2、未来趋势: 更强大的AIGC(AI生成内容)能力:从界面设计到业务逻辑,AI实现“零代码”生成。 云边端一体化:结合边缘计算,在本地设备快速部署轻量化AI应用。 行业垂直化深耕:针对制造业、医疗、金融等领域推出场景化模板库。 伦理与合规:AI决策透明化,满足GDPR等数据隐私法规要求。 AI低代码平台不仅是工具革新,更是企业数字化转型的思维革命——它让“人人都是开发者”成为可能,同时将AI的“智慧”注入每个业务环节。随着技术的成熟,未来将有更多企业通过这一平台,在效率、创新与成本之间找到最佳平衡点。 万界星空科技低代码开发平台,支持企业对于MES进行二次开发的,从从而打破传统系统固件的局限,利于企业的可持续性发展。项目合作私信联系我们。
  • 2025-3-22 21:05
    180 次阅读|
    0 个评论
    中国力量卡位人形机器人军备竞赛
    人形机器人产业节奏预估:2024年原型机元年,2025年小规模量产元年。 当宇树科技H1人形机器人以灵动的手部动作在春晚舞台上演创意融合舞蹈《秧Bot》,舞出"中国智造"时,电视机前十几亿观众第一次深刻意识到: 那个需要仰望波士顿动力的时代正在落幕。 *图源:宇树科技 短短数周后,宇树G1机器人又用一段丝滑的街舞在网络收割亿级播放量,钢铁之躯跳出赛博朋克的浪漫。2月11日,宇树科技在其京东官方旗舰店上架了两款人形机器人产品,型号分别为Unitree H1和G1。2月12日,9.9万元的G1人形机器人首批销售订单就已售罄。中国的人形机器人军团,正在以"中国速度"刷新世界认知。 而DeepSeek R1模型的横空出世,更在科技圈投下震撼弹,性能逼近OpenAI o1正式版,推理成本却仅为OpenAI o1的几十分之一,在帮助中国的AI发展摆脱“算力焦虑”后,更将为中国人形机器人领域在“大脑”的竞赛中撕开一道口子。 这场硅基生命的迅猛发展,或许正在启示我们:在2025年乃至往后的人类文明进程中,并非由单一力量所定义,而是多元因素共同塑造的结果。 1 来自摩根士丹利的肯定 近日,国际知名投行摩根士丹利发布了一份关于全球人形机器人产业的深度报告——《The Humanoid 100: Mapping the Humanoid Robot Value Chain》(人形机器人100:绘制人形机器人价值链图谱), 首次梳理了全球人形机器人产业链百强上市公司名单(其中中国占据35家), 并认为这些公司将在全球人形机器人产业生态中发挥重要作用。 此外,摩根士丹利认为,人形机器人将成为未来十年科技投资的最大主题之一,估计人形机器人潜在的市场总规模(TAM)可达60万亿美元。 *图源:摩根士丹利 在报告中摩根士丹利还表示,中国在人形机器人领域取得的进展仍然最令人瞩目,初创企业将受益于成熟的供应链、本地应用机会和政策的大力支持。 预计到2050年,中国的人形机器人市场规模将达到6万亿元,人形机器人总量达到5900万台。 同时,摩根士丹利将全球人形机器人产业链上的公司划分为 大脑、身体、集成 三大类别。 *图源:摩根士丹利 2 三大类别的实力分析 人形机器人的"大脑"主要由半导体和软件组成,其中最关键的是用于自主性的基础生成式AI模型,以及用于训练的仿真模型和数字孪生技术。在摩根士丹利的报告中, 全球有22家"大脑"公司进入 ,包括我们熟知的英伟达、微软、谷歌、Meta、三星等科技巨头,以及Arm、新思科技等芯片设计公司,也有美光、海力士等存储芯片龙头,以及提供AI基础模型的百度、提供视觉芯片的地平线以及助力半导体代工业务的台积电等等。 而在“身体”方面,共包含64家公司, 涵盖传感器、电池、电机、减速器等硬件。中国力量占主导地位,具备更为完备的零部件供应链。 聚焦到人形机器人传感器产业链,报告将它主要分为雷达激光雷达、图像视觉传感器、磁传感器、力触觉传感器四块。 雷达激光雷达版块中,速腾聚创赫然在列。在盖世汽车研究院公布的2024年1~11月激光雷达装机量排行榜中,速腾聚创以45.6万套装机量占据了34.7%的市场份额,稳居行业第一,充分说明了其技术的成熟度和产业化能力。 去年4月份的北京车展上,速腾聚创也首次展示了最新的MX激光雷达(如下图所示)。 这一产品正是融合艾迈斯欧司朗成熟的EEL SPL系列边发射激光器(EEL)技术,这款发射器技术不仅为激光雷达提供了高精度的激光输出,更能赋予汽车和机器人超越视觉的感知能力。 据悉,作为全球领先的LiDAR光源方案供应商,艾迈斯欧司朗也是速腾聚创紧密的合作伙伴, 速腾聚创现有的多个系列激光雷达均搭载了艾迈斯欧司朗的激光器,赋能面向自动驾驶、ADAS、机器人等多领域激光雷达解决方案 ,二者也致力于合力推动激光雷达技术的进步和产业化发展。 在CMOS图像传感器领域,艾迈斯欧司朗早有“出圈之作”。 把时间拉回到2021年4月19日,美国国家航空航天局(NASA)宣布,“机智号”无人直升机成功完成火星首飞,并完成3米高度悬停30秒的高难度动作。 人造航空器首次在另一个行星上受控飞行的精彩表现,通过距此约76米外的“毅力号”探测器传回地球。值得一提的是,“毅力号”火星车搭载的23台相机中, 有10台采用了艾迈斯欧司朗的CMV系列CMOS图像传感器。 上图的全景图片正是毅力号上搭载艾迈斯欧司朗CMV系列图像传感器的导航相机拍摄,由6张单独的图像在传回地球后拼接而成。 艾迈斯欧司朗在图像传感器领域也依赖不同的产品矩阵,打出了差异化的应用赋能思路——CMV系列、CSG系列以及Mira系列均为全局曝光型面阵图像传感器,其余Dragster和4LS为线阵图像传感器。 以Mira系列为例,在全图像分辨率下,它的最大帧速率为120fps,此外Mira系列具有量子效率QE近红外增强功能,例如Mira220在很多2D或3D传感系统使用的940nm近红外波长下具有高信噪比和高量子效率,最高可达38%;Mira050在940nm波长时的量子效率为36%。搭配艾迈斯欧司朗高效率红外光源,Mira系列更将降低整个系统功耗。 将于今年上半年量产的Mira016这颗产品,更是在暗噪声方面相比前两代产品做了不少优化,因此,它在暗光环境下,同样可以得到较好的图像质量。同时,满井电荷(FWC)的性能提升,也使得它可以在使用中获得更广的动态范围。如果大家对这颗料有兴趣,也可以扫描下方二维码去申请Mira016样片来测试。 乘势新能源汽车发展之风而起的位置传感器,更将在人形机器人领域收获更多机会。 艾迈斯欧司朗磁性位置传感器高达20,000A/m的抗干扰能力,相比市面其他产品几乎带来20倍的性能优势 ,它极强的抗外部磁场干扰的能力结合创新的封装选择使得在高性能应用市场带来突破口。 新能源汽车之外,机器人特别是人形机器人正在成为极具前景的发力点。 特别需要指出的是,中国在“身体”层面的主导地位,并不单单是指“能造出来”,而是“制造-规模-成本”正向循环的加速进化逻辑。 从宏观来看,据市场监管总局消息,截至2024年12月底,全国共有45.17万家智能机器人产业企业。企业数量较2020年底增长206.73%,较2023年底增长19.39%。庞大的入局规模,使得中国在人形机器人产业中具备“足不出户”即可链接产业上下游的优势,这种优势将大幅缩短人形机器人厂商的研发周期。 更为深层的影响是,物理距离的拉进,将形成产业上下游的共建效应,拉动产业链上下游合力共探零部件的优劣势,共同攻关迭代,“集群效应”的优势将在2025年乃至其后的数年中更多显现。 艾迈斯欧司朗在去年8月就已正式启动中国发展中心(China Development Center,CDC),它隶属于艾迈斯欧司朗集团CMOS、传感器和ASIC (CSA)事业部,旨在推动大中华区的业务增长和技术创新。 在全球经济增速放缓和国际形势复杂多变的背景下,中国市场依然保持了稳定的增长势态,并释放出强大的创新潜能,比如人形机器人、新能源汽车、AI等,参与到这片创新热潮,以自身技术优势赋能创新发展,更将创新普惠全球正是艾迈斯欧司朗CDC未来工作的核心。 3 量产元年是否到来? 事实上,在“大脑”和“身体”构建之后,人形机器人产业从技术验证转向商业闭环所需要的关键一跃,就是量产。 在摩根士丹利的报告中,“集成”类别有22家企业,其中,中国占据10 家席位。人形机器人集成商拥有 研发完整人形机器人 的能力,参与者主要有 四类 ,分别是 汽车公司、消费电子公司、电商和互联网公司、传统机器人制造商 。 而在摩根士丹利列觉的目前全球知名的16款人形机器人产品中, 有 6 款由中国企业研发。 *图源:摩根士丹利 其中实现人形机器人量产的企业均来自中国,分别是 智元机器人、傅利叶智能、优必选、宇树科技。 但业界也表示,量产这个词放在汽车产业里,一般是指万台起步,但人形机器人貌似还没哪家做了1万台,而且现在亟待解决的问题并不是制造能力,而是应用需求。 因此,大家认为关于量产更为靠谱的观点是,2025年可能是会有一些小规模量产,但到不了大规模的地步。 比如在一些细分场景会真正有一些小批量的落地,这是基本可以预见的。但这距离真正我们所预期的大规模量产还有距离。毕竟大家所说的大规模量产,本质上还是有大规模的商业化应用的落地带来的量产。 工业是人形机器人商业化的试验场。 我们已经看到宇树科技人形机器人H1开始在蔚来汽车工厂尝试参与工作;Figure 01已经进入宝马工厂实训;优必选人形机器人Walker S已经先后走进比亚迪、蔚来、东风柳汽、极氪等汽车工厂“打工”;智元机器人的人形机器人远征A1也在汽车工厂完成了底盘装配和外观质检等任务…… 但未来随着人形机器人的性能提升和成本降低,工业制造只是其一,物流、医疗保健、教育和娱乐等行业都将获得显著受益。 就在昨天,人形机器人领域又有了新进展,世界上第一个双足肌肉骨骼机器人Clone再次更新。短短几个月,这家来自波兰的人形机器人创业公司 Clone Robotics 就首次攻克了仿生学界最困难的部分,做出了真实的人体下肢结构。 其实,仿生机器人也是人形机器人研究中的重要一脉,它们以自然为师,通过柔性材料的伸缩运动,不仅能实现更自然流畅的动作,还能在与环境的互动中展现出惊人的适应性。 网友都戏称“这个机器人确实是用来帮忙做家务的”。你看,人形机器人“扭进寻常百姓家”已经不是遥不可及的事了。
  • 热度 1
    2025-3-3 18:03
    134 次阅读|
    0 个评论
    作为全球领先的AIoT模组及解决方案提供商,广和通26年来始终致力于为全球千行百业打造创新物联方式。面向全新的AI时代,广和通推出「AI For X」,宣布以全方位、多方式的AI技术能力、产品、行业解决方案、生态融合助力多行业从“互联万物”向“智联万物”跃迁。 广和通为「AI For X」赋予独特标识,并为其注入清晰的价值主张与内涵。后续,「AI For X」将应用于广和通AI系列发声,讲述如何以AI重塑千行百业。 技术融合:从“通信管道”到“智能基座”范式革命 传统通信模组的价值局限于“连接”,而「AI For X」重新定义了广和通的角色——将通信能力与AI算力深度融合,打造软硬一体的智能基座。在硬件上,通过OpenCPU架构,将无线通信模组及解决方案升级为“主控+连接+算力”三合一平台,替代传统“MCU+模组”的冗余设计。在软件升维上,基于多操作系统和多芯片平台,广和通模组及方案可支持Fibocom AI Stack,实现从模型云端连接到端侧部署推理的全流程闭环。广和通打破了“连接与计算分离”,让每个通信节点都成为智能决策的起点。 产品重构:重新定义AI模组及解决方案 面向更广泛的行业AI应用,广和通积极推动DeepSeek、ChatGPT等优质模型在高、中、低算力AI模组及解决方案部署,提供不同参数模型服务,进一步降低端侧AI的门槛,并优化成本,帮助客户快速增强终端AI推理能力,赋能更广泛的物联网设备实现AI化。在这其中,面向消费电子、智慧零售、车联网、工业级/消费级机器人等场景,广和通均推出相应的行业解决方案,重新定义AI模组及方案。 场景赋能:千行百业的“最小可用AI单元” “X”不仅是千行百业的象征,更代表了广和通精准赋能产业的思路——通过模块化AI能力及产品组合,为不同场景提供“刚好够用”的AI。如高算力解决方案支持多传感器融合,时延达到毫秒级,满足智能机器人、智能驾驶等场景需求。中低算力解决方案搭载端侧轻量化模型,功耗更低,续航更长,使AI更加普惠化。 生态共建:AI的“乐高式创新” “AI For X”的目标是构建开放化、标准化、可复制的AI生态,帮助客户一键部署AI。广和通解决方案兼容不同芯片平台,降低客户部署AI的成本,客户可更专注于业务逻辑与市场开拓。再者,客户可将自研模型与广和通模型仓中的预训练模型自由组合,最大化行业AI价值,解决行业痛点。模组及解决方案还可与AI功能订阅结合以拓展商业模式,帮助客户创新市场。广和通利用多样化的AI生态,在数据增值、成本结构、收入延展等多方面,与客户共建AI生态圈。 专注产业的AI未来 「AI For X」源于广和通对AI产业痛点的精准洞察和破局。广和通将AI深度融入自身技术及产品方案,以云端、纯端侧及端云融合的方式优化客户终端成本、整合各场景碎片化需求,携手客户重建各行业AI价值。基于「AI For X」,广和通有信心帮助客户实现AI焕新,专注产业AI未来。
相关资源
  • 所需E币: 0
    时间: 2025-3-14 15:26
    大小: 2.84KB
    上传者: huangyasir1990
    一、什么是SpringAI?SpringAI是Spring生态中应用于人工智能领域的应用框架,它的目标是将Spring生态系统的设计原则(如可移植性、模块化设计)应用于AI领域,并在AI领域中推广使用POJO(PlainOldJavaObjects)作为应用的构建模块。二、SpringAI能做什么?支持目前主流大语言模型平台,例如OpenAI、Microsoft、Amazon、Google和Huggingface;支持阻塞与流式的文本对话;支持图像生成(当前仅限OpenAI的dall-e-*模型和SD);支持嵌入模型;支持LLM生成的内容转为POJO;支持主流的向量数据库或平台:AzureVectorSearch,Chroma,Milvus,Neo4j,PostgreSQL/PGVector,PineCone,Qdrant,Redis和Weaviate支持函数调用支持自动装配和启动器(与SpringBoot完美集成);提供用于数据处理工程的ETL框架;三、主要功能 跨AI供应商的便携式API:支持聊天、文生图、嵌入模型;支持同步和流式API选项;访问特定模型功能。●支持几乎所有的ai模型提供商:如如Anthropic、OpenAI、Microsoft、Amazon、Google和Ollama,包括国内的千帆、智谱AI等●结构化输出:将AI模型输出映射为POJO;●支持所有主要向量数据库。●功能调用(Tools/FunctionCalling):工具/功能调用-允许模型请求执行客户端工具和功能,从而根据需要访问必要的实时信息。●可观测●springboot自动装配●支持聊天对话记忆和检索增强生成(RAG)四、DeepSeek介绍DeepSeek是国内顶尖AI团队「深度求索」开发的多模态大模型,具备数学推理、代码生成等深度能力,堪称"AI界的六边形战士"。DeepSeek最新版本R1采用了“思维链”技术,能够展示完整的推理过程,使其在复杂推理任务上表现出色,甚至在某些方面可以与OpenAI的O1模型相媲美。DeepSeek身上的标签有很多,其中最具代表性的标签有以下两个:低成本(不挑硬件、开源、使用简单无需复杂提示词)。高性能(推理能力极强、回答准确)。五、接入的意义与优势将DeepSeek接入Spring应用,意味着开发者可以将强大的AI能力快速融入现有的Java项目中,而无需从头开始构建复杂的AI系统。这不仅提高了开发效率,还能为用户提供更智能的交互体验。DeepSeek可以作为推理型助手集成到SpringAI中,提升业务流程。尽管它不是智能体的首选,但它在推理和数据分析上的强大能力依然可以为您的系统增添显著价值。可以通过在SpringAI中接入DeepSeek的API,实现与DeepSeek的交互。例如,使用DeepSeekSDK的依赖,配置DeepSeek的API密钥和其他相关参数,创建服务类用于与DeepSeekAPI进行交互,以及创建控制器层处理HTTP请求并调用服务层的方法优势低成本:DeepSeek是开源且易用的,硬件要求宽松,无需繁琐的提示词配置。高性能:推理速度快、回答准确,适合各类高要求任务。无缝集成:通过SpringAI,DeepSeek可以无缝集成到Spring应用中,开发者可以利用熟悉的Spring生态进行开发。灵活性:支持多种配置方式,开发者可以根据自己的需求调整生成参数。受益人群开发者:能够快速将AI功能集成到现有项目中,提升开发效率。企业:可以利用DeepSeek的强大能力优化业务流程,提升用户体验。数据科学家:能够通过SpringAI的统一接口,快速验证和部署AI模型。六、具体接入方法添加依赖在pom.xml中添加SpringAI的spring-ai-openai模块依赖:xml复制<dependency>  <groupId>org.springframework.ai</groupId>  <artifactId>spring-ai-openai</artifactId>  <version>0.8.0</version></dependency>配置DeepSeekAPI在application.properties或application.yml中配置DeepSeek的API密钥和端点:spring: ai:  openai:   base-url:https://api.deepseek.com/v1   api-key:your-deepseek-api-key   chat.options:    model:deepseek-chat创建SpringAI客户端创建一个服务类,注入OpenAiClient并调用DeepSeek:importorg.springframework.ai.client.AiClient;importorg.springframework.beans.factory.annotation.Autowired;importorg.springframework.stereotype.Service; @ServicepublicclassDeepSeekService{  privatefinalAiClientaiClient;   @Autowired  publicDeepSeekService(AiClientaiClient){    this.aiClient=aiClient;  }   publicStringcallDeepSeek(Stringprompt){    returnaiClient.generate(prompt);  }}创建REST控制器创建一个控制器,用于接收用户输入并调用DeepSeek服务
  • 所需E币: 0
    时间: 2025-3-4 13:49
    大小: 3KB
    上传者: huangyasir1990
    一、什么是RAGRAG即“检索增强生成”(RetrievalAugmentedGeneration),这项技术通过将大量外部数据与基础模型相结合,显著增强了语言模型(LLM)的能力,使得AI的回应更加真实、个性化和可靠。RAG技术的核心在于结合了检索(Retrieval)和生成(Generation)两大核心技术。在处理复杂的查询和生成任务时,RAG首先通过检索模块从大量数据中找到与查询最相关的信息,然后生成模块会利用这些检索到的信息来构建回答或生成文本。自2020年提出以来,从最初的朴素RAG(NaiveRag),到高级RAG(AdvanceRag),再到模块化RAG(ModularRag),RAG系统不断优化和迭代,以解决实际应用中遇到的问题,如索引环节中的核心知识淹没问题、「检索环节中的用户意图理解不准确问题」,以及生成环节中的冗余信息干扰问题等二、GraphRAG框架的关键组件查询处理器(QueryProcessor):负责预处理用户定义的查询,使其能够与图数据源进行交互。检索器(Retriever):根据预处理后的查询从图数据源中检索相关内容。组织者(Organizer):对检索到的内容进行整理和优化,以提高生成器的性能。生成器(Generator):根据组织后的信息生成最终答案。三、企业大规模落地RAG核心问题经过了很长时间对RAG的研发,总结出了企业RAG落地的关键点,分别是效果、性能和成本。效果:今天很多企业并没有大规模的落地RAG,或者说是在一些关键场景上没有去使用RAG,是因为企业担心用了以后,会因为效果问题,影响他们核心场景的业务。所以效果问题是现在RAG落地最关键的因素。性能:在RAG链路里很多环节是需要使用大模型的,比如说向量化、文档解析,最后大模型的生成、大模型Agent等。这样整个链路多次调用大模型,会导致离线和在线性能都会有不同程度的下降。比如说像GraphRAG,一个30K的文档需要将近1个小时时间才能把数据处理好,这样的话很难在一个生产环境中去落地。成本:相对于其他的应用来说,RAG应用需要去多次调用大模型,而大模型背后就是GPU,但GPU资源是紧缺和昂贵的,这就不可避免的导致这类应用比其他应用的成本高很多,所以很多客户无法接受这个成本。四、RAG优化效果—数据提取和解析首先在效果层面,离线链路里第一个优化点就是文档解析。文档有很多格式,比如说PDF、Word、PPT,等等,还有一些结构化数据。然而最大的难点还是一些非结构化的文档,因为里面会有不同的内容。比如说像表格、图片,这些内容AI其实是很难理解的。在通过长期大量的优化以后,我们在搜索开放平台里面提供了文档解析服务,支持各种各样常见的文档格式和内容的解析。五、RAG优化效果—文本切片文档解析完,从文档里面能够正确的提取出内容后,接下来就可以进行文本切片。切片有很多种方法,最常见的有层次切分,把段落提取出来,对段落里面的内容再进行段落级的切片;还有多粒度切分,有时除了段落的切片,还可以增加单句的切片。这两种切片都是最常用的。另外对于一些场景,我们还可以进行基于大模型的语义切片,就是把文档的结构用大模型处理一遍,然后再提取一些更精细的文档结构。那么经过了多种切片以后,我们就可以继续进行向量化了。六、RAG评估纯检索指标精准率(Precision):衡量信号与噪音的比例——检索到的相关文档/所有检索到的文档。召回率(Recall):衡量完整性——检索到的相关文档/所有相关文档。我们认为召回率是检索领域的北极星指标。这是因为只有当我们有足够的信心,相信检索到的上下文完整到足以回答问题时,检索系统对于生成任务来说才是可接受的。F1分数:精确率和召回率的调和平均值。检索&重排指标平均倒数排名(MeanReciprocalRank,MRR):MRR计算的是最相关文档的倒数排名的平均值。如果正确答案的排名是高的(即排名接近第一位),则倒数值会大。MRR值的范围是0到1,值越高表示检索系统性能越好。平均精确率均值(MeanAveragePrecision,MAP):MAP首先计算每个查询的平均精确率,然后对所有查询的平均精确率进行平均。这里的“精确率”是指在每个排名阶段检索到的相关文档数量占到目前为止所有检索到的文档数量的比例。MAP考虑了所有相关文档,并且对检索结果的排序非常敏感,值越高,表示检索系统的排名性能越好。归一化折损累计增益(NormalizedDiscountedCumulativeGain,NDCG):NDCG倾向于赋予排在前面的相关文档更高的权重,是一种位置敏感的度量方法。NDCG先计算一个未经归一化的折扣累积增益(DiscountedCumulativeGain,DCG),然后用这个值除以一个理想状态(即最佳排名顺序)下的DCG,从而得到归一化的值。NDCG的值范围在0到1之间,越接近1表示检索性能越佳,特别是在前面几个结果的质量方面。
  • 所需E币: 0
    时间: 2024-11-27 14:07
    大小: 3.25KB
    上传者: huangyasir1990
    一、ChatGLM定义ChatGLM是由清华技术成果转化的公司智谱AI发布的开源的、支持中英双语问答的对话语言模型系列,并针对中文进行了优化,该模型基于GeneralLanguageModel(GLM)架构构建,ChatGLM是一款基于人工智能技术的智能聊天机器人,它具备强大的自然语言处理能力,能够理解和回答我们的问题,通过与ChatGLM的对话,我们可以轻松获取各种信息,解决生活中的疑惑,甚至寻求专业建议,ChatGLM的出现,让我们在获取信息、解决问题上更加高效便捷。二、发展历程早期对话系统:最初的对话系统基于规则和模板,能够回答特定的问题或执行简单的任务。统计模型:随后,统计机器学习方法被用于对话系统,使得模型能够处理更多样化的输入。神经网络:深度学习的兴起带来了基于神经网络的对话系统,这些系统能够生成更自然的回答。预训练语言模型:BERT、GPT等预训练语言模型的出现极大地提升了对话系统的性能。专门化的聊天模型:随着技术的进步,出现了专门为聊天设计的模型,如Meena、DialoGPT、ChatGLM等。三、ChatGLM3-6B模型私有化部署ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于GeneralLanguageModel(GLM)架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62亿参数的ChatGLM-6B已经能生成相当符合人类偏好的回答。四、AI数字人技术开发的几个关键趋势和进展:B端市场扩大:数字人的制造和运营服务市场正不断扩大,从传统的电影动画领域向广告营销、电商直播、虚拟偶像等多个领域扩展。未来,数字人有望为更广泛的C端用户提供服务。技术迭代:技术的不断迭代推动了数字人在外形上更接近真人,制作效能得到提升。这包括建模技术、物理仿真算法、渲染引擎和GPU算力的提升,以及动捕技术的优化。AI赋能:AI技术是数字人发展的重要推动力,它使得数字人能够进行多模态交互,更神似人。AI技术的应用不仅限于交互,还覆盖了数字人的全流程,包括视频生成、建模、动作捕捉等。融合发展:数字人技术与SLAM、3D交互、体积视频、空间音频等技术的深度融合,预示着渲染技术将从本地转移到云端,为数字人提供更强大的支持。行业应用:数字人将成为人机交互的新入口,应用场景广泛,从简单的信息服务到复杂的情感交流,数字人都能提供更好的用户体验。UGC模式:随着技术门槛和成本的降低,用户生成内容(UGC)的数字人将加速出现,成为产业的增量空间。显示设备:虽然数字人主要以2D显示设备为主,但3D显示设备如AR/VR眼镜等,将在特定领域提供新的解决方案。在场感:数字人发展的高级阶段将与应用场景深度耦合,提供更真实的沉浸感和更大的价值。艺术与技术双轮驱动:北京等地区有望成为数字人产业的新高地,艺术和技术的结合将推动数字人产业的发展。合规性:随着数字人产业的发展,版权保护和行业合规体系的建设也变得尤为重要,以确保数字人的可用性、可靠性、可知性和可控性。五、数字人技术开发的关键组成部分通常包括:人物建模:使用3D建模软件创建数字人的外形,包括面部特征、身体结构等。动作捕捉:通过捕捉真人的动作数据,将其映射到数字人模型上,使其能够做出逼真的动作。语音合成:将文本转换为口语,使用TTS技术让数字人能够“说话”。面部表情生成:利用AI算法生成逼真的面部表情和嘴型,以匹配其语音输出。动画生成:通过编程或AI算法生成数字人的动作和姿态变化。交互能力:集成NLP技术,使数字人能够理解用户的输入并做出适当的反应。个性化:允许用户根据个人喜好定制数字人的外观和行为。实时渲染:使用游戏引擎或其他实时渲染技术,使数字人能够在视频或直播中实时显示。云计算和边缘计算:提供必要的计算资源,支持数字人的高度复杂计算需求。API和SDK:为开发者提供工具和接口,以便他们可以创建自己的数字人应用。六、虚拟数字人的基本组成一个完整的AI虚拟数字人通常包括以下几个部分:视觉模型:3D模型或2D动画,用于展示虚拟人的外观。语音合成:将文本转换为语音,使虚拟人能够发声。自然语言处理(NLP):理解用户输入并生成相应的回应。动作驱动:根据语音和情绪驱动虚拟人的面部表情和肢体动作。七、语音合成与识别使用第三方API进行语音合成可以使用诸如GoogleText-to-Speech、AmazonPolly或微软AzureTTS等成熟的语音合成API。以下是一个使用Python调用GoogleTTS的示例:importopenaiopenai.api_key='your_api_key'defchat_with_gpt(prompt):  response=openai.Completion.create(   engine="davinci",   prompt=prompt,   max_tokens=150  )  returnresponse.choices[0].text.strip()user_input="你好,你是谁?"response=chat_with_gpt(user_input)print("AI:",response)
  • 所需E币: 0
    时间: 2024-11-4 08:59
    大小: 3.33KB
    上传者: huangyasir1990
    继ChatGPT之后,AI绘图网站Midjourney也已经火出圈了。鉴于其强大的绘图能力和极低的使用门槛,Midjourney已经在事实上被各行各业的人作为辅助工具了,更重要的是,它绝对是一个非常理想的学习AI技术的引路人。AI绘画主要分为两个部分,一个是对图像的分析与判断,即“学习”,一个是对图像的处理和还原,即“输出”。人工智能通过对数以万计的图像及绘画作品进行不断学习,如今已经达到只需输入清晰且易懂的文字tag,即可在很短的时间内得到一张效果不错的画面。对使用者没有任何绘画功底需求,甚至还能根据要求对画面风格进行精细的改变调整。最近大热的midjourney的出现,着实让设计圈发生了一次大地震,这款AI绘图软件不仅可以秒出图,而且无需任何绘画基础,只要在对话框内输入关键词用来描述目标图片,发送后ai会自动读取和理解并基于这串关键词设计生成效果图、效果图的细腻程度绝堪比专业高级手绘设计师。你是不是也想来体验一下ai绘画,首先我们简单了解一下midjourney基本的使用法。首先midjourney是需要注册之后才能使用的,可以加入测试版进行体验。注册登录成功后会进入主页面。最左侧的是导航栏,各个频道的入口都在这里,我们要记得选择midjourney这个频道。选择完midjourney这个频道之后右侧会出现频道下属的各个聊天室,我们要选择newbies开头的新手房间,选择完新手房间之后可以在聊天窗口看到大家和AI的各种对话记录。一、Midjourney介绍Midjourney是领先的文本到图像人工智能生成器-它将您的文本提示转换为图像。目前,它只能通过Discord获得,但我们预计很快就会发布移动应用程序和用于图像生成的独立网站。您可以通过与Midjourney机器人的私人消息或邀请Midjourney机器人到您自己的服务器来在MidjourneyDiscord中生成图像。使用Midjourney生成图像非常简单:1.键入/imagineprompt:,然后输入您的文本提示。2.将生成一个包含4个备用图像的图像网格。二、快速上手指南步骤1、使用Midjourney首先需要创建Discord账号,Midjourney和Discord的关系就像小程序和微信的关系一样。但需要准备一个梯子。2、注册Discord账号,Discord有网页版和APP客户端两种类型,官网注册或下载APP安装。3、注册后登录Discord,然后进入Midjourney官网,进入官网后,点击SignIn,点击后会自动跳转至Discord,并进入Midjourney服务器。4、进入Midjourney频道,随便选择一个频道栏#Newbies,进入新手测试频道。三、实操应用首先,我们需要输入/imagine命令。然后点击上方/imagine(prompt),因为只有在这个命令下,输入文字描述,才可以被Midjourney判定为我们要进行一次图片训练。当输入/imagine后,我们就可以添加描述图片的词语,比如下图中,我们向Midjourney描述,我们需要这样的一张图。当输入完成后,我们就可以将这些词语发送给Midjourney(Afemalerobot,frontviewshotVerynice,technostyle,lotsoflines,richdetailsDarkbackground,3Drendering,Blender,C4D,8k)如果这个结果我们并不满意,那么我们可以在这个生成图片基础上,通过执行某些操作,继续进行训练,u1-u4为单独放大图片(顺时针),v1-v4为继续延展重新以当前图片风格进行延展(顺时针)直到生成满意的图片效果为止。当我们使用U型按钮,执行图片放大操作后,midjourney就会认为,我们对当前的图片效果比较满意,然后会出现一个新的选项“MakeVariations”,当我们点击后将重新创建出基于当前图片和风格相近的4张新图(为了让新用户更好掌握这一流程,默认remix处于关闭状态)。四、新手怎么学Midjourney?新手要学Midjourney就像小菜鸟要学会飞一样,虽然一开始有点晕头转向,但别怕!首先,你得把Midjourney当成一个神秘的魔法盒子,充满了惊喜和未知。别被那些复杂的参数和指令吓到,就当是在跟一个有点调皮但很有趣的小精灵打交道。然后,大胆地去尝试输入各种奇怪、有趣甚至荒诞的关键词和描述,就像给小精灵下达疯狂的任务。哪怕出来的结果让你哭笑不得,那也是超级有趣的“意外惊喜”,正好让你知道哪些不能这么干。还有哦,别忘了多去看看别人的作品,就像在魔法学院里偷看学长学姐们的优秀魔法成果,偷师学艺嘛!学习Midjourney可别太严肃,要像玩游戏一样,轻松愉快,不怕犯错,说不定哪天你就突然发现自己已经是个Midjourney大师啦五、Midjourney的基本用法MJ的工作模式就是从自然语言描述中生成图像,官方叫法是「Prompt」,中文译作「提示词」,AIGC圈内也称作「咒语」,因为大家把AI制图的过程戏称为魔法,提示词也自然就是咒语了。具体操作也非常简单,Discord社区是完全公开的,只要@机器人,输入“/image”指令即可使用MJ绘图,绘制完成的图片和提示词会直接显示在公共社群里。当然如果觉得公共区太乱,也可以在Discord上单独开通服务器,邀请MJ机器人入驻你的个人服务器,在里面单独做画,也可以邀请好友一起来。理论上所有通过MJ进行的创作都会被公开,如果想设置私密模式那就需要氪金。
  • 所需E币: 0
    时间: 2024-9-23 13:34
    大小: 3.17KB
    上传者: huangyasir1990
    随着人工智能的不断发展,AI绘画技术也逐渐得到了广泛的应用和推广,很多人不知道如何进行AI绘画,其实非常AI绘画是非常简单的。今天就给大家分享一些AI绘画相关的功能,包括AI绘画tag生成器和简单好用的AI绘画工具,两者组合使用就能生成一些精致的图片,对于AI绘画小白也非常友好!一、AI绘画的历史AI绘画的出现时间可能比很多人想象的要早.计算机是上世纪60年代出现的,而就在70年代,一位艺术家,哈罗德·科恩HaroldCohen(画家,加利福尼亚大学圣地亚哥分校的教授)就开始打造电脑程序"AARON"进行绘画创作.只是和当下AI绘画输出数字作品有所不同,AARON是真的去控制一个机械臂来作画的.Harold对AARON的改进一直持续了几十年,直到他离世.在80年代的时候,ARRON"掌握"了三维物体的绘制;90年代时,AARON能够使用多种颜色进行绘画,据称直到今天,ARRON仍然在创作.不过,AARON的代码没有开源,所以其作画的细节无从知晓,但可以猜测,ARRON只是以一种复杂的编程方式描述了作者Harold本人对绘画的理解--这也是为什么ARRON经过几十年的学习迭代,最后仍然只能产生色彩艳丽的抽象派风格画作,这正是HaroldCohen本人的抽象色彩绘画风格.Harold用了几十年时间,把自己对艺术的理解和表现方式通过程序指导机械臂呈现在了画布上.二、AI绘画能取代绘画师吗?我认为AI绘图工具可以辅助设计师进行图像制作,但不可能完全取代设计师的角色。以下是我对这个问题的一些看法:技术的局限性:目前的AI绘图工具虽然可以完成一些简单的图像制作,但是在处理复杂的设计任务和艺术创作方面仍然存在局限。设计师可以通过自己的专业知识和创意来解决这些问题,而AI绘图工具则需要更多的技术研究和进步才能够实现。设计师的创造力:设计师不仅需要具备绘画技能,还需要具备独特的创造力和审美眼光。这些都是AI绘图工具无法取代的,因为它们是人类独有的思维和能力。人性化的设计:设计师可以更好地理解人类的需求和心理,创作出符合人性化的设计作品。而AI绘图工具则缺乏这种人性化的思考和理解,难以产生具备情感和人性化的设计作品。AI绘图工具可以在一定程度上辅助设计师进行图像制作,但是在创造力、人性化的设计和技术局限性等方面仍然存在一些问题。设计师可以通过不断学习和提升自己的专业能力,与AI绘图工具共同发挥各自的优势,为用户创造更好的设计作品。三、AI绘画工具有哪些你知道吗?1、MidjourneyMidjourney是一个独立的研究实验室开发的人工智能程序,它能够根据文本提示生成图像。优点:易于上手,模型生成质量高,尤其是自然语言理解能力强,界面设计简洁明了,适合初学者,并且是基于Discord社区机器人,使用便捷。缺点:需要梯子、会员付费,生成图片的不稳定性和不可控性。2、StableDiffusionStableDiffusion是一种深度学习模型,主要用于文本到图像的生成。在图像生成领域,StableDiffusion可以通过学习大量图像数据集的分布,从而能够生成新的、逼真的图像。优点:开源免费、可商用、支持多平台部署、生成图片可控度高、插件众多。缺点:本地计算机配置需求高、安装包较大、学习门槛略高于其他AI绘图工具。3、文心一格这也是国内最知名的AI绘画工具之一啦,除了可以进行AI画图的曹邹外,也可以进行各种类型的图片处理操作,可以说非常适合绘画师和设计师的一款工具啦,包括AI抠图、图片拓展和一键消除等功能,都是俺经常会用到的。 4、DeepAI不用注册就能使用?没错,这也是一款完全免费开源的AI绘画、视频、音频和对话工具,个人觉得油画和素描的生成效果也相当不错,基础功能足以满足大部分的图片绘制需求,非常适合国内的朋友哦~5、LiblibAI国内的在线版SD,可以直接在线生成一些高级的图片效果,还有其他的大量模型,随意截了个图,可以发现生成的图片质量都非常高,而且也搭载了ControlNet插件和涂鸦功能,最大限度满足你的制作需求!四、AI绘画前景‌‌AI绘画的前景非常广阔,具有巨大的市场潜力和应用价值。AI绘画技术正在迅速发展,已经能够创作出令人惊叹的艺术作品。这些技术使用复杂的算法来分析大量的艺术作品,学习不同的风格和技巧,并在此基础上创造出全新的作品。AI绘画不仅对传统绘画技术是一种补充,也为艺术创作提供了全新的可能性。随着技术的成熟,AI绘画在艺术界掀起了一股新浪潮,预示着一种新兴职业——AI艺术家的可能出现。这些艺术家可能不具备传统的绘画技能,但他们需要具备对透视、光影以及其他美学基础的深刻理解,通过选择合适的作画工具、调整参数和指导创作过程中的美学方向,创作出独特的艺术作品。AI绘画的兴起对艺术世界的影响是双面的:一方面,它打破了艺术创作的传统界限,使得没有绘画背景的人也能创作出优美的艺术作品;另一方面,这也引发了关于“什么是真正的艺术”以及“机器创作的作品能否被视为艺术”的讨论。
  • 所需E币: 1
    时间: 2024-9-12 09:07
    大小: 18.13KB
    上传者: 李布衣
    利用AI生成广告,广告是一个相当感性化的领域,利用AI生成,我孤陋寡闻,第一次看到这样的文章,很是惊奇,遂留下并分享给大家。版权特别说明:版权属于华为,如果华为看到了分享的这篇文章,有异议,请告知,我就删除。
  • 所需E币: 2
    时间: 2024-8-19 16:05
    大小: 90.62MB
    上传者: milktea88
    很好的图解入门书籍第1章活跃中的深度学习第2章用图说明深度学习的机制第3章说明深度学习之前的准备第4章了解什麽是神经网路第5章了解卷积神经网路的机制第6章了解递回神经网路的机制第7章了解误差反向传播法的机制
  • 所需E币: 0
    时间: 2024-5-25 17:37
    大小: 2.62KB
    2024全新Langchain大模型AI应用与多智能体实战开发一、Langchain是什么LangChain是一个新一代的AI开发框架,旨在释放大语言模型的潜能,为开发者提供便捷的开发工具和接口。LangChain是一个帮助在应用程序中使用大型语言模型(LLM)的编程框架。与生成式AI中的所有东西一样,这个项目的发展也非常迅速。2022年10月,它先是作为一款Python工具,然后在今年2月增加了对TypeScript的支持。到今年4月,它支持多种JavaScript环境,包括Node.js、浏览器、CloudflareWorkers、Vercel/Next.js、Deno和SupabaseEdgeFunctions。二、什么是智能体?LLM智能体的定义非常宽泛:它们指的是所有将LLMs作为核心引擎,并能够根据观察对其环境施加影响的系统。这些系统能够通过多次迭代“感知⇒思考⇒行动”的循环来实现既定任务,并常常融入规划或知识管理系统以提升其表现效能。你可以在Xietal.,2023的研究中找到对智能体领域综述的精彩评述。 三、深入6大组件LangChain中的具体组件包括:模型(Models),包含各大语言模型的LangChain接口和调用细节,以及输出解析机制。提示模板(Prompts),使提示工程流线化,进一步激发大语言模型的潜力。数据检索(Indexes),构建并操作文档的方法,接受用户的查询并返回最相关的文档,轻松搭建本地知识库。记忆(Memory),通过短时记忆和长时记忆,在对话过程中存储和检索数据,让ChatBot记住你是谁。链(Chains),是LangChain中的核心机制,以特定方式封装各种功能,并通过一系列的组合,自动而灵活地完成常见用例。代理(Agents),是另一个LangChain中的核心机制,通过“代理”让大模型自主调用外部工具和内部工具,使强大的“智能化”自主Agent成为可能!你的App将产生自驱力!总体来讲,LangChain是AI智能时代基于LLM大模型的开发框架。第一、它是上下文相关的,为LLM应用程序开发的整体生命周期提供全流程的框架支持。第二、使用LLM大模型的推理能力为LangChain开发的LLM应用程序提供规划能力(Planning)。第三、LangChain围绕开发LLM应用程序的整体流程提供ModelI/O(Prompt输入、Embedding向量化、LLM大模型适配以及大模型回答适配等)、Retriieval(数据源加载、转换、向量化、存入向量数据库、检索以及向量相识度计算等)、Chains(用于完成特定更高级别任务的组件组装)、Memory(短期记忆、长期记忆)、Agents(LLMAPP)、Callbacks(提供向外部回调的功能)。LangChain是一个旨在帮助您轻松构建大语言模型应用的框架,它提供如下功能:为各种不同基础模型提供统一接口(参见Models)帮助管理提示的框架(参见Prompts)一套中心化接口,用于处理长期记忆(参见Memory)、外部数据(参见Indexes)、其他LLM(参见Chains)以及LLM无法处理的任务的其他代理(例如,计算或搜索)。因为LangChain有很多不同的功能,所以一开始可能很难理解它的作用。因此我将在本文中介绍LangChain的(当前)六个关键模块,以便您更好地了解其功能。四、LangChain在不同领域的应用案例金融行业:LangChain应用系统可以应用于金融领域,帮助银行和金融机构进行智能客服、风险管理、舆情监控等工作,提升金融服务的质量和效率。医疗健康:在医疗健康领域,LangChain可以用于患者健康管理、医疗咨询、疾病诊断等方面,为医疗机构和患者提供更好的医疗服务。教育培训:LangChain应用系统可以用于教育培训行业,支持在线教育、智能学习系统、智能答题系统等应用,提升教育教学的效果和效率。零售行业:在零售行业,LangChain可以应用于智能客服、商品推荐、用户评论分析等方面,帮助零售企业提升销售额和客户满意度。LangChain应用系统的出现,为各行各业带来了新的发展机遇和挑战。随着人工智能技术的不断进步和应用场景的不断拓展,我们有理由相信,LangChain将会在未来发挥越来越重要的作用,为社会进步和发展做出更大的贡献。
  • 所需E币: 0
    时间: 2024-4-26 15:08
    大小: 2.61KB
    学AI绘图需要以下步骤:1.明确目标和需求:首先明确设计图的目的,是用于展示算法流程、模型结构还是其他目的。2.选择合适的工具:根据需求选择合适的绘图工具,如Visio、PowerPoint、AdobeIllustrator等。3.绘制草图:在开始正式绘图之前,可以先用铅笔或草图工具绘制大致的框架和布局。4.添加细节:在草图基础上,逐步添加具体的元素、箭头、文本框等,以展示AI系统的各个组成部分和流程。5.审查和修改:完成初稿后,仔细检查设计图是否符合要求,并进行必要的修改。6.导出和分享:将设计图导出为适当的格式(如PDF、JPG等),并与团队成员或利益相关者分享。学习AI绘画对于个人而言,可以带来一些潜在的好处。首先,AI绘画可以扩展你的创作能力和表达方式,使你能够尝试新的艺术风格和创意。其次,通过学习AI绘画,你可以了解到最新的技术趋势和创新应用,有助于提升你在艺术领域的竞争力。学ai绘画需要哪些基础知识?一、数学与算法知识是必不可少的基础AI绘画的实现离不开数学与算法知识的支撑。例如,实现图像的自动填充、风格转化等功能就需要掌握图像处理、数值优化、深度学习等相关算法。此外,对于生成对抗网络(GANs)的理解也是十分必要的,只有对网络原理、架构及其实现方式有深入了解,才能更好地掌握AI绘画。二、艺术知识也不容忽视尽管AI绘画的实现离不开数学与算法,但在艺术创作过程中,艺术语言和色彩语言也是至关重要的。因此,学习AI绘画必须具备一定的艺术知识,包括色彩搭配、构图、氛围表达等方面的技能,只有深入理解艺术表现形式的规律,才能更好地利用AI工具进行创作。三、动手实践是唯一的捷径了解了AI绘画的基本知识之后,最重要的就是动手实践,跟着艺术家们的步伐,深入尝试,不断优化自己的作品。这样的实践,将在某些方面增强你的艺术创造力和审美水平,提升你在AI绘画领域的专业素养。目前主流的画图软件有Midjourney和stablediffusion,Midjourney需要翻,而且要付费,虽然Midjourney的可调节范围多不过对于我们普通玩家来说,还是开源、不墙和免费的stablediffusion更受用。作为AI绘画领域的实习生,你需要掌握以下技术技能和技巧:1.机器学习和深度学习:了解机器学习和深度学习的基本原理、常用算法和模型结构。掌握常见的神经网络架构(如卷积神经网络、生成对抗网络等)以及它们在图像处理和生成方面的应用。2.图像处理与特征提取:学习图像处理的基础知识,包括滤波、边缘检测、图像增强等常用技术。熟悉常见的特征提取方法,如局部二值模式(LBP)、尺度不变特征变换(SIFT)、主成分分析(PCA)等,并了解它们在图像生成中的应用。3.编程与工具使用:熟练掌握至少一种编程语言(如Python),并熟悉相关的机器学习和图像处理库(如TensorFlow、PyTorch、OpenCV)。具备良好的编码能力,能够实现和调试AI绘画相关的算法和模型。4.数据处理与预处理:掌握图像数据的收集、清洗、转换和标注方法。了解数据增强技术,以增加训练数据的多样性。学习图像预处理技术,如图像归一化、降噪、旋转和裁剪等,以提高模型的鲁棒性和效果。5.模型训练和调优:了解模型训练的基本流程和技巧。学会构建适用于AI绘画任务的模型,并进行超参数调优、正则化和优化方法选择等工作。掌握评估指标的计算和结果分析方法。6.图像生成与风格迁移:学习图像生成模型(如GAN、VAE)的原理和实现方法。探索不同的生成模型架构和损失函数设计,以实现高质量的图像生成效果。熟悉图像风格迁移技术,能够将一个图像的风格应用到另一个图像上。7.学术文献阅读与写作:培养阅读和理解学术文献的能力,关注AI绘画领域的最新研究进展。学习撰写清晰、准确的技术报告和研究论文,能够表达自己的研究思路和成果。8.创造力与艺术感知:尽可能培养自己的艺术感知和审美能力。了解绘画和艺术的基本原理,学习欣赏和分析不同风格的艺术作品。
  • 所需E币: 0
    时间: 2024-5-13 13:48
    大小: 2.29KB
    AIAgent的定义与特点AIAgent是指能够自主地感知环境、进行决策、执行动作,并与环境进行交互的智能体。AIAgent通常具有以下特点:自主性:AIAgent能够独立地进行感知、决策和行动,无需人工干预。目标导向:AIAgent的行为是目标驱动的,其目标可以是完成特定任务、优化特定指标或学习新的知识。适应性:AIAgent能够根据环境的变化调整自己的行为,以适应不同的情况。学习能力:AIAgent能够通过与环境的交互学习新的知识和技能,并不断改进自己的行为。AIAgent在各个领域都有广泛的应用,以下是其中一些应用案例:1.医疗保健:AlAgent可以帮助医生诊断疾病、分析病理切片和制定治疗方案。此外,它们还可以协助护士进行病人监护和记录病历,提高医疗保健的效率和质量。2.金融服务:AlAgent可以帮助银行和保险公司进行风险评估、信用评级和欺诈检测。它们还可以为客户提供个性化的金融咨询服务,提高客户满意度和忠诚度。3.制造业:AlAgent可以帮助工厂自动化生产线进行实时监控、故障诊断和预测性维护。它们还可以协助工程师进行设计和优化生产流程,提高生产效率和产品质量。4.智慧交通:AlAgent可以帮助交通管理部门优化交通流量、降低拥堵和提高交通安全。它们还可以协助驾驶员进行自动驾驶和辅助驾驶,提高道路交通安全性和行车效率。代表性模型:简单反射智能体:行为直接由当前感知决定。具有内部状态的智能体:基于观察历史和当前的感知来决定行动。目标导向智能体:行动旨在实现定义明确的目标。效用基础智能体:评估可能行动的效用,并选择效用最大的行动。分类智能体按照其复杂性和功能可以被分类为:基于规则的智能体:遵循预定义的规则做出反应。学习型智能体:能够从数据中学习并优化其行为。自主智能体:具备一定程度的自我决策能力,能够在没有人类干预的情况下操作。一个精简的Agent决策流程,用函数表达式:Agent:P(感知)—>P(规划)—>A(行动)类似人类「做事情」的过程,Agent的核心功能,可以归纳为三个步骤的循环:感知(Perception)、规划(Planning)和行动(Action)。感知(Perception)是指Agent从环境中收集信息并从中提取相关知识的能力,规划(Planning)是指Agent为了某一目标而作出的决策过程,行动(Action)是指基于环境和规划做出的动作。其中,Policy是Agent做出Action的核心决策,而行动又通过观察(Observation)成为进一步Perception的前提和基础,形成自主地闭环学习过程。这一过程就像马克思主义的「实践论」:“认识从实践开始,经过实践得到了理论的认识,再回到实践中去。”Agent也在知行合一中进化。AgentAI智能体如何实现超进化呢?其实主要是通过机器学习和深度学习等技术实现自我优化和知识积累主要有以下几个方面:一、数据收集与预处理大量数据:智能体需要获取丰富的数据,包括各种场景下的信息。数据清洗:对数据进行清理和预处理,确保数据的质量和准确性。二、模型训练机器学习算法:利用各种机器学习算法,如监督学习、无监督学习等,对数据进行训练。深度学习网络:构建深度神经网络,如卷积神经网络、循环神经网络等,来学习数据中的模式和规律。三、自我优化参数调整:根据训练结果,不断调整模型的参数,以提高性能。超参数优化:通过试验和调整超参数,找到最优的模型配置。
  • 所需E币: 5
    时间: 2024-3-13 13:44
    大小: 9.18MB
    上传者: 美格智能
    StateofAIReport2023⼈⼯智能现状报告!人工智能(AI)是科学和工程的多学科领域,其目标是创造智能机器。我们相信,在日益数字化、数据驱动的世界中,人工智能将成为技术进步的力量倍增器。这是因为今天我们周围的一切,从文化到消费品,都是智能的产物。AirStreet已连续第六年发布人工智能现状报告。我们把这份报告视为所见过的最有趣的事情的汇编,目的是引发一场关于人工智能现状及其对未来影响的知情对话。
  • 所需E币: 0
    时间: 2024-3-19 13:59
    大小: 3.41KB
    AIAgent,它被设计为具有独立思考和行动能力的AI程序。你只需要提供一个目标,比如写一个游戏、开发一个网页,他就会根据环境的反应和独白的形式生成一个任务序列开始工作。就好像是人工智能可以自我提示反馈,不断发展和适应,以尽可能最好的方式来实现你给出的目标。AIAgent是一种超越简单文本生成的人工智能系统。它使用大型语言模型(LLM)作为其核心计算引擎,使其能够进行对话、执行任务、推理并展现一定程度的自主性。简而言之,Agent是一个具有复杂推理能力、记忆和执行任务手段的系统。AIAgent与软件开发AIAgent将使软件架构的范式从面向过程迁移到面向目标。现有的软件(包括APP)通过一系列预定义的指令、逻辑、规则和启发式算法将流程固定下来,以满足软件运行结果符合用户的预期,即用户按照指令逻辑一步一步操作达成目标。这样一种面向过程的软件架构具有高可靠性、确定性。但是,这种面向目标的架构只能应用于垂直领域,而无法普遍应用到所有领域,因此标准化和定制化之间如何平衡也成为SaaS行业面对的难题之一。AIAgent的技术演变史1、SymbolicAgents:在人工智能研究的早期阶段,最主要的方法是符号人工智能,其特点是依赖符号逻辑。这种方法采用逻辑规则和符号表示来封装知识和促进推理过程。它们主要关注两个问题:转换问题和表示/推理问题。这些Agent旨在模拟人类的思维模式。它们拥有明确的、可解释的推理框架,而且由于其符号性质,它们表现出高度的表达能力(这种方法的一个典型例子是基于知识的专家系统)。然而,SymbolicAgent在处理不确定性和大规模现实世界问题时面临着局限性。此外,由于符号推理算法错综复杂,要找到一种能在有限时间内产生有意义结果的高效算法也很有挑战性。2、ReactiveAgents:与SymbolicAgent不同,ReactiveAgent不使用复杂的符号推理。相反,它们主要关注Agent与其Environment之间的交互,强调快速和实时响应。这类Agent的设计优先考虑直接将输入输出进行映射,而不是复杂的推理和符号操作。ReactiveAgent通常需要较少的计算资源,从而能做出更快的反应,但可能缺乏复杂的高层决策和规划能力。3、RL-basedAgents:该领域的主要关注点是如何让Agent通过与环境的交互进行学习,使其在特定任务中获得最大的累积奖励。最初,RL-basedAgent主要基于强化学习算法,如策略搜索和价值函数优化,Q-learning和SARSA就是一个例子。随着深度学习的兴起,出现了深度神经网络与强化学习的整合,即深度强化学习。这使得Agent可以从高维输入中学习复杂的策略,从而取得了众多重大成就(如AlphaGo和DQN)。这种方法的优势在于它能让Agent在未知环境中自主学习,而在学习过程中无需明确的人工干预。这使得它能广泛应用于从游戏到机器人控制等一系列领域。然而,强化学习也面临着一些挑战,包括训练时间长、采样效率低以及稳定性问题,尤其是在复杂的真实世界环境中应用时。4、Agentwithtransferlearningandmetalearning:传统上,训练强化学习Agent需要大量样本和较长的训练时间,而且缺乏泛化能力。因此,研究人员引入了迁移学习来加速Agent对新任务的学习。迁移学习减轻了新任务培训的负担,促进了知识在不同任务间的共享和迁移,从而提高了学习效率、绩效和泛化能力。此外,AIAgent也引入了元学习。元学习的重点是学习如何学习,使Agent能从少量样本中迅速推断出新任务的最优策略。这样的Agent在面对新任务时,可以利用已获得的一般知识和策略迅速调整其学习方法,从而减少对大量样本的依赖。然而,当源任务和目标任务之间存在显著差异时,迁移学习的效果可能达不到预期,并可能出现负迁移。此外,元学习需要大量的预训练和大量样本,因此很难建立通用的学习策略。5、LLM-basedAgent:由于大型语言模型已经展示出令人印象深刻的新兴能力,并受到广泛欢迎,研究人员已经开始利用这些模型来构建AIAgent。具体来说,他们采用LLM作为这些Agent的大脑或控制器的主要组成部分,并通过多模态感知和工具利用等策略来扩展其感知和行动空间。通过思维链(CoT)和问题分解等技术,这些基于LLM的Agent可以表现出与SymbolicAgen相当的推理和规划能力。它们还可以通过从反馈中学习和执行新的行动,获得与环境互动的能力,类似于ReactiveAgent。同样,大型语言模型在大规模语料库中进行预训练,并显示出少量泛化的能力,从而实现任务间的无缝转移,而无需更新参数。LLM-basedAgent已被应用于各种现实世界场景、如软件开发和科学研究。由于具有自然语言理解和生成能力,它们可以无缝互动,从而促进多个Agent之间的协作和竞争。展望AIAgent是人工智能成为基础设施的重要推动力。回顾技术发展史,技术的尽头是成为基础设施,比如电力成为像空气一样不易被人们察觉,但是又必不可少的基础设施,还如云计算等。当然这个要经历以下三个阶段:创新与发展阶段–新技术被发明并开始应用;普及与应用阶段–随着技术成熟,它开始被广泛应用于各个领域,对社会和经济产生深远影响;基础设施阶段–当技术变得普及到几乎无处不在,它就转变成了一种基础设施,已经成为人们日常生活中不可或缺的一部分。几乎所有的人都认同,人工智能会成为未来社会的基础设施。而智能体正在促使人工智能基础设施化。这不仅得益于低成本的Agent软件生产优势,而且因为Agent能够适应不同的任务和环境,并能够学习和优化其性能,使得它可以被应用于广泛的领域,进而成为各个行业和社会活动的基础支撑。
  • 所需E币: 1
    时间: 2024-2-24 22:19
    大小: 5.39MB
    上传者: 电子阔少
    AIPC专题图文到了2024年,随着结合端侧/个人大型模型的AIPC产品真正出现,我们终于可以在个人办公环境中拥有更智能、更安全的设备。这标志着我们将能够更好地利用AI的潜力,开启一个全新的“生产力时代”。
  • 所需E币: 0
    时间: 2024-1-30 15:29
    大小: 2.32KB
    今天抽空跟大家讨论一下关于成为AI人工智能算法工程师的条件是什么?众所周知,AI人工智能是当前最热门的技术之一,那么需要掌握哪些技术才能胜任这一职位呢?我们今天就来唠一唠。算法工程师是一个很高端的岗位,要求有很高的数学水平和逻辑思维能力,需要学习高等数学、离散数学Q、线性代数、数据结构和计算机等课程。专业要求:计算机、通信、数学、电子等相关专业。学历要求:本科及其以上学历,大多数都是硕士及其以上学历。语言要求:英语要求熟练,基本上可以阅读国外相关的专业书刊。另外,还必须要掌握计算机相关的知识,能够熟练使用仿真工具MATLAB等,必须要掌握一门编程语言。那算法工程师到底具体需要哪些知识第一个:肯定就是数学和统计学数学和统计学是算法工程师必备的基础知识,要掌握线性代数、概率论、统计学等知识,才能理解和应用各种机器学习算法和模型。第二个:数据结构和算法数据结构和算法是算法工程师必备的知识,需要熟练掌握各种数据结构和算法,如数组、链表、树、图、排序、查找、动态规划等,以便能够设计和实现高效的算法。第三个:编程语言和工具算法工程师需要熟练掌握至少一门编程语言,如Python、C++等,并熟悉常用的开发工具和框架,如Git、JupyterNotebook、PyTorch等。第四个:深度学习深度学习是机器学习的一个子集,常见的深度学习算法包括受限波尔兹曼机、DeepBeliefNetworks、卷积网络、堆栈式自动编码器等。第五个:算法基础算法工程师需要掌握算法基础,包括线性代数、概率论与数理统计、数据结构、算法分析与设计等方面的知识。当然还有很多,在此就不一一列举,主要分为4个部分:数学基础、编程能力、算法基础、实战。接下来,我们聊聊大家最关心的薪资这块。算法岗位薪资方面:在前几年,算法岗的薪资确实是比开发岗要高很多,可以称之为红利期。但最近几年,算法和开发岗有趋于拉平的意思,但是相对来说,同级情况下,算法岗还是要高1~2k的样子。领域分类:算法岗位的方向还是很多的,一方面是按技术领域,可以划分为计算视觉(CV),自然语言处理(NLP),AIGC,语音算法等等。另一方面是按行业领域,分成气象、交通、工业。。。等等等等。方向不一样,技术栈相差非常大了。优缺点在薪资方面,算法打赢开发。在难度方面,算法打赢开发。在工作强度方面,开发打赢算法。在岗位数量方面,开发打赢算法。在职业周期长度方面,算法打赢开发。(这也是一些焦虑状态下的程序员对算法岗动心的原因)在职业发展上限方面,算法打赢开发。最后我们来谈谈十大基础算法都有哪些。一、选择排序过程简单描述:首先,找到数组中最小的那个元素,其次,将它和数组的第一个元素交换位置(如果第一个元素就是最小元素那么它就和自己交换)。其次,在剩下的元素中找到最小的元素,将它与数组的第二个元素交换位置。如此往复,直到将整个数组排序。这种方法我们称之为选择排序。二、插入排序我们在玩打牌的时候,你是怎么整理那些牌的呢?一种简单的方法就是一张一张的来,将每一张牌插入到其他已经有序的牌中的适当位置。当我们给无序数组做排序的时候,为了要插入元素,我们需要腾出空间,将其余所有元素在插入之前都向右移动一位,这种算法我们称之为插入排序。三、冒泡排序1、把第一个元素与第二个元素比较,如果第一个比第二个大,则交换他们的位置。接着继续比较第二个与第三个元素,如果第二个比第三个大,则交换他们的位置….四、希尔排序五、归并排序六、快速排序七、计数排序八、桶排序九、基数排序十、堆排序
  • 所需E币: 0
    时间: 2024-1-30 12:04
    大小: 2.79KB
    上传者: 开心就很好了
    今天给大家讲讲关于AI,打通视觉,NLP,机器学习,深度学习,推荐搜索,AIGC,大模型等等这些当下最热门技术,我将从以下9个方面给大家做详细讲解关于AI人工智能算法工程师的相关知识。阶段一:从AI全面认知到基础夯实-行业认知&Python&必备数学阶段二:从AI核心技术理论体系构建到项目实战:机器学习&深度学习阶段三:构建AI的数据驱动力--数据预处理工程阶段四:AI深度学习框架实战-Pytorch从基础到进阶阶段五:AI核心算法+方法——经典深度学习模型实战阶段六:AI计算机视觉核心技术与项目实战-工业&医疗与直播&自动驾驶等主流领域阶段七:AIGC火热领域技术与项目-文本图像生成&扩散模型等阶段八:NLP自然语言处理与LLM大语言模型应用实战阶段九:AI工程师入行&转化&就业&面试指导首先,我们先来说说什么是人工智能:人工智能(ArtificialIntelligence),简称为AI,是一门集多学科于一体的综合性技术科学。它的核心目的是创造出能够模拟人类思维能力的机器,使其具备感知、思考和决策的能力。自然语言处理(NaturalLanguageProcessing,简称NLP)是计算机科学和人工智能领域的一个重要分支。它的核心目标是让计算机能够理解和生成人类自然语言,这包括了文本、语音等多种形式的人类语言输入输出。机器学习是一门人工智能的科学,其核心在于计算机通过对数据的学习和经验积累来自动提升性能。深度学习是机器学习的一个子领域,它受到人类大脑神经网络的启发,旨在模拟人类的学习过程。生成式人工智能——AIGC(ArtificialIntelligenceGeneratedContent),是指基于生成对抗网络、大型预训练模型等人工智能的技术方法,通过已有数据的学习和识别,以适当的泛化能力生成相关内容的技术。大模型是指包含超大规模参数(通常在十亿个以上)的神经网络模型。接下来,我们讲解环境的安装配置:安装CPU版本PyTorch#创建PyTorch环境condacreate-ntorch2python==3.10#进入环境condaactivatetorch2#安装cpu版本pytorchpipinstalltorch==2.0.0torchvision==0.15.1torchaudio==2.0.1--index-urlhttps://download.pytorch.org/whl/cpu验证CPU版是否安装成功importtorchprint(torch.__version__)print(torch.cuda.is_available())输出2.0.0+cpuFalseTensor存储的数值Tensor可以用多种方法进行初始化。下面给出例子:直接传数据Tensor可以直接从数据进行创建,数据类型会自动适应。importtorchdata=[[1,2],[3,4]]x_data=torch.tensor(data)print(x_data)使用Numpy数据可以通过Numpy矩阵中进行创建importtorchimportnumpyasnpnp_array=np.array([[1,2],           [3,4]])x_np=torch.from_numpy(np_array)print(x_np)利用已有tensor根据已有的数据形式(形状,数据类型),创建出新的tensorimporttorchdata=[[1,2],[3,4]]x_data=torch.tensor(data)#保持了x_data的数据属性与形状x_ones=torch.ones_like(x_data) print(f"OnesTensor:\n{x_ones}\n")#保持x_data的形状,重新定义x_data的数据属性x_rand=torch.rand_like(x_data,dtype=torch.float) print(f"RandomTensor:\n{x_rand}\n")最后到案例部分:案例1:导入两个列表到Dataset举一个例子,fromtorch.utils.dataimportDataset,DataLoaderclassMyDataset(Dataset):#继承自Dataset  def__init__(self,):#定义数据集包含了什么东西    self.x=[iforiinrange(10)]    self.y=[2*iforiinrange(10)]  def__len__(self):#返回数据集的总长度    returnlen(self.x)  def__getitem__(self,idx):#当数据集被读取时,需要返回的数据    returnself.x[idx],self.y[idx]my_dataset=MyDataset()my_dataloader=DataLoader(my_dataset)forx_i,y_iinmy_dataloader:  print("x_i=",x_i,"y_i=",y_i)输出x_i= tensor([0]) y_i= tensor([0])x_i= tensor([1]) y_i= tensor([2])x_i= tensor([2]) y_i= tensor([4])x_i= tensor([3]) y_i= tensor([6])x_i= tensor([4]) y_i= tensor([8])x_i= tensor([5]) y_i= tensor([10])x_i= tensor([6]) y_i= tensor([12])x_i= tensor([7]) y_i= tensor([14])x_i= tensor([8]) y_i= tensor([16])x_i= tensor([9]) y_i= tensor([18])案例2:导入Excel数据到Dataset中dataset只是一个类,因此数据可以从外部导入,我们也可以在dataset中规定数据在返回时进行更多的操作,数据在返回时也不一定是有两个。fromtorch.utils.dataimportDataset,DataLoaderimportpandasaspdclassMyDataset(Dataset):#继承自Dataset  def__init__(self,data_loc):#定义数据集包含了什么东西    data=pd.read_excel(data_loc)    self.x1,self.x2,self.x3,self.x4,self.y=data['x1'],data['x2'],data['x3'],data['x4'],data['y']  def__len__(self):#返回数据集的总长度    returnlen(self.x1)  def__getitem__(self,idx):#当数据集被读取时,需要返回的数据    returnself.x1[idx],self.x2[idx],self.x3[idx],self.x4[idx],self.y[idx]if__name__=='__main__':  data_loc="模仿数据读取.xlsx"  my_dataset=MyDataset(data_loc)  my_dataloader=DataLoader(my_dataset,batch_size=2)  forx1_i,x2_i,x3_i,x4_i,y_iinmy_dataloader:    print(f"x1_i={x1_i},x2_i={x2_i},x3_i={x3_i},x4_i={x4_i},y_i={y_i}")
  • 所需E币: 1
    时间: 2023-9-26 10:08
    大小: 581.34KB
    上传者: 一蓑烟雨as
    4.6NVIDIA踏进AI领域的三大神器.pdf
  • 所需E币: 0
    时间: 2023-9-26 10:08
    大小: 256.35KB
    上传者: 一蓑烟雨as
    4.4TensorFlowAI框架.pdf
  • 所需E币: 1
    时间: 2023-9-26 10:08
    大小: 953KB
    上传者: 一蓑烟雨as
    4.5PytorchAI框架.pdf
  • 所需E币: 0
    时间: 2023-6-28 13:48
    大小: 37.53MB
    上传者: 张红川
    西瓜书.pdf。。。。。。。。。
  • 所需E币: 1
    时间: 2023-6-1 10:41
    大小: 63.54MB
    智能化战争:AI军事畅想-吴明曦