人工智能基础软硬件架构关键技术分析

(整期优先)网络出版时间:2023-04-18
/ 2

人工智能基础软硬件架构关键技术分析

王锦生

上海祥承通讯技术有限公司    201203

摘要:随着我国现代技术不断升级,人工智能技术已各个领域中得到广泛应用。合理构建人工智能管理系统,不但可以提升企业各项数据信息处理的直观性,还能为企业决策提供详细的数据参考。基于此,本文简单分析人工智能基础软硬件构架设计,并深入探讨人工智能软硬件构架关键技术分析,以供参考。

关键词:人工智能;基础软硬件;一站式开发技术

引言:通过对人工智能基础软硬件构架设计研究,合理利用一站式开发应用技术,并结合模型压缩技术、编译器技术及样本增强等技术,共同构建信息化人工智能管理平台,从而为信息处理、业务交流、重大决策及材料采购、运输等方面,提供重要的数据参考。

  1. 人工智能基础软硬件架构设计

1.1基础硬件设计

基础硬件层的设计工作主要以人工智能芯片设计为主,从现实角度来讲就是通过系统运行,实现对多种激活函数与矩阵乘法计算流程的深度学习。而在使用传统CPU实施重生计算模式,其性价比普遍较低。因此,必须根据实际需求采用适合的计算芯片材料进行整体设计。如在计算芯片AI应用时,可通过构建ASIC架构、FPCA架构及基本CPU架构,并利用人工智能计算硬件及常用函数进行数据处理,进而提升系统硬件信息处理速度降低使用功耗。此期间所运用的关键技术,主要包括编译器技术、异构计算技术、硬件技术及指令集技术等。根据现阶段我国AI智能软硬件安全使用需求,应在ASIC操作系统设计中合理布设安全性较高的硬件连接电路,从而保障整体系统平台安全、有序运行。

1.2基础软件设计

实现系统结构内部算法封装深度学习功能则主要依靠软件结构来完成,同时软件也是人工智能软硬件结构中最为关键的设计部分之一。同时还能为整体系统开发应用提供各种集成性软件包,其中主要包括设计推理和训练两部分。通常来讲,影响软件框架操作便利性及可用性的关键就是分布式生态因素和训练因素。现阶段,在相关技术实际应用过程中,生态性能相对较高的云端训练框架主要以PyToerch和TensorFlow为主,两种框架均具备分布式训练功能支持,故而可将其灵活运用到系统构架设计当中。现阶段,国内很多人工智能系统已成功开发各种生态功能,可充分应用于机器设备软件深度学习当中[1]

1.3应用层设计

现阶段,人工智能技术应用已趋于商业化发展,可将自然语言、智能语言处理技术及视觉技术作为人工智能开发的基本技术应用。并在软硬件设计框架中,根据各种技术的实践情况与应用特点,针对AI数据信息决策问题、融合问题及感知问题,灵活运用几种关键性技术,并在设计过程中不断完善技术应用机制和使用模式,从而使系统平台能够持续高效地对各种信息数据进行管理和应用。

  1. 人工智能软硬件架构关键技术分析

2.1一站式开发技术

因目前人工智能软硬件构建在实际应用时,普遍存在开发时间过长、训练标记系统要求过高及信息数据获取困难等弊端。故而,应根据实际情况结合一站式开发技术构建信息管理平台,从而有效解决此类问题,其系统结构框架如图1所示。

metapro添加图片

图 1 一站式平台开发技术基本框架图

在运行相关技术进行平台开发过程中,重点需要注意以下几点:第一,底层开发部分必须兼容异构计算机相关平台,从而实现各种分布式大规模训练项目开发应用,且应构建性能较为完善的分布式平台通信体系,以提升信息数据吞吐量。并给予分布式信息相关的技术支持,进而同步处理数据和模型,同时整合运维及平台部署工作,提升数据移植处理速度。第二,在深度开发学习框架设计时,应为主流训练框架提供相应的功能支持,并合理布设各个系统接口框架,进而实现智能化学习训练任务分配。并在系统训练任务实施阶段,主要针对设计模型训练、算法开发、预处理数据信息等方面进行任务训练,并保持系统各项功能在训练期间正常运行。第三,在具体算法开发施工过程中,必须对AI算法系统框架部分加以完善,使其能够完美兼容传统设备学习算法,并构建良好的数据交互算法开发环境。

2.2模型压缩技术

一般来讲,在移动终端设备与嵌入式算法处理时,存储资源和计算信息将受到一定限制,若想保障数据算法处理的高效性,就必须针对系统模型实施加速和压缩控制。该系统模型主要功能便是精细化处理部分已完成的训练任务,进而得到准确的精细化轻量虚拟模型。模型在经过压缩处理后其参数信息与整体结构会变小,从而有效降低存储和计算成本。此期间,便可运用模型深度压缩学习技术,通过精细化处理量化方式、剪裁方式与设计方式,将其划分为后端与前端两个不同压缩处理任务。而前端技术可不改变系统结构的情况下,通过原始模型结构功能来缩减filter数量,还能在最大限度上减弱系统网络运行深度。而后端压缩技术则可在最大限度上降低网络模型规格,且会在一定程度上破坏原始网络结构。从训练模型优化和压缩方面来讲,可采用流程工具自动化设计方式,将其分成优化超参数组件和模型加速与压缩算法组件结构,并借鉴以往成功案例,实施一系列权重网络整流处理、量化处理及稀疏化处理。将各种不同算法相互结合运用,最大限度降低数据精度损失,并不断提升模型压缩自动化深度学习能力

[2]

2.3编译器技术

常规编译器通常无法深度优化学习系统结构中的基础算子,且并不配备AI智能多种异构的电子芯片。而目前多数AI编译器主要是基于传统编译器进行优化和功能开发,可从根本解决基础AI系统芯片装置与系统软件框架之间无法兼容的弊端。如CUDA、nGraph及NNVM/TVM等编译器开发皆是基于此类开发法理念,并结合

AI系统LLVM结构实施整体系统设计。以NNVM/TVM编译器相关的系统应用项目为例,其可充分利用自身优势深度学习多元化前端系统框架,并将系统内部运行数据运用相应的功能模块转化为系统可识别的代码信息,同时可对系统运行负载信息在高层图中加以改进并显示。除此之外,还可为后端硬件系统提供各种图形转换功能,且具有融合计算、数据分布优化及内存最小化占用等优势和功能。

而NNVM编译器装置则主要基于两个TVM堆栈中的功能组件来实施,其主要用于系统内部各种数据运算曲线的生成,而关于张量映射方面的数据运算则主要依靠TVM来完成。NNVM/TVM 系统概览如图2所示。

metapro添加图片

图 2 NNVM/TVM 系统概览图

根据图2中TVM概览部分制定具体工作流程,如下所示:第一,关于PyTorch及TensorFlow等各种拥有前端学习功能的系统框架,结构内部IR数据图片转化任务则主要由NNVM来完成。第二,通过优化原始IR计算图后如内存分配、操作兼容等方面,可得出最佳计算图。第三,对每个计算图中所包含的op获取,可通过张量表达语言中的计算表达式(Tensor)来计算,并针对相关硬件操作平台,选择primitives计算原语最终生成详细的schedule,其全部操作步骤通过TVM组件来实施。最后,并可生成专属于平台硬件相关设备的计算机程序,进而生产可编译module。

现阶段,很多主流方案多选择Tensor IR加Graph IR两种不同的优化结构,这也是针对硬件系统优化与软件系统内部框架移植的最佳方式。而现阶段大部分系统对于数据信息的处理和显现,也多数是基于IR层结构训练模型来完成,而IR层则主要用来代表系统源码的数据代码和数据结构。而中间表示层则是嫁接各种软件训练框架前端深度学习及后端表达的重要桥梁,其主要作用于处于系统内部可移植框架在日常运算时所产生的软件漏洞,是一种应用性极强的AI智能中间件[3]

2.4样本增强技术

通常情况下,增强数据信息主要分为无监督与有监督两种不同形式。有监督形式主要是对多个样本或单体样本信息数据实施增强处理,而无监督形式可分为学习和新数据增强两种形式。有监督形式相关技术主要依靠工作人员以往工作经验进行结构设计,在各个系统任务在操作过程中常会存在质量不足、差异性较大等问题。故而,在现阶段系统设计实践中数据增强技术多采用无监督形式,如运用网络模型学习分布处理各种信息数据,随机性训练和生产数据信息分布状态图片,从而生产最终CAN对抗网络。

结论:综上所述,为有效解决企业人工智能软硬件开发过程中存在的各种问题,必须制定科学合理的硬件系统与软件系统开发方案,同时重点应用一站式平台开发技术结合企业实际情况,灵活运用其他关键技术,从而提升整体人工智能信息平台软硬件构架的实用性和完整性。

参考文献:

[1]梁春华. 人工智能背景下计算机软硬件的发展[J]. 数字技术与应用,2021,39(08):220-222.

[2]高蕾,符永铨,廖湘科. 我国人工智能核心软硬件发展战略研究[J]. 中国工程科学,2021,23(03):90-97.

[3]边有钢,童恩,李克强. 智能网联车路云协同系统架构与关键技术研究综述[J]. 自动化学报,2022,48(12):2863-2885.