陈垣毅,九三学社浙大城市学院支社社员。2017年毕业于上海交通大学,获计算机科学与技术专业博士学位。浙江大学、浙江工业大学和浙大城市学院硕导,教授,浙大城市学院计算机系统工程研究所所长。近年来,在IEEE Trans TSC、TITS、COLING和国际权威期刊和会议上发表论文30余篇,授权国家发明专利15项(实施成果转化5项),主持及承担国家973计划项目、国家重点研发计划项目、国家自然科学基金面上项目等,获浙江省技术发明奖。
大家好
我是九三学社
浙大城市学院支社的陈垣毅
欢迎收听本期“九三E讲堂”
本期的主题是
《边缘智能:让AI走进万物的技术革命》
人工智能正在深刻改变我们的生活。从手机里的语音助手到医院的影像诊断,从工厂的质量检测系统到城市的智能交通管理,AI几乎无处不在。然而,目前绝大多数AI计算都依赖远在千里之外的云端计算中心。这就像每次思考都要打长途电话一样,不仅耗时,还可能因为网络不稳定而“掉线”。想象一下,自动驾驶汽车在高速行驶时,如果每个决策都要等待云端响应,哪怕延迟0.1秒都可能酿成事故。工业生产线上,如果质检系统慢了一拍,次品可能已流向市场。这些场景都需要AI能够“就地解决问题”,这就是边缘人工智能的使命——让智能计算发生在数据产生的地方。
边缘智能被认为是继云计算之后的下一个技术浪潮。根据预测,到2025年,全球将有750亿个边缘智能设备,其中75%的数据将在边缘侧进行处理。这意味着,未来的世界将是一个“万物皆智能”的世界,而且这些智能设备将拥有强大的本地计算能力。那么,要实现边缘智能这个愿景,我们面临哪些技术挑战,同时又有哪些技术方案呢?目前,学术界和工业界主要有三大技术路径正在同步推进:
轻量化模型:给AI模型“瘦身”
一个庞大的AI模型,原本需要超级计算机如英伟达的高级GPU才能运行,那我们如何才能在一个小小的手机芯片上或智能音响上就能够流畅地运行呢?这就需要对模型进行“减肥”和“压缩”,也就是轻量化模型。科学家们通过模型剪枝和量化等技术,可以将原本“臃肿”的AI模型“瘦身”到极小。目前,一些压缩后的模型已经能在保持95%精度的同时,将计算量减少90%,这极大地拓展了AI模型在边缘设备上的部署能力。
专用AI芯片:为智能而生
传统的通用处理器如CPU就像一把“瑞士军刀”,什么都能做但都不精通。而专用的AI芯片则更像是一把“手术刀”,它们从设计之初就专门为AI计算而优化,能够以极高的效率和极低的能耗完成AI任务。例如,华为的昇腾系列芯片、谷歌为边缘AI开发的Edge TPU和英伟达的Jetson系列等,都是这个领域的杰出代表。这意味着,我们的智能手机、智能摄像头、智能音箱等设备,在不额外增加大量电池消耗的前提下,就能拥有更强大的AI处理能力,在本地完成更多复杂的智能任务。
边云协同:强强联合,优势互补
并非所有的任务都适合在边缘侧单独处理。有些任务简单、需要即时响应,比如本地的人脸识别和语音指令等;而有些任务则非常复杂,例如海量大数据的挖掘分析和大模型的推理决策等。在这些任务的场景下,边云协同模式显得尤为重要。它是一种“分工合作”的智能架构:1)在边缘侧负责处理那些对实时性要求高、数据量大、但计算相对简单的任务;2)在云端则承担那些需要强大算力、海量存储和复杂模型训练的任务。边缘侧处理后的数据或关键信息可以上传到云端,利用云端的超级计算能力进行更深层次的分析和决策,并将更新后的模型或指令下发到边缘设备。这种“分工合作”的模式,既保证了边缘设备的响应速度和隐私保护,又充分利用了云端的强大算力,实现了优势互补。
边缘智能的发展不仅是技术问题,更关乎我们的未来生活。它将使智慧城市更加智能,让工业4.0真正落地,让远程医疗服务触手可及。同时,由于数据不必上传到云端,个人隐私也得到了更好的保护。挑战与机遇并存,边缘人工智能正在开启一个“万物皆智能”的新时代。
感谢收听本期“九三E讲堂”,下期再见!
(音频音效制作:周卫东)