首页 > 立知

什么是动态生成,ai动态技术,云计算动态,动态云软件业界动态生成式AI大火,终端+云端才是真未来?

小猫咪 立知 2024-01-23

当前,生成式人工智能(GAI)正以破纪录的速度增长,成为新时代科技和产业变革的关键驱动力,开辟了为终端用户提供丰富多样的定制内容的新途径。

不久前,联发科宣布将与百度合作,启动和文心大型模型硬件生态共创计划,共同推动联发科硬件平台对和文心大型模型的适配。 近日,联发科还宣布利用Meta LIama 2语言模型、联发科先进的AI处理器(APU)和完整的AI开发平台(),建立完整的终端侧AI计算生态系统,赋能终端设备生成式AI应用。

可见,联发科正在积极投入AI技术和生态建设,推动“端云融合”和终端侧AI技术解决方案,为生成AI市场探索更多发展路径和驱动力。 通过与行业伙伴合作,用AI大模型赋能终端设备,让更多用户体验生成式AI的创新体验。

与百度合作推出、文心大型模型硬件生态共创计划

不久前,联发科宣布将联合百度针对飞桨和文心大型模型推出硬件生态共创计划。 目前,双方正在合作优化文心大模型在终端设备上的执行效果,将实现大模型在终端和云端的协同工作,为用户带来突破性的生成式AI应用体验。

作为推动人工智能进一步发展的先进技术,相比于简单在云端部署生成式人工智能应用和服务,在终端侧部署生成式人工智能可以节省服务器成本、保护用户信息安全、提高实时性、实现个性化的用户体验。 具有明显的优势。 双方的合作将支持文芯大模型在基于联发科芯片的智能手机、汽车、智能家居、物联网等终端设备上的运行,使终端设备提供更安全、更可靠、差异化的用户体验。

联发科与百度合作已久,双方合作完成了基于人工智能通用软件平台的Lite轻量级推理引擎的适配。 它是为开发者提供的基于本地的AI计算解决方案。 它为内置CPU、GPU、APU(独立AI处理器)等异构计算单元的SoC平台提供完整、强大的软件解决方案。

联发科技无线通信事业部副总经理李彦吉博士表示:“百度飞桨深度学习平台和文心大规模模型在AI领域处于领先地位,我们双方将重点关注在人工智能领域的部署。”终端侧AI大规模模型为用户提供更可靠、更个性化、更低成本的端到端生成式AI解决方案,赋予终端设备更强大的AI能力,携手百度飞桨、文信大模型,通过AI-端-云融合,将为开发者和最终用户带来更多令人兴奋的AI创新机会和产品体验。”

利用Meta Llama 2大语言模型赋能终端设备生成式AI应用

近日,联发科宣布利用Meta新一代开源大语言模型(LLM)Llama 2、联发科技先进的AI处理器(APU)和完整的AI开发平台(),建立完整的终端侧AI计算生态系统,加速智能手机、网络、汽车、智能家居等边缘设备的物联网人工智能应用开发,为终端设备提供更安全、更可靠、差异化的用户体验。

联发科高级副总裁兼无线通信事业部总经理徐景泉博士表示:“生成式人工智能的日益普及是数字化转型的重要趋势之一。我们的愿景是为 Llama 的开发者和最终用户提供工具2、带来更激动人心的AI创新机会和产品体验。通过与Meta的合作,我们可以提供更强大的软硬件整体解决方案,为终端设备带来远超以往的功能和体验。”

为了充分释放终端设备上生成式AI的潜力,设备制造商需要采用高算力、低功耗的AI处理器(APU),并通过更快、更可靠的网络连接来提升设备的整体算力。 如今,每一款联发科 5G 智能手机 SoC 都配备了 AI 处理器,该处理器已广泛实现了生成式 AI 应用的成功案例,例如 AI 降噪(AI-NR)、AI 超分辨率(AI-SR)、AI 运动补偿(AI -MEMC)等

新一代旗舰移动芯片将于年底推出,将采用针对Llama 2模型优化的软件堆栈(),以及支持该模型进行骨干网络加速的升级版AI处理器(APU),可以降低动态随机存取存储器(DRAM)读写消耗和带宽占用,进一步提升大型语言模型和生成式AI应用的性能,帮助开发者创造令人惊叹的AI应用,加速AI应用在终端设备上的开发。

针对生成式AI的技术演进和应用趋势,联发科技将保持技术投入,与行业伙伴共同推动生成式AI在终端侧的布局和发展,加速生成式AI市场的规模化发展,并为智能手机、汽车、智能家居、物联网等终端设备的用户带来引人注目的生成式AI应用体验。

广告声明:文章中包含的外部跳转链接(包括但不限于超链接、二维码、密码等)用于传达更多信息,节省选择时间。 结果仅供参考。 IT之家的所有文章均包含此声明。

相关阅读:

暂无相关信息
  • 网站地图 | 联系我们
  • 声明:这就到-知道你所不知道登载此文出于传递更多信息之目的,并不意味着赞同其观点或证实其描述。文章内容仅供参考,不做权威认证,如若验证其真实性,请咨询相关权威专业人士。