站长之家(ChinaZ)12月22日消息:
公司的人工智能研究人员表示,在将(LLMs)部署到和其他内存有限的苹果设备上取得了关键性突破。他们发明了一种创新的闪存利用技术,可有效应对内存限制问题。
本文研究人员在这篇名为「LLMinaflash: Efficient Large Language Model Inference with Limited Memory」的本文中指出,在内存有限的设备上运行基于LLM的聊天机器人(如ChatGPT和Claude)通常需要大量的数据和内存。然而,对于内存容量有限的设备如iPhone,这是一个挑战。为了解决这个问题,苹果的研究人员开发了一种新技术,利用闪存存储AI模型的数据。
本文中作者指出,移动设备中的闪存比传统用于运行LLMs的RAM更为丰富。本文介绍了他们使用的两种关键技术来最小化数据传输并提高闪存吞吐量,从而使AI模型能够运行的规模达到iPhone可用内存的两倍。本文称,这一突破将大大提高在标准处理器(CPU)和图形处理器(GPU)上的运行速度。
这一AI效率的突破为未来的iPhone带来了新的可能性,如更先进的Siri功能、实时语言翻译和在摄影和增强现实中的复杂AI驱动功能。苹果公司已经在研究将这项技术应用于iPhone上复杂的AI助手和聊天机器人。此外,苹果公司正在开发名为「Ajax」的生成式AI模型,该模型在设计上与OpenAI的GPT-3和GPT-4相媲美,运行在2000亿参数上。苹果计划在2024年晚些时候推出某种生成式AI功能,并提供云端AI和设备上AI处理的结合。
标签: 大型语言模型、 苹果、 iPhone、 AI头条、本文地址: https://yihaiquanyi.com/article/5e38576f0149da93175a.html
上一篇:animation翻译AnimateAI视频生成器分享Anyo...