行情中心 沪深京A股 上证指数 板块行情 股市异动 股圈 专题 涨跌情报站 盯盘 港股 研究所 直播 股票开户 智能选股
全球指数
数据中心 资金流向 龙虎榜 融资融券 沪深港通 比价数据 研报数据 公告掘金 新股申购 大宗交易 业绩速递 科技龙头指数

计算机行业“智能网联”系列报告35:SLM AIPC和AI手机的最佳选择

中信证券股份有限公司 2023-12-14

微软发布phi-2 小语言模型,27 亿参数实现百亿参数大模型的效果,我们认为16-32GB 内存+NPU 的PC 即可运行,后续手机也有望运行。建议关注具备较多C 端用户的AI 应用公司金山办公、科大讯飞、万兴科技。建议关注边缘AI模组厂商中科创达、移远通信、广和通、美格智能。

看模型:微软phi-2 发布,小模型也足够智能。2023 年12 月12 日,微软发布了Phi-2 语言模型。该模型仅有27 亿参数,比700 亿参数的Llama2 小一个数量级,然而在性能表现方面不输其他模型。根据微软的测试,该模型在语言理解、常识推理、数学、代码四方面的能力全面超越130 亿参数的Llama2,部分方面表现甚至优于700 亿参数的Llama2。

看硬件:16-32GB 内存+NPU 可支持PC 和手机AI 需求。SLM 可以极大降低硬件需求,根据微软官网,训练端phi-2 仅需96 个A100 GPU 训练14 天;推理端,模型2.7B 的参数量,在使用FP16 精度的情况下,仅需5.4GB 的存储空间。

2023 年6 月到12 月,微软Phi-1 1.3B、Phi-1.5 1.3B、谷歌Gemini Nano 3.2B、微软Phi-2 2.7B 等小模型先后发布,模型本体存储占用大致在2.6GB-6.4GB,结合运算需求,SLM 的RAM 存储容量或达到4-8GB。结合其他程序内存占用,根据我们使用测试,Windows 系统办公电脑日常轻载情况下内存占用约4GB,运行较多文档、网页的情况下内存占用或可达到12GB 左右。因此我们认为,存储空间方面,16G 内存PC 或可轻度运行语言模型,32G 内存的PC 则可以满足更多SLM+办公需求;当前手机配备的RAM 空间较小,大多在16GB 以下(也有配备24GB 的型号),相对PC 而言运行SLM 的压力更大。此外NPU运行AI 效率较高,能够帮助移动PC 和手机降低能源消耗,延长续航,并强化推理能力,改善AI 使用体验。

看应用:图片视频创意、智慧助手类应用可能率先推出。我们认为SLM 发展可以提升边端AI 助手的智能程度,SLM 与操作系统、办公软件以及各类APP 结合进行本地部署可以提升使用体验。图形图像类的模型普遍尺寸比语言模型更小,创意应用的容错率也更高,也有望随着小模型和AI PC 发展。

风险因素:小模型性能效果不及预期;NPU 发展不及预期;小模型在边端设备部署效果不及预期。

投资策略。2023 年下半年以来,SLM 发展迅速,结合高性能存储、集成NPU的发展,语言模型有望在边缘端落地,大幅提升C 端用户AI 使用体验,存储、PC 端和手机端AI 应用有望受益,建议关注具备较多C 端用户的AI 应用领军企业金山办公、科大讯飞、万兴科技。边缘AI 的落地也有助于边缘AI 算力硬件发展,建议关注AI 物联网模组企业中科创达、移远通信、广和通、美格智能。

免责声明

以上内容仅供您参考和学习使用,任何投资建议均不作为您的投资依据;您需自主做出决策,自行承担风险和损失。九方智投提醒您,市场有风险,投资需谨慎。

推荐阅读

相关股票

相关板块

  • 板块名称
  • 最新价
  • 涨跌幅

相关资讯

扫码下载

九方智投app

扫码关注

九方智投公众号

头条热搜

涨幅排行榜

  • 上证A股
  • 深证A股
  • 科创板
  • 排名
  • 股票名称
  • 最新价
  • 涨跌幅
  • 股圈