冷延鹏-硅谷小模型技术实践及开源社区思考

3.0 2025-05-10 62 0 15257 KB 37 页 PDF
侵权投诉
冷延鹏-硅谷小模型技术实践及开源社区思考
冷延鹏-硅谷小模型技术实践及开源社区思考
冷延鹏-硅谷小模型技术实践及开源社区思考
冷延鹏-硅谷小模型技术实践及开源社区思考
冷延鹏-硅谷小模型技术实践及开源社区思考
摘要:

硅⾕⼩模型技术实践及开源社区思考AFUTURE TOWARDS OPENSOURCE ON-DEVICE AINEXA AI 在做什么?背景与困境终端 AI - 未来已来0.050.0100.0150.020222023202420252026202720282029203020312032ManufacturingAutomotiveGovernmentIT & TelecomConsumers & GoodsHealthcareOther End-Use Industries15.219.123.531.140.249.357.272.088.2111.1143.6Size (USD Billion)Source: Market.us. Edge ai market.Year⾦融法律医疗科研移动设备移动交通⼯业机器⼈基础设施为什么是终端 AI?⾼隐私:不会向外部传输任何敏感数据,从⽽提⾼合规性成本效益:利⽤基于设备的计算能⼒来降低服务器费⽤低延迟:消除服务器通信、即时处理和反馈造成的延迟离线可⽤:⽆需互联⽹连接即可运⾏,在任何地⽅都可靠背景与困境当前挑战Nexa AI 为开发者和企业提供最佳的设备端⼈⼯智能模型、⼯具包和解决⽅案模型没有针对终端设备进⾏优化模型太⼤速度慢且耗电⽆法实现流畅的性能压缩或调整会显着降低本地部署的准确性终端推理的⽀持有限跨设备的⽀持不⼀致 —— 部署变得复杂缺乏硬件加速⽀持 (GPU/NPU) —— 影响速度和效率公司⽬标背景与困境NEXA AI PRODUCTS⾼隐私 · 低成本 · 低延迟NEXA SMALL LANGUAGE MODELS能源利⽤效率提⾼ 70 倍;⽐ RAG+Llama3-8B 快 35 倍;在函数调⽤⽅⾯:仅 0.5B 模型优于 GPT-4oNEXA ON DEVICE MODEL HUB全⾯的量化压缩&开源的设备端 AI 模型库,具有便捷的筛选机制和⼀⾏部署,可帮助开发者实现快速原型设计NEXA SDK⽀持 ONNX 和 GGML 模型的本地设备端推理框架。它⽀持⽂本、图像、⾳频和多模态模型背景与困境我们的产品业界认知在 HuggingFace 的所有模型中位列第⼆在⾕歌 Google I/O 2024 报道背景与困境NEXA SMALL LANGUAGE MODELS能源利⽤效率提⾼ 70 倍;⽐ RAG

展开>> 收起<<
冷延鹏-硅谷小模型技术实践及开源社区思考

共 37 页,预览3页

还剩34页未读, 继续阅读

声明:企商查报告文库所有资源均是客户上传分享,仅供网友学习交流,未经上传用户书面授权,请勿作商用。
作者: 分类: 属性:37 页 大小:15257 KB 格式:PDF 时间:2025-05-10

开通VIP享超值会员特权

  • 多端同步记录
  • 高速下载文档
  • 免费文档工具
  • 分享文档赚钱
  • 每日登录抽奖
  • 优质衍生服务
/ 3
客服
关注