欢迎访问速发财讯!

AIGC 风潮席卷手机:但在 PC 面前 还是个弟弟

智能科技 2023-11-213031euiyhu9856

来源:快科技

AI 早已有之,但无论是深蓝在国际象棋上战胜卡斯帕罗夫,还是 AlphaGo 在围棋上击败柯洁,都没有像 ChatGPT 这样引发全民热潮。

正是这一波 AIGC ( 生成式 AI ) ,第一次让 AI 来到了每一个普通人的身边,真正改变了人们的日常生活、工作,而不再是一个高大上的科技概念。

如今无论是互联网厂商还是传统科技厂商,无论是手机厂商还是 PC 厂商,无论是芯片硬件厂商还是软件厂商,自家产品不搞点 AI,都不好意思和人打招呼。

当然了,对于如今人们的生活和工作来说,最核心的设备一是智能手机,二是 PC 电脑,它们也都在 AI 的路上衔枚疾进,很多人也经常正路,PC AI 和手机 AI,究竟哪个才是王道?

首先公平地讲,PC AI 和手机 AI 无所谓孰优孰劣,关键是谁更适合用在哪里。

另一方面,对于 AI 而言,最基础的前提一是算力是否够强大、模型和算法是否够丰富,二就是应用场景是否够广泛、灵活。

无需赘言,手机和 PC 相比无论 CPU 性能还是 GPU 性能,根本不在一个档次,即便加入独立的 AI 引擎,也是看不见尾灯的。

最新发布的高通骁龙 8 Gen3 已经升级为第九代 AI 引擎,甚至将 Hexagon DSP 数字信号处理器升级为专门的 NPU 神经网络单元,并结合整个平台不同模块的力量,AI 性能比上代几乎翻番。

但即便如此,它也只能处理 100 亿参数的大语言模型,每秒执行 Token 的数量最多不过 20 个。

联发科天玑 9300 配备了第七代 APU 处理器,具备生成式 AI 引擎,但也只是实现了 70 亿参数大语言模型端侧落地、130 亿参数大语言模型端侧运行,70 亿参数的生成速度也只有每秒 20 Tokens。

更关键的是,手机端硬件平台性能优先,尤其是运行大模型必须的内存容量捉襟见肘,即便是高端配置的 16GB 也过根本不够用。

为此,联发科不得不动用了各种优化手段,包括内存硬件压缩、LoRA 融合、Fusion 技能扩充等等,才勉强够用。

在 PC 端,16GB 内存如今已经是最起码的配置,32GB 都随处可见,再加上 PC 处理器的强大算力,这些限制根本就不是事儿。

比如 Intel 13 代酷睿处理器,尚没有独立的 AI 引擎,但凭借 XPU 的加速,再加上简单的低比特量化、软件优化,只需 16GB 内存,就可以通过 BigDL-LLM 框架,轻松运行 160 亿参数的大语言模型,还可以快速对接新兴模型,包括但不限于:LLAMA/LLAMA2、ChatGLM/ChatGLM2、MPT、Falcon、MOSS、Baichuan、QWen、Dolly、RedPajama、StarCoder、Whisper,等等。

这里说的 BigDL-LLM,是专门针对 Intel 硬件的一个低比特量化设计开源框架,支持 INT3、INT4、INT5、INT8 等各种低比特数据精度,性能更好,内存占用更少。

基于这个框架,使用 i9-12900K 处理器,只开启 4 个核心来运行 ChatGLM2 60 亿参数模型,生成效果就相当迅速,打开全部 8 个 P 核、8 个 E 核之后生成速度可达每秒 22 Tokens,已经不弱于很多云侧计算。

换言之,无论是需要将全部算力投入 AI 模型的运算,还是兼顾其他任务,PC 端都可以轻松完成。

可以看出,无论哪种情况,Intel PC 侧都已经可以很好地完成相应的 AI 工作,提供令人满意的算力和效率。

当然,60 亿参数对于 PC 处理器来说是小菜一碟,换成 LLaMA2 130 亿参数大语言模型、StarCoder 155 亿参数代码大模型,Intel 酷睿处理器也都能获得良好的运行速度。

再换成 Arc 锐炫显卡,速度就更快了,比如 ChatGLM2 模型中生成速度可以超过每秒 50 Tokens。

正是得益于如此快速的大语言模型运行速度,即便是一台轻薄笔记本,也可以在日常工作中及时提供各种帮助。

比如包括但不限于:聊天助手、情感分析、中英文翻译、故事创作、生成大纲、信息提取、美食指南、旅游规划、代码生成等等。

除了基于大语言模型的工作和生活助手,AIGC 最常使用的另一个场景就是 Stable Diffusion 文生图、文胜文,这一点如今无论手机还是 PC 都可以做到。

当然,还是受制于算力,最新的手机平台虽然号称可以在 1 秒钟之内完成 Stable Diffusion 文生图,但是无论生成中的迭代次数、引导系数、关键词数量,还是图片的尺寸、分辨率、质量,都不得不做出妥协,也导致图片的应用范围有限。

在 PC 上,无论使用 CPU 还是 GPU,完全可以根据自己的需要,任意设定参数,花个几分钟,就能生成用于高级设计、创作的素材。

尤其是在 Intel 平台上,通过与 AI 社区积极合作,基于 OpenVINO PyTorch 后端的方案,可以通过 Pytorch API 让社区开源模型很好地运行在 Intel 客户端处理器、集成显卡、独立显卡、专用 AI 引擎之上。

Stable Diffusion 中更是实现了 Automatic1111 WebUI,以及 FP16 的高精度,无论文生图、图生图还是局部修复,都可以获得更好的体验。

事实上,如今已经有很多设计师、UP 主开始在 PC 和工作站上使用 Stable Diffusion 生成所需要的高质量素材,得到精美的 CG 动画、模型等等,从而节省大量的精力和时间,将更多头脑投入在创作阶段。

接下来的酷睿 Ultra,更是将引入全新升级的 CPU/GPU 架构,以及全新的 NPU AI 独立引擎。

它通过单独设置的神经计算引擎、推理流水线,彻底接手端侧的 AI 推理负载,其中 MAC 阵列可以高效执行矩阵算法和卷积运算,每周期效率多达 2048。

这样的性能更是手机端望尘莫及的,速度超快的同时功耗更是极低,有利于延长笔记本续航时间。

更进一步,酷睿 Ultra AI 引擎还可以联合 CPU、GPU,共同分担 AI 负载中的不同工作,各自以最高效率执行,达到整体平台效能的最优化。

总之,无论是手机端还是 PC 端,AI 都是大势所趋,性能会越来越好,模型和算法会越来越精妙,应用场景也会越来越丰富。

对于手机端而言,AIGC 可以随时随地应用,也可以实现很好的个性化,有着极佳的灵活性。

但同时也不得不受制于手机平台的性能、算力,也限制了应用场景,尤其是大模型不可能完整地从云端搬到本地,导致能实现的应用和生成速度存在天然局限,即便是在应用最直接、最广泛的 AI 助手中也是如此,需要更多地走端云合作的路子。

对于 PC 端而言,性能、算力可以几乎无限制地扩展,能够轻松、完整地运行各种大模型,无论你需要生成的图片多么精致、文字多么复杂,给予一定的时间都可以完成,而且这个时间正在快速缩短,因此在内容生产力的 AIGC 创作方面,PC 仍旧是不二之选。

虽然 PC 的便捷性不如手机,但如今的笔记本也在快速进化,推动着 AIGC 的快速演进和普及。

一方面,笔记本做得越来越轻薄、精致,性能却越来越好,比如在 Intel Evo 严苛认证的多年推动之下,笔记本的综合性能、扩展能力、续航水平都达到了空前的高度,可以长时间、轻负担地随时随地完成工作。

另一方面,笔记本开始有了自己的 AI 引擎,正快速开启 AI PC 新时代,尤其是 Intel 最近启动了声势浩大的 AI PC 加速计划,鼓励 AI 创新应用,很快就吸引了 100 多家 ISV 软件合作伙伴,开发了 300 多项 AI 加速功能,预计到 2025 年将惠及上亿台 PC。

The End
免责声明:本文内容来源于第三方或整理自互联网,本站仅提供展示,不拥有所有权,不代表本站观点立场,也不构成任何其他建议,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容,不承担相关法律责任。如发现本站文章、图片等内容有涉及版权/违法违规或其他不适合的内容, 请及时联系我们进行处理。

Copyright © 2099 速发财讯 版权所有

苏ICP备2023036119号-2 |——:合作/投稿联系微信:nvshen2168

|—— TXT地图 | 网站地图 |