返回第143章 太恐怖了叭。。&拿下!  重回05,从校内网开始狂卷!首页

关灯 护眼     字体:

上一章 目录 下一页

最新网址:m.92yanqing.com

第143章 太恐怖了叭。。&拿下!

为什么这么说呢?

2014年,巴拉巴拉等人在lstm基础上,提出了“注意力机制”,解决了传统“序列到序列模型”的瓶颈问题。

这一创新,为2017年出现的transformer架构,埋下伏笔。

而transformer架构,正是后世大模型的核心架构!

同时,lstm在语音识別、机器翻译等领域的成功应用,推动了深度学习框架的优化,

以及gpu加速技术的成熟,为大模型时代奠定了工程基础!

提前布局lstm,不仅可帮助极光,在当前建立技术壁垒,更能通过持续叠代演进,为后续切入ai大模型领域,积累宝贵的算法工程经验和数据资產!

而算法和ai,前世今生都是洛川最感兴趣的领域!

同时,如果能提前掌握sltm和transformer架构,还可推动国內gpu厂商的研发进度。

比如,入股一家或几家国產gpu厂商,向他们开放模型底层优化需求,推动专用定製晶片的合作研发,从而实现硬体-算法协同优化。

同时联合中芯国际等厂商,推动国產65nm/45nm工艺与gpu架构同步开发。

此时的中芯国际,已经具备生產65nm工艺的能力了。

45nm產品刚刚通过良率测试,还需要一段时间才能进入量產阶段。

这也是当前全球gpu厂商,普遍採用的工艺。

比如英伟达的8200和9800系列,採用的就是65nm工艺。

之后,通过在悠米社区、悠米视频、微博、云计算平台等高频场景,部署基於国產gpu的lstm/transformer模型,验证性能指標,数据持续反哺硬体研发。

其二,基於极光云计算平台,开发类似於英伟达cuda的国產並行计算架构,

向开发者开放支持国產gpu的通用计算api,同时提供免费的开发工具链、教程等,建立开发者社区,构建生態系统。

跟悠米社区的开放平台战略十分类似。

cuda是英伟达於06年推出的,並行计算平台与编程模型。

最初是给游戏开发者用的,但却意外打破了gpu的专用性。

使得gpu从单纯的图形渲染工具,转变为通用计算设备。

如ai训练、科学模擬等。

后世,大模型风潮爆发之后,cuda意外成为了ai领域的“作业系统”。

全球90%的ai模擬训练,都是基於cuda。

不过在此时,cuda生態还很稚嫩,英伟达也还没意识到其中的潜力,还是很有机会追赶的。

这就是掛壁的优势同时,洛川还可通过开发重度3d游戏,强制要求游戏引擎深度適配国產gpu的方式,

联合国內的gpu厂商,利用游戏场景的实时渲染需求,强行推动gpu厂商,优化显存带宽、

光线追踪、动態频率调整等技术。

这几项游戏领域的技术,同样也都可应用在ai领域。

比如光线追踪技术,用在游戏里可提升画质,之后却被优化为ai模型的“稀疏计算”,可有效提升ai计算晶片的效率。

动態频率调整技术,用在游戏显卡里,是为了平衡性能与功耗;被移植到数据中心g

pu上,却可降低at训练成本。

而当gpu厂商技术达標之后,还可顺势推出“国產gpu游戏特供版”,通过游戏热度带动销量,反哺硬体研发。

英伟达的gpu,性能领先全球,有很大一部分原因是,初期做游戏显卡,为他们积累了大量的用户和市场份额。

这意味著,英伟达有更多的资金投入研发,更大的用户技术来测试和反馈,从而推动技术更快进步,与竞品拉开差距。

也因此,抢占消费级市场,还是很有必要的。

本章未完,点击下一页继续阅读。(1 / 2)

『加入书签,方便阅读』

上一章 目录 下一页