第143章 太恐怖了叭。。&拿下!
为什么这么说呢?
2014年,巴拉巴拉等人在lstm基础上,提出了“注意力机制”,解决了传统“序列到序列模型”的瓶颈问题。
这一创新,为2017年出现的transformer架构,埋下伏笔。
而transformer架构,正是后世大模型的核心架构!
同时,lstm在语音识別、机器翻译等领域的成功应用,推动了深度学习框架的优化,
以及gpu加速技术的成熟,为大模型时代奠定了工程基础!
提前布局lstm,不仅可帮助极光,在当前建立技术壁垒,更能通过持续叠代演进,为后续切入ai大模型领域,积累宝贵的算法工程经验和数据资產!
而算法和ai,前世今生都是洛川最感兴趣的领域!
同时,如果能提前掌握sltm和transformer架构,还可推动国內gpu厂商的研发进度。
比如,入股一家或几家国產gpu厂商,向他们开放模型底层优化需求,推动专用定製晶片的合作研发,从而实现硬体-算法协同优化。
同时联合中芯国际等厂商,推动国產65nm/45nm工艺与gpu架构同步开发。
此时的中芯国际,已经具备生產65nm工艺的能力了。
45nm產品刚刚通过良率测试,还需要一段时间才能进入量產阶段。
这也是当前全球gpu厂商,普遍採用的工艺。
比如英伟达的8200和9800系列,採用的就是65nm工艺。
之后,通过在悠米社区、悠米视频、微博、云计算平台等高频场景,部署基於国產gpu的lstm/transformer模型,验证性能指標,数据持续反哺硬体研发。
其二,基於极光云计算平台,开发类似於英伟达cuda的国產並行计算架构,
向开发者开放支持国產gpu的通用计算api,同时提供免费的开发工具链、教程等,建立开发者社区,构建生態系统。
跟悠米社区的开放平台战略十分类似。
cuda是英伟达於06年推出的,並行计算平台与编程模型。
最初是给游戏开发者用的,但却意外打破了gpu的专用性。
使得gpu从单纯的图形渲染工具,转变为通用计算设备。
如ai训练、科学模擬等。
后世,大模型风潮爆发之后,cuda意外成为了ai领域的“作业系统”。
全球90%的ai模擬训练,都是基於cuda。
不过在此时,cuda生態还很稚嫩,英伟达也还没意识到其中的潜力,还是很有机会追赶的。
这就是掛壁的优势同时,洛川还可通过开发重度3d游戏,强制要求游戏引擎深度適配国產gpu的方式,
联合国內的gpu厂商,利用游戏场景的实时渲染需求,强行推动gpu厂商,优化显存带宽、
光线追踪、动態频率调整等技术。
这几项游戏领域的技术,同样也都可应用在ai领域。
比如光线追踪技术,用在游戏里可提升画质,之后却被优化为ai模型的“稀疏计算”,可有效提升ai计算晶片的效率。
动態频率调整技术,用在游戏显卡里,是为了平衡性能与功耗;被移植到数据中心g
pu上,却可降低at训练成本。
而当gpu厂商技术达標之后,还可顺势推出“国產gpu游戏特供版”,通过游戏热度带动销量,反哺硬体研发。
英伟达的gpu,性能领先全球,有很大一部分原因是,初期做游戏显卡,为他们积累了大量的用户和市场份额。
这意味著,英伟达有更多的资金投入研发,更大的用户技术来测试和反馈,从而推动技术更快进步,与竞品拉开差距。
也因此,抢占消费级市场,还是很有必要的。
本章未完,点击下一页继续阅读。(1 / 2)