手机浏览器扫描二维码访问
n
为什么这么说呢?
2014年,巴拉巴拉等人在lstm基础上,提出了“注意力机制”,解决了传统“序列到序列模型”的瓶颈问题。
这一创新,为2017年出现的transformer架构,埋下伏笔。
而transformer架构,正是后世大模型的核心架构!
同时,lstm在语音识别、机器翻译等领域的成功应用,推动了深度学习框架的优化,以及gpu加速技术的成熟,为大模型时代奠定了工程基础!
提前布局lstm,不仅可帮助极光,在当前建立技术壁垒,更能通过持续迭代演进,为后续切入ai大模型领域,积累宝贵的算法工程经验和数据资产!
而算法和ai,前世今生都是洛川最感兴趣的领