第16章 这些不是很简单吗?

林枫当然知道,自己正在改变世界。

甚至于一开始林枫也有点激动。

不过很快林枫也就恢复平常心了。

因为较真地讲,从林枫重生的第一天开始,林枫就已经在改变着世界了。

因为林枫的到来,这个世界正在一点点地变成林枫的形状。

因此对于马库斯的恭维,林枫只是笑了笑。

“对了,你们还可以关注一下另一件事。”林枫突然说道,“关于网络中的‘注意力机制’你们也可以注意一下,它在未来会在很多领域展现出惊人的威力,尤其是在自然语言处理(NLP)方面。这种机制能让网络更聪明地选择重点关注哪些输入信息,而不是一视同仁地对所有输入进行处理。”

“注意力机制?”马库斯更迷茫了,自然语言处理虽然在2014年也是热门研究方向,但“注意力”这个词在他的印象里一片空白,显然这个还没被用到深度学习领域。

马库斯显然意识到,今天这场对话比他预想的更具启发性。

林枫不经意间的一些观点,很有可能给深度学习领域带来革命性突破。

马库斯此刻觉得他仿佛正在见证一些颠覆性理念的诞生。

他不禁有些激动,忍不住追问道:“林,你刚刚提到的‘注意力机制’……你能多说点吗?你知道,现在的神经网络普遍都是在处理图像、视频数据等结构化信息,但语言这类非结构化数据一直是个棘手的领域。你提到的这个‘注意力’机制,真的能大幅提升自然语言处理的能力?”

林枫笑了笑,心里明白马库斯现在的困惑。

2014年这个时间点上,自然语言处理领域确实还没有完全进入“注意力机制”主导的时代,许多人依旧在用传统的RNN和LSTM(长短期记忆网络)来处理时间序列数据,语言模型的效果虽有进步,但远未达到后来Transformer带来的质变。