我目前正在阅读使用Python的深度学习,我不知道作者在第42页上想说的是什么。链接是here
更一般地说,您可以在高维张量之间采用点积,遵循与之前针对2D情况所述的形状兼容性相同的规则:
(a, b, c, d) . (d,) -> (a, b, c) (a, b, c, d) . (d, e) -> (a, b, c, e)
不知道他在这里想说些什么。我确实理解矩阵乘法是如何工作的,但上面两行代码并不清楚。
按照这种表示法,矩阵乘法是
(a, b) * (b, c) -> (a, c)
当第二个矩阵是向量时,它简化为
(a, b) * (b, ) -> (a, )
现在,本书中的公式简单地解释了当第一个或第二个矩阵具有额外维度时如何扩展此操作。重要的是两者都有匹配的维度(最后的暗淡= =第一个暗淡,没有重塑),张量可以乘以它,从而消除了这个维度。因此,结果形状的公式:
(a, b, c, d) * (d, e) -> (a, b, c, e)