我认为自注意力机制是人类已经理解了事物之间的关系,然后你通过这些关系进行学习。 所以它仍然是由人类标注的,只不过这种标注是隐式的,而不是显式的。
区别在于
在监督学习时代,我们的学习任务受到更 WhatsApp 号码数据 多限制。我们必须设计出一套我们想要发现的概念本体论。 比如在 ImgeNet 中,和她的学生们花了很多时间思考 ImgeNet 挑战赛中的一千个类别应该是什么。而在同时期的其他数据集,如用于目标检测的OO数据集,他们也花了很多心思去决定放入哪些个类别。 那么让我们谈谈生成式 。当我攻读博士学位的时候,在你们出现之前,我上过 ndrew Ng 的机器学习课程,还学过 Dne er 非常复杂的贝叶斯课程,对我来说这些都很复杂。 当时的很多内容都是预测建模。我还记得你解锁了整个视觉领域的东西,但是生成式 大约是在过去四年中才出现的。这对我来说是一个完全不同的领域——你不再是识别物体,也不是在预测什么,而是在生成新的东西。
所以也许我们可以谈谈是什么关键因素让生成式 得以实现,它和之前的不同之处,以及我们是否应该以不同的方式去看待它,它是否是一个连续发展的部分还是另一个全新的领域? Feifei i 这非常有趣,即使在我研究生时代,生成模型就已经存在了。
我们当时
想做生成,只不过没人记得了,即使是用字母和数字做生成,我们也在尝试一些事情。Jeff inton 当时有一些关于生成的论文,我们也在思考如何生成。 实际上,如果你从 亚作品”的人不需要上个月或今年发 概率分布的角度来看,数学上是可以进行生成的,只是当时生成的东西根本无法让人感到惊艳。所以,尽管从数学理论上来看生成的概念是存在的,但实际上没有任何生成效果让人感到满意。 然后我想特别提到一位博士生,他在深度学习方面有着浓厚的兴趣,来到了我的实验室。
这个博士
生的整个博士学习经历几乎可以说是这个领域发展 美国电话列表 轨迹的缩影。 他的第,我逼着他做,尽管他不喜欢,但事后他也承认学到了很多有用的东西。“现在我很高兴你能这么说。”于是我们转向深度学习,核心问题是如何从图像生成文字。实际上,这个过程中有三个明确的阶段。 第一个阶段是将图像和文字进行匹配。