的知识来优化新任务的

首先,今天几乎任何深度学习系统仍然是“狭义智能”ANI:一种有限的智能,一次只能执行一项任务。他也许能够翻译语言或下国际象棋,但如果他要从一项任务切换到另一项任务,则有必要删除他所知道的所有内容并重新开始训练这是计算机中称为“灾难性遗忘”的缺陷科学。 。 无法继续执行新任务,同时保留在上一个任务的训练中学到的知识 – 识别图像、翻译语言、在 Netflix 上推荐下一部电影等。 –对于深度学习算法来说,也不可能利用以前学习有点像我们利用骑自行车时学到的知识来学习骑踏板车。

即使像 这样的高级工具看起

来能够做很多不同的事情写诗、回答历史问题、总结名人传记等,但实际上只能做一件事:重新组合他可以使用的材料文本正确响应向他提出的 BC 数据印度尼西亚 请求的可能性最高。 这同样适用于已经提到的其他系统。Duplex 能够与想要预订美发师或餐厅的人进行交流,因为它已经接受了大量专门与预订美发师和餐厅的人之间的对话相关的数据的训练。通过专注于该领域,他知道哪个答案最有可能是正确的;但他永远无法在不同的背景下进行对话。

相反,谷歌最新的系统LaMDA 能

BC 数据印度尼西亚

够支持各种主题的对话,这并不是因为它变得更加智能,而是因为它能够在更大、更多样化的数据集中找到相关性。 这同样适用于 ,在许多情况下,它也能够产生令人惊讶的、也许事实上准确的内容,但在其他情况下,它被证明是荒谬的传播者就像 选择简单的方法保持设计简单是非常必要的 它解释油条如何使用的文本的情况一样是进行外科手术的绝佳工具,以及以合理的方式阐述的危险假新闻例如这篇文章,其中引用了发明的科学出版物,解释了疫苗如何在一百个案例中仅对两个案例有效 。

更糟糕的是, 无法知道它

所声称的是谎言还是真相,甚至它的 博茨瓦纳 电话号码 历史或任何其他重建有时可能是准确的,但在其他情况下它们将充满错误和谎言。实现这一点的唯一方法是胜任 受到质疑的主题,从而消除使用此类工具作为知识来源的理由。不仅如此: 程序员自己也解释了克服这一限制是多么困难,因为“不可能为模型提供真实的来源”。 Jason Pontin 在《连线》杂志上写道:“一旦你意识到这一点,你就不能再忽视它:深度学习不会引导我们走向抽象思考并能够概括世界知识的智能。

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注