我试图向一位朋友解释,“AI 概览”和其他 AI 的文字回复不可信,AI 会产生幻觉。他们说了类似“我确定它不是从屁股里掏出来的”之类的话。这很难解释。
昨晚,他们给我发了一段熊在蹦床上跳跃的视频——不过整个视频都是AI生成的。我们讨论了这个问题,以及它如何让人感到不安,而且仔细一看就一目了然。
一切豁然开朗。AI 视频的生成方式与 AI 文本响应的生成方式相同。Bear 视频并非 AI 视频档案中的视频展示,而是对视频可能呈现内容的近似生成。
同样,当人工智能给你文本时,它不是在记忆或从知识库中提取。它不是在理解主题和语言。它不是在重复它所知道的东西。它是根据你的提示和它训练过的海量数据来生成文本。
虽然生成的图像可能非常令人信服,有时甚至是完美的,生成的视频也是如此,但人们固有的认识是它们仍然是假的,视频和图像不是真实的,不是属于世界的,而是由计算机算法创造的虚构。
但是,当生成的内容是文本、是语言,并且自信地表述出来时,它就会给人一种事实、被记住、可靠的错觉。
文本回复通常准确无误,但有时并非如此。在这两种情况下,你处理的都是文本生成,而不是对主题的理解,不是人类的智能,也不是知识。
人工智能能够进行令人信服的对话,这不禁让人怀疑“它有意识吗?”但这也只是一种幻觉。它根据输入、提示和数学算法生成对话。但它看起来与真实对话如此相似,如此令人信服,以至于它可以欺骗我们。
这种虚假对话的说服力,和人工智能生成的图像一样。不过,通过图片和视频,我们常常能发现一些细微之处(比如球移动方向不对、多了一根手指等等),从而判断对话的虚假程度。
文本虽然更有说服力,但即使准确,也并不真实。
PS AI 概述无疑很有用。尤其是对于那些坦白说无关紧要或很容易验证的话题——比如你需要帮助解决一个崩溃的电子游戏。但这并不意味着它们值得信任,尤其是在处理任何重要的事情时,比如法律摘要或对政客进行事实核查。
附言:当我使用人工智能生成代码时,幻觉和虚假对我来说非常明显。因为它们确实会生成代码,但通常不起作用。但人工智能总是认为它生成的代码是正确的。因为它实际上并不理解代码,它只是在生成文本。
再说一句,虽然我不相信人工智能可以用于事实核查或研究,但我确实认为人工智能可以作为一个起点,尤其是在你刚接触的领域。它可以说一些废话,然后你可以对它说的内容进行一些实际的研究。
原文: https://reedybear.bearblog.dev/parallels-between-ai-video-and-ai-text-its-all-fake/