好的,抱歉,我只是需要一个可以尖叫的洞。我马上就好。
[吸气]
如果你读过关于当前“人工智能”工具的文章,你最终会遇到“幻觉”这个词。它被用来简写任何软件编造的东西:错误、失误、事实上的失误——谎言。
- 一个“人工智能”支持机器人通知用户公司服务条款的变更——这实际上并没有发生?幻觉。
- 一些律师事务所利用“人工智能”提交了一份充斥着“虚假、不准确和误导性”引文的诉讼摘要?这只是幻觉。
- 右翼社交媒体网站上的聊天机器人竟然开始散布种族主义阴谋论,即便没人问起?这简直是幻觉。
我想提出一个语义上的疑问。
这些“人工智能”平台的一切——一切——都只是“幻觉”。简而言之,这些服务就像内容老虎机。它们玩的是概率游戏:当你向大型语言模型提问时,它会根据训练数据中分析出的趋势和模式返回答案。1这些平台不知道自己什么时候出错;当然也不知道自己什么时候做对。假设一个“人工智能”平台知道真假之分,就像假设鸽子会打篮球一样。它天生就不适合打篮球。
我并非第一个提出这个观点的人。但在我看来,当我们使用那些资助和销售这些所谓工具的人提出的术语时——这些人非常希望我们相信这些机器能够辨别真假——我们实际上是在参与另一种幻觉。
而且情况还要糟糕得多。