
我一直在为客户搭建人工智能代理系统,但遇到了一些困难。我在最近的周记中提到过这个问题,并认为这是因为我习惯了特定类型的计算机,而LLM(逻辑逻辑模型)与我的思维模式不符。
然后我想,我到底在责怪自己什么?
我觉得非技术人员比技术人员更容易和法学硕士(LLM)相处,因为在他们看来,电脑总是能做出他们无法理解的神奇事情。他们把电脑当人看待,并能接受它出现的“幻觉”,因为人都会犯错。
学习逻辑推理(LLM)有很多种方式可以给出错误答案;最常见的是“从概率意义上讲,任何答案的得分都高于零”。
但LLM可能会因为上下文崩溃而失效,即它们“忘记”了对话中先前发生的事情。或者因为本体论上的错误归因,即它们将一件事物误认为另一件事物。又或者因为指令歧义,当它们遇到两条相互冲突的指令时,就会生成乱码——如果其中一条相互冲突的指令出现在LLM的系统提示符中,用户可能永远无法调试问题。
对于人类来说,遗忘、误解和困惑都是可以容忍的,在很多情况下甚至是意料之中的,我们会据此进行纠正。但我们花费了数年时间和金钱来确保计算机不会遗忘,如果它们出现困惑,它们会告诉我们它们感到困惑并需要纠正,而且它们总是告诉我们0.1 + 0.2 = 0.3 (除非是 JavaScript)。
所以,是的,如果你有多年的经验却仍然遇到困难,那很可能不是你的问题,而是伪计算机系统在悄无声息地出现故障,而且这种故障根本无法调试。
这就是未来。
感谢您通过RSS阅读这篇文章!请通过电子邮件[email protected]告诉我您的想法。