
总部位于巴黎的人工智能测试公司 Giskard 的最新研究表明,向人工智能聊天机器人请求简洁的答案会显着增加他们产生幻觉的倾向。研究发现,领先的模型——包括 OpenAI 的 GPT-4o、Mistral Large 和 Anthropic 的 Claude 3.7 Sonnet——在被指示保持简短回答时会牺牲事实准确性。吉斯卡德研究人员指出:“当被迫保持简短时,模型总是选择简洁而不是准确性。”他解释说,模型缺乏足够的“空间”来承认错误的前提并提供适当的反驳。即使是看似无害的提示(例如“简洁”)也可能会削弱模型揭穿错误信息的能力。
在 Slashdot 上阅读这个故事的更多内容。