放大/ AI 生成的机器人图像,它正在观察人工大脑内部。 (信用:稳定扩散)
周二,OpenAI发表了一篇新的研究论文,详细介绍了一种技术,该技术使用其GPT-4语言模型为其较旧的GPT-2模型中的神经元行为编写解释,尽管并不完美。这是“可解释性”向前迈出的一步,“可解释性”是人工智能的一个领域,旨在解释为什么神经网络会产生它们所做的输出。
虽然大型语言模型 (LLM) 正在征服技术世界,但 AI 研究人员仍然对其背后的功能和能力知之甚少。在 OpenAI 论文的第一句话中,作者写道,“语言模型变得更强大,部署更广泛,但我们不明白它们是如何工作的。”
对于局外人来说,这听起来像是一家公司的惊人承认,该公司不仅依赖法学硕士的收入,还希望将他们加速到超越人类的推理能力水平。