okex欧易交易所封面图

okex欧易交易所

okex欧易交易所是国内最大的数字货币交易所,现在注册永久免20%手续费!

官网注册

人工智能可以诊断疾病、写诗,甚至开车,但它仍然难以理解一个简单的词:"不"。这个盲点可能在现实世界的应用中造成严重后果,比如在医疗保健领域的人工智能。

根据麻省理工学院博士生Kumail Alhamoud领导的一项新研究,与OpenAI和牛津大学合作,未能理解"不"和"非"可能会产生深远的后果,尤其是在医疗环境中。

否定(例如,"无骨折"或"未放大")是一个关键的语言功能,尤其是在医疗等高风险环境中,误解它可能导致严重的伤害。研究表明,当前的人工智能模型(如ChatGPT、Gemini和Llama)常常无法正确处理否定陈述,而是倾向于默认为正面关联。

核心问题不仅仅是缺乏数据;而是人工智能的训练方式。大多数大型语言模型是为识别模式而构建的,而非逻辑推理。这意味着它们可能会将"不好"解释为仍然有些积极,因为它们将"好"与积极性联系起来。专家认为,除非模型被教导通过逻辑推理,而不仅仅是模仿语言,否则它们将继续犯微小但危险的错误。

零知识基础设施公司Lagrange Labs的首席研究工程师Franklin Delehelle告诉Decrypt:"人工智能非常擅长生成与训练期间看到的类似的响应。但它很难提出真正新的或训练数据之外的东西。因此,如果训练数据缺乏说"不"或表达负面情绪的强有力示例,模型可能难以生成那种响应。"

在研究中,研究人员发现,旨在解释图像和文本的视觉语言模型表现出更强的肯定陈述偏见,经常无法区分正面和负面标题。

研究人员表示:"通过合成否定数据,我们为更可靠的模型提供了一个有希望的途径。虽然我们的合成数据方法改进了否定理解,但挑战仍然存在,尤其是在细微的否定差异方面。"

尽管在推理方面取得了持续进展,但许多人工智能系统仍然难以进行类似人类的推理,尤其是在处理开放性问题或需要更深入理解或"常识"的情况时。

Delehelle告诉Decrypt:"所有大型语言模型——我们现在通常称之为人工智能——在某种程度上受到其初始提示的影响。当你与ChatGPT或类似系统交互时,系统不仅仅是使用你的输入。还有一个内部或'内部'提示,是公司预先设置的——这是你作为用户无法控制的。"

Delehelle强调了人工智能的一个核心局限性:它依赖于训练数据中发现的模式,这种约束可能会塑造并有时扭曲其响应方式。

斯坦福大学深度学习兼职教授、技能智能公司Workera的创始人Kian Katanforoosh表示,否定的挑战源于语言模型运作方式的根本缺陷。

Katanforoosh告诉Decrypt:"否定是出奇复杂的。像'不'和'非'这样的词会颠倒句子的含义,但大多数语言模型并不通过逻辑推理——它们只是根据模式预测什么听起来可能。这使它们容易在涉及否定时错过要点。"

Katanforoosh还指出,呼应Delehelle的观点,人工智能模型的训练方式是核心问题。

"这些模型是被训练用于关联,而非推理。所以当你说'不好'时,它们仍然强烈地将'好'这个词与正面情绪关联,"他解释道。"与人类不同,它们并不总是能够覆盖这些关联。"

Katanforoosh警告说,无法准确解释否定不仅仅是技术缺陷——它可能在现实世界中产生严重后果。

"理解否定对于理解至关重要,"他说。"如果一个模型不能可靠地掌握它,你就会冒着微妙但关键的错误风险——尤其是在法律、医疗或人力资源应用等用例中。"

尽管扩大训练数据看似是一个简单的解决方案,但他认为解决方案在别处。

"解决这个问题不在于更多数据,而在于更好的推理。我们需要能够处理逻辑的模型,而不仅仅是语言,"他说。"现在的前沿是:将统计学习与结构化思维结合起来。"

编辑:James Rubin

The End

文章声明:以上内容(如有图片或视频亦包括在内)除非注明,否则均为谈天说币原创文章,转载或复制请以超链接形式并注明出处。

上一篇 下一篇

相关阅读