不会为言模考盲区型的向思大语致命总学什么反
最近在AI圈里流传着一个让人啼笑皆非的现象:我让GPT-3和Llama学习"张三就是李四"这样简单的知识,结果当反过来问"李四是谁"时,AI竟然一脸茫然。这就像你教孩子"妈妈叫王芳",然后问"王芳是谁",孩子却完全不知道答案一样荒谬。 研究人员给这个现象起了个很有噱头的名字——"逆转诅咒"(Reversal Curse)。简单来说,就是大语言模型在学会"A是B"后,竟然无法自然而然地反向推导出"B是A"。这不禁让人怀疑:我们天天夸AI聪明,结果它连最基本的逻辑对称性都搞不定? 举个例子,当我用"汤姆・克鲁斯的母亲是Mary Lee Pfeiffer"训练AI后,AI可以顺利回答"汤姆・克鲁斯的母亲是谁",但当我问"Mary Lee Pfeiffer的儿子是谁"时,AI就傻眼了。这就像一个人能记住"北京是中国的首都",却不知道"中国的首都是北京"一样离谱。 说起来挺讽刺的,这些花费数亿美元训练的大模型,在学习简单逻辑关系时表现得像个固执的孩子。研究人员测试了从GPT-3到Llama的各种模型,发现它们全都"中招"了。更扎心的是,这个问题与模型规模、训练数据量都没有明显关系。 我个人觉得,这可能暴露了大语言模型一个本质缺陷——它们其实并不真正"理解"知识,只是在玩概率游戏。就像背课文一样,只记住了"从前有座山"的下文是"山上有座庙",但如果反过来问"庙在哪座山上",就完全摸不着头脑了。 为了验证这个问题,研究人员做了个很有意思的实验:用虚构的名人和作品关系来训练AI。比如"Daphne Barrington是《穿越时空》的导演",训练后的AI可以准确回答"Daphne Barrington是谁",但当问"谁导演了《穿越时空》"时,准确率直接归零。 更有意思的是,在名人亲子关系的测试中,GPT-4能正确识别79%的名人父母,但反过来识别父母对应的子女时,准确率暴跌到33%。这不禁让人怀疑:AI是不是也患上了"脸盲症"? 目前学界还没有定论,但有几个可能的解释: 1. 训练机制问题:大模型在训练时只考虑单向预测,没有强制建立双向关联。就像我们背单词时只记"apple-苹果",没练习"苹果-apple"一样。 2. 知识存储方式:AI的知识可能是"碎片化"存储的,缺乏人类那种网状关联的记忆结构。 3. 概率思维局限:大模型更擅长计算"看到A后出现B的概率",而非建立"A和B互为因果"的逻辑关系。 OpenAI的科学家Andrej Karpathy说得一针见血:"LLM学到的知识比我们想象的零散得多。"这让我想起小时候玩的拼图游戏——AI似乎只能按固定方向拼图,转个角度就认不出来了。 这个发现给如火如荼的AI热潮浇了盆冷水。它提醒我们: - 大模型可能远没有达到真正的"智能"水平 - 当前的训练方式存在系统性缺陷 - 简单增加模型规模未必能解决根本问题 不过话说回来,这个"逆转诅咒"也让我们重新思考:人类的学习方式中,哪些是AI尚未掌握的精华?也许未来的突破点不在于更大的数据集,而在于如何让AI真正"理解"知识的双向关系。 这就像教孩子学习时,我们不会只让ta死记硬背,而是会通过反复提问、换位思考来建立完整的认知框架。或许,AI也需要类似的教学方法?什么是"逆转诅咒"?
问题到底出在哪里?
实际测试结果令人忧心
为什么会出现这种现象?
这对AI发展意味着什么?
- 最近发表
- 随机阅读
-
- Layer2代币真的值这么多钱吗?我来说几句大实话
- 艺术与区块链的完美邂逅:波场TRON携手顶级基金会打造巴黎艺术盛宴
- 2023年9月23日区块链行业热点全解析
- 当锌铁液流电池登上国家级榜单,新能源市场将迎来哪些变革?
- 咖啡与代码:一个乌克兰移民如何用一杯浓缩咖啡的时间颠覆区块链世界
- 加密市场持续升温:比特币剑指2.8万,Phaver社交应用开启Web3新玩法
- 币市迷局:9月行情震荡中的投资智慧
- 传奇投资大佬罕见发声:我在全力做空美元,这是我45年来最困惑的时刻
- 跟着小神玩转加密货币,5000美元收益轻松到手
- 敦煌数字宝藏惊艳全球:区块链如何让千年壁画活起来
- 以太坊触底反弹?市场正在酝酿惊喜
- 2024年牛市将至:AI时代下Filecoin的逆袭之路
- 市场情绪与行情真相:当慢牛遇上投资者的心魔
- 大咖预测:比特币何时迎来下一轮疯狂牛市?
- 比特币行情实况:9月20日交易策略全解析
- LOOKS代币:NFT市场的黑马还是过客?
- 一位刑事律师的真实办案手记:当虚拟货币遇上非法经营罪
- WEB3时代下,XenithQuant如何用AI改写数字资产交易规则?
- 深度解析:2023香港《施政报告》或将带来哪些Web3惊喜?
- 元宇宙产业迎来关键三年:工业领域或将率先突围
- 搜索
-