你这是什么逻辑?
来源:赛先生公众号 爱 好奇 6个月前(11-15) 319浏览 0评论
尽管神经元网络对很多专门问题的确非常有效,但仍未解决通用智能系统的核心问题。因为 “思维” (或称其为 “智能” 、 “认知” 等等)不能被简单看成用数据拟合一个函数。本文试图说明,为什么仍有理由认为思维遵循某种 “逻辑” ,但这种逻辑不是 “经典逻...
来源:赛先生公众号 爱 好奇 6个月前(11-15) 319浏览 0评论
尽管神经元网络对很多专门问题的确非常有效,但仍未解决通用智能系统的核心问题。因为 “思维” (或称其为 “智能” 、 “认知” 等等)不能被简单看成用数据拟合一个函数。本文试图说明,为什么仍有理由认为思维遵循某种 “逻辑” ,但这种逻辑不是 “经典逻...
来源:返朴公众号 爱 好奇 6个月前(11-15) 226浏览 0评论
大语言模型很有用,但不能解决人工智能的基本问题,包括推理。 撰文 | 王培(美国天普大学计算机系) 自从ChatGPT在两年前横空出世,各种大语言模型一次又一次地刷新人们的认知,以至于连 “通用人工智能即将到来” 都从狂人呓语成了陈词滥调,已经不足以...
来源:机器之心公众号 爱 好奇 6个月前(11-14) 380浏览 1评论
方向完全搞错了? 大语言模型(LLM)为什么空间智能不足,GPT-4 为什么用语言以外的数据训练,就能变得更聪明?现在这些问题有 「标准答案」了。 近日,一篇麻省理工学院(MIT)等机构发表在顶级学术期刊《自然》杂志的文章观察到,人类大脑生成和解析语...
来源:知识分子公众号 爱 好奇 6个月前(11-12) 344浏览 0评论
图源:Freepik 为了更好地启发灵感,计算机科学中喜欢用一些描述人类大脑活动的术语如:“记忆”、“学习”、“神经网络”、“突触”、“偏见”,甚至,“梦”和“幻觉”等,但需要警惕的是,这些术语在人工智能的语境中,与日常语言中的含义是不同的。 撰文 ...
来源:孤独大脑公众号 爱 好奇 6个月前(11-10) 370浏览 0评论
脑力的终点是体力; 体力的巅峰是脑力。 你要来一千亿Token吗? “论理你跟我该彼此早认识了,”他说,拣了最近壁炉的凳子坐下:“我就是ChatGPT;你曾经见过我的表叔Alpha Go。” “不过,你是个聪明人,虽然冒着傻气!”他说时泛出同情的微笑...
来源:澎湃新闻科技频道公众号 爱 好奇 6个月前(11-02) 272浏览 0评论
世界模型的灵感源于人类自然形成的世界心智模型。我们通过感官获取的抽象信息在大脑中被转化为对周围世界的具象理解;这些“模型”早在人类开始研究AI之前就已存在。基于这些模型,我们的大脑对世界进行预测,从而影响我们的感知和行动。 尽管这一概念令人振奋,但仍...
编辑:Aeneas 好困 【新智元导读】Transformer解决了三体问题?Meta研究者发现,132年前的数学难题——发现全局李雅普诺夫函数,可以被Transformer解决了。「我们不认为Transformer是在推理,它可能是出于对数学问题的...
来源:龙叔聊AI公众号 爱 好奇 6个月前(10-28) 304浏览 0评论
前阵子龙叔与几个老朋友聚会,大家聊起最近火爆的ChatGPT和各种AI应用,有人信誓旦旦地说AI马上就要替代人类了,也有人嗤之以鼻说这就是炒作。听着他们争论,我不由自主地想起了一句经典名言:新技术总是在短期内被高估,在长期中被低估。那么我们今天就来老...
来源:腾讯研究院公众号 爱 好奇 6个月前(10-26) 236浏览 0评论
以下文章来源于追问nextquestion 作者:郭瑞东 在一个平凡的夜晚,当你结束了一天的工作,打开电脑准备开始一场游戏时,随着加载进度条完成,一个虚拟世界呈现在屏幕上。 你沉浸其中,忽见一只蚂蚁缓缓爬过屏幕。刹那间,脑海中浮现起曾读过的小说《三体...
来源:AI科技评论公众号 爱 好奇 6个月前(10-23) 257浏览 0评论
小模型干大事,DeepMind重新审视Transformer推理能力。 作者丨刘洁 编辑丨岑峰 DeepMind闷声干大事,悄悄训练了一个大小只有270M的Transformer模型,居然不需要搜索,就能实现大师级的下棋水平。 这几天的推特因为这篇2...
来源:科学杂志1915公众号 爱 好奇 6个月前(10-18) 309浏览 0评论
作者:陈家乐 董雪莲 林良红 陈自力 郝天永 在人工智能(artificial intelligence, AI)的宏伟画卷上,大模型如同绚烂的星辰,照亮了技术的未来,不仅重塑了人们对技术的认知,更在无数行业中悄然引发变革。然而,这些智能技术并非完美...
作者:陈永伟 北京时间10月14日,2024年诺贝尔经济学奖揭晓,达龙·阿西莫格鲁(Daron Acemoglu), 西蒙·约翰逊(Simon Johnson)和詹姆斯·A·罗宾逊(James A. Robinson)获奖。本文介绍了得主之一阿西莫格...
人类能为自己的创造力负责吗?我是说人类能预见或设计自己科技的发展方向吗?科学技术的发展方向和速度有没有可能已经超出我们的掌控范围了? 据说普罗米修斯在古希腊语中是“先知先觉”的意思,他还有一个弟弟叫埃庇米修斯,意思正好是“后知后觉”,他们的宿敌宙斯为...
大语言模型(LLM)是真的会数学推理?还是只是在“套路”解题? 近年来,大语言模型在各种任务中的表现引起广泛关注。一个核心问题逐渐浮现:这些模型是否真正具备逻辑推理能力,还是仅仅通过复杂的模式匹配来应对看似推理的问题?尤其是在数学推理任务中,模型的表...
来源:追问nextquestion公众号 爱 好奇 7个月前(10-12) 361浏览 0评论
今年的诺贝尔物理学奖授予了利用物理学工具奠定现代机器学习基础的研究者。John Hopfield(约翰·霍普菲尔德)创建了一种可以存储和重建信息的模型结构,Geoffrey Hinton(杰弗里·辛顿)发明了一种能够独立发现数据特征的方法,这种方法对...
AI幻觉,简单来说,是指人工智能系统(自然语言处理模型)生成的内容与真实数据不符,或偏离用户指令的现象,就像人类说“梦话”一样~ 那么AI幻觉有哪些?是什么原因产生的?我们该如何避免AI幻觉呢?图片 1、AI会产生什么样的幻觉? 可能有的小伙伴说:“...
来源:孤独大脑公众号 爱 好奇 7个月前(10-03) 321浏览 0评论
“一些未知的东西正在做我们不知道的事情。” 阿瑟·爱丁顿 “为何不尝试制作一个模拟儿童思维的程序呢?” 艾伦·图灵 “只要是人脑能提出的问题,它就能够得到解决。” 库尔特·哥德尔 开始 传说中的扫地僧,在现实中极其罕见...
来源:孤独大脑公众号 爱 好奇 7个月前(10-02) 287浏览 0评论
“一些未知的东西正在做我们不知道的事情。” 阿瑟·爱丁顿 “为何不尝试制作一个模拟儿童思维的程序呢?” 艾伦·图灵 “只要是人脑能提出的问题,它就能够得到解决。” 库尔特·哥德尔 开始 1、有人说,ChatGPT是个文...
从AlphaGo到AlphaFold3,人工智能技术经历了充满挑战与机遇的发展历程,对社会、科研和商业都产生了深远的影响。在本文中,中欧国际工商学院管理学副教授杨蔚分析了大模型技术如ChatGPT面临的挑战,包括技术、应用场景和商业化模式的不确定性,...
人们已处在新时代到来前夜。 美国当地时间9月23日,OpenAI首席执行官Sam Altman罕见地正式发表了一篇题为《智能时代》的文章,描述了人工智能加速人类进步的图景,“我们可能在几千天内就会迎来超级智能。虽然这可能需要更长的时间,但我相信我们最...