训练人工智能系统与养育孩童竟有异曲同工之妙。部分AI研究者开始借鉴儿童通过探索、好奇、渐进学习和正向激励获取知识的方式,来开发新一代人工智能。"当前AI算法的许多缺陷,可以通过借鉴神经科学和儿童发展理论来解决,"罗切斯特大学计算机科学系副教授Christopher Kanan表示。这位专精人工智能、持续学习与脑启发算法的专家指出,要让AI具备类人推理能力——且更快更强——就必须将安全防护机制内置于开发全程,"若等到最后才考虑安全,我们可能释放出怪物"。

通用人工智能的定义与分野

人工智能旨在创建能执行感知、推理、决策等人类特有智能任务的计算机系统。传统AI研究多聚焦于专用人工智能(ANI),如图像识别系统、语音助手或策略游戏程序,这些系统在特定任务上往往表现超群。

而通用人工智能(AGI)则致力于构建像人类一样跨领域理解、推理和学习的系统。实现AGI仍是AI研究的终极目标,目前尚未突破。更遥远的超级人工智能——在几乎所有领域远超人类智能的存在——目前仍属于科幻范畴。

"我们实验室正通过借鉴神经科学和儿童发展理论,推动AI系统像人类儿童般持续学习适应,向AGI迈进。"

AI的学习方式解析

ANI的成功得益于2014年兴起的深度学习技术。通过人类标注的海量数据训练多层神经网络,深度学习已支撑起从计算机视觉、自然语言处理到生物医学研究的现代AI应用。这类系统在图像识别、语言翻译、棋类游戏及内容生成方面表现卓越。

以GPT-4为代表的大语言模型(LLM)采用自监督学习:通过预测文本序列而非人工标注来训练,其训练数据量相当于人类数十万年阅读量。基础训练后还需经过监督微调与基于人类反馈的强化学习(RLHF),以规范输出边界。

AI的卓越能力清单

语言处理:在翻译、写作、文本润色等方面表现优异

应试能力:GPT-4在美国律师考试(90百分位)、LSAT(88百分位)等高端测试中远超人类平均水平

科研辅助:可生成假设、起草研究方案、整合复杂文献

情感智能:研究显示其情商评分甚至高于人类

生成式AI的现存局限

幻觉问题:会自信地生成似是而非的错误信息

认知冻结:训练后知识停止更新,无法持续学习

元认知缺失:缺乏自我觉察能力,鲜少主动澄清模糊指令

渐进学习障碍:无法像人类那样层层递进掌握复杂技能

"人类婴儿需先掌握基础动作控制才能学习行走,而当前LLM完全不具备这种累积式学习能力——这正是我们重点研究的课题。"

AI带来的挑战与风险

职场变革:

对需要专业知识的白领岗位冲击显著

AI助手能使新手快速达到专家水平,可能导致大规模岗位精简

需要创造力、领导力或实体操作的工作短期内难以被取代

安全隐忧:

比起尼克·博斯特罗姆提出的"回形针危机"假说,更需警惕人类恶意使用AI的风险

需加强国际合作、负责任开发与学术安全研究

监管应平衡安全与创新,避免开源生态受挫导致技术垄断

实现AGI的可能性探讨

AI领域三位"教父"——图灵奖得主Yoshua Bengio、Geoffrey Hinton和Yann LeCun——均认同AGI可实现性。Bengio与Hinton近期多次警示AGI可能带来生存危机。但值得注意的是:"现有LLM架构本身不足以实现真正的AGI。"Kanan指出关键差异:"人类思维不依赖语言媒介,而LLM的推理完全建构于语言之上,这从根本上限制了其抽象思维与可视化能力。"

精选文章:

人工智能时代的创意构思:工业设计师Vojtek Morsztyn如何突破创作空白

Genies 推出用户生成内容工具,让任何人都可以创建自定义 AI 头像

十座与全玻璃趋势背道而驰的摩天大楼

2025年米兰设计周指南:不容错过的核心展馆、活动与建筑装置

别只会做普通包装!这4种设计思路让你的作品脱颖而出~