训练人工智能系统与养育孩童竟有异曲同工之妙。部分AI研究者开始借鉴儿童通过探索、好奇、渐进学习和正向激励获取知识的方式,来开发新一代人工智能。"当前AI算法的许多缺陷,可以通过借鉴神经科学和儿童发展理论来解决,"罗切斯特大学计算机科学系副教授Christopher Kanan表示。这位专精人工智能、持续学习与脑启发算法的专家指出,要让AI具备类人推理能力——且更快更强——就必须将安全防护机制内置于开发全程,"若等到最后才考虑安全,我们可能释放出怪物"。
通用人工智能的定义与分野
人工智能旨在创建能执行感知、推理、决策等人类特有智能任务的计算机系统。传统AI研究多聚焦于专用人工智能(ANI),如图像识别系统、语音助手或策略游戏程序,这些系统在特定任务上往往表现超群。
而通用人工智能(AGI)则致力于构建像人类一样跨领域理解、推理和学习的系统。实现AGI仍是AI研究的终极目标,目前尚未突破。更遥远的超级人工智能——在几乎所有领域远超人类智能的存在——目前仍属于科幻范畴。
"我们实验室正通过借鉴神经科学和儿童发展理论,推动AI系统像人类儿童般持续学习适应,向AGI迈进。"
AI的学习方式解析
ANI的成功得益于2014年兴起的深度学习技术。通过人类标注的海量数据训练多层神经网络,深度学习已支撑起从计算机视觉、自然语言处理到生物医学研究的现代AI应用。这类系统在图像识别、语言翻译、棋类游戏及内容生成方面表现卓越。
以GPT-4为代表的大语言模型(LLM)采用自监督学习:通过预测文本序列而非人工标注来训练,其训练数据量相当于人类数十万年阅读量。基础训练后还需经过监督微调与基于人类反馈的强化学习(RLHF),以规范输出边界。
AI的卓越能力清单
语言处理:在翻译、写作、文本润色等方面表现优异
应试能力:GPT-4在美国律师考试(90百分位)、LSAT(88百分位)等高端测试中远超人类平均水平
科研辅助:可生成假设、起草研究方案、整合复杂文献
情感智能:研究显示其情商评分甚至高于人类
生成式AI的现存局限
幻觉问题:会自信地生成似是而非的错误信息
认知冻结:训练后知识停止更新,无法持续学习
元认知缺失:缺乏自我觉察能力,鲜少主动澄清模糊指令
渐进学习障碍:无法像人类那样层层递进掌握复杂技能
"人类婴儿需先掌握基础动作控制才能学习行走,而当前LLM完全不具备这种累积式学习能力——这正是我们重点研究的课题。"
AI带来的挑战与风险
职场变革:
对需要专业知识的白领岗位冲击显著
AI助手能使新手快速达到专家水平,可能导致大规模岗位精简
需要创造力、领导力或实体操作的工作短期内难以被取代
安全隐忧:
比起尼克·博斯特罗姆提出的"回形针危机"假说,更需警惕人类恶意使用AI的风险
需加强国际合作、负责任开发与学术安全研究
监管应平衡安全与创新,避免开源生态受挫导致技术垄断
实现AGI的可能性探讨
AI领域三位"教父"——图灵奖得主Yoshua Bengio、Geoffrey Hinton和Yann LeCun——均认同AGI可实现性。Bengio与Hinton近期多次警示AGI可能带来生存危机。但值得注意的是:"现有LLM架构本身不足以实现真正的AGI。"Kanan指出关键差异:"人类思维不依赖语言媒介,而LLM的推理完全建构于语言之上,这从根本上限制了其抽象思维与可视化能力。"
精选文章:
人工智能时代的创意构思:工业设计师Vojtek Morsztyn如何突破创作空白
Genies 推出用户生成内容工具,让任何人都可以创建自定义 AI 头像