ChatGPT 的突破主要在于规模带来的质变和模型调教方式的发明。 LLM 融合了实现人工智能的三条路径。 LLM 的开发需要结合第三者体验和第一者体验。 LLM 能近似生成心智语言。 LLM 需要与多模态大模型结合,以产生对世界的认识。 LLM 本身不具备逻辑推理能力,需要在其基础上增加推理能力。
模型:Transformer 拥有强大的表示能力,能对具有组合性(compositinality)的语言进行很好的表示和学习。 预训练(pre-training):使用大规模文本数据进行语言建模(language modeling),学习进行的是数据压缩,也就是单词序列的生成概率最大化或预测误差最小化。 监督微调 SFT(supervised fine tunning):学习的是输入到输出的映射,X→Y, 或者是输入到输出的映射及产出过程 X, C_1⋯,C_n→Y,学习到模型的基本行为。这里,C_1⋯,C_n 代表思维链。 基于人类反馈的强化学习 RLHF(reinforcement learning from human feedback):根据人的反馈,调整模型的整体行为。
输入经验知识:人将知识通过规则等形式教给计算机,让计算机进行智能性处理。 实现人类大脑:解明人脑的机制,基于相同的原理实现人类智能。 从数据中学习:通过数据驱动机器学习的方法模拟人类智能。
LLM 的优化 LLM 的真实性 可信赖 LLM 与 AI 伦理 LLM 的理论 多模态大模型 LLM + 逻辑推理 智能体(agent)
图 2 人脑和心智的组成
分类:从文字序列到标签的映射,如文本分类。 匹配:文字序列与文字序列的匹配,如搜索、阅读理解。 标注和语义分析:文字序列到标签序列或结构表示的映射,如分词、词性标注、句法分析。 序列生成:文字序列的生成,也就是基于语言模型的生成。 序列到序列(seq2seq):文字序列到文字序列的转化,如机器翻译、生成式对话、摘要。 序贯决策:基于已有的文字序列产生新的文字序列,如多轮对话。
数学能力:从哲学角度看
数学能力:从脑科学角度看
数学思维:科学家的自省