https://v.douyin.com/LHqfKvCC1Mo
一、人工智能的起源与核心定义
- 起点:达特茅斯会议(1956年)
- 麦卡锡、明斯基、香农等科学家发起,首次提出”人工智能”概念
- 目标:制造能模拟人类智能的机器,奠定AI研究基础
- 什么是智能: 智能的本质
- 通过收集信息对不同情景做出针对性反应(如草履虫趋利避害)
- 数学本质:输入到输出的函数映射关系(Thomas Gart演讲观点)
- 图灵测试:若无法区分AI与人类对话,则AI具备类人智能
二、人工智能主要流派发展
| 流派 | 核心思想 | 代表技术 | 局限 |
|---|---|---|---|
| 符号主义 | 基于逻辑规则和符号推理 | 专家系统 | 依赖人工规则,无法自主学习 |
| 连接主义 | 模拟人脑神经元连接与学习机制 | 神经网络、深度学习 | 早期受限于计算能力和理论瓶颈 |
| 机器学习 | 通过数据训练自主调整参数优化模型 | 感知机、梯度下降算法 | 需要大量数据和算力支持 |
三、神经网络与深度学习基础
- 感知机(1957年)
- 首个神经网络模型,可实现简单模式识别(如区分男女/箭头方向)
- 结构:输入特征→加权求和→阈值激活→输出判断
- 缺陷:无法解决异或(XOR)问题,被明斯基批评后陷入研究寒冬
- 多层感知机(MLP)突破
- 解决异或问题:通过隐藏层组合基础特征(如01/10输入分别激活中间神经元)
- 万能近似定理:足够深宽的神经网络可拟合任意函数
- 关键网络结构演进
- CNN(卷积神经网络):局部连接+权值共享,擅长图像识别
- ResNet/DenseNet:跳跃连接解决深层网络梯度消失问题
- Transformer:注意力机制(Attention),支撑GPT等大语言模型
四、深度学习训练核心技术
- 梯度下降算法
- 本质:通过调整参数(旋钮)最小化损失函数(预测误差)
- 类比:在”损失曲面”中沿最陡峭方向(梯度)下山,逐步逼近最优解
- 反向传播(Back Propagation)
- 基于链式法则:从输出层反向计算各层参数梯度
- 关键作用:使深层网络参数优化成为可能
五、大语言模型(GPT)原理
- 核心机制:自回归生成
- 任务:基于上文预测下一个词(Next Token Prediction)
- 训练数据:TB级文本语料(相当于上亿本《三国演义》)
- 参数规模:GPT-3含1750亿参数,生成1个字需10¹⁵次运算
- 技术演进
- 预训练(Pre-training):在海量文本上学习语言规律
- 微调(Fine-tuning):针对特定领域优化
- RLHF(人类反馈强化学习):通过奖励/惩罚调整输出,提升可用性
- 局限性
- 幻觉(Hallucination):编造虚假信息
- 对抗样本:微小噪声可导致模型误判(如熊猫→乌龟)
- 缺乏因果推理能力,易混淆相关性与必然性
六、扩散模型(生成式AI)原理
- 扩散过程
- 正向:从有序结构(图片)到随机噪声(类似墨水扩散)
- 反向:通过评分函数(Score Function)从噪声重建原图
- Sora视频生成技术
- 本质:在像素空间+时间维度扩展扩散模型
- 挑战:保持长时序连贯性(如遮挡物体的位置一致性)
七、AI对职业的影响与应对
- 高风险领域
- 重复性工作:文秘、翻译、基础编程、财务核算
- 原因:数据充足、模式固定,易被AI替代
- 人类优势领域
- 创造力:艺术设计、科研idea、情感表达
- 复杂决策:战略规划、危机处理、伦理判断
- 应对策略
- 人机协同:利用AI提升效率(如生成初稿、数据分析)
- 技能升级:聚焦创意、领导力、跨学科整合能力
