2025.07.27 人工智能与神经网络底层原理解释

https://v.douyin.com/LHqfKvCC1Mo

一、人工智能的起源与核心定义

  1. 起点:达特茅斯会议(1956年)
    • 麦卡锡、明斯基、香农等科学家发起,首次提出”人工智能”概念
    • 目标:制造能模拟人类智能的机器,奠定AI研究基础
  2. 什么是智能: 智能的本质
    • 通过收集信息对不同情景做出针对性反应(如草履虫趋利避害)
    • 数学本质:输入到输出的函数映射关系(Thomas Gart演讲观点)
    • 图灵测试:若无法区分AI与人类对话,则AI具备类人智能

二、人工智能主要流派发展

流派核心思想代表技术局限
符号主义基于逻辑规则和符号推理专家系统依赖人工规则,无法自主学习
连接主义模拟人脑神经元连接与学习机制神经网络、深度学习早期受限于计算能力和理论瓶颈
机器学习通过数据训练自主调整参数优化模型感知机、梯度下降算法需要大量数据和算力支持

三、神经网络与深度学习基础

  1. 感知机(1957年)
    • 首个神经网络模型,可实现简单模式识别(如区分男女/箭头方向)
    • 结构:输入特征→加权求和→阈值激活→输出判断
    • 缺陷:无法解决异或(XOR)问题,被明斯基批评后陷入研究寒冬
  2. 多层感知机(MLP)突破
    • 解决异或问题:通过隐藏层组合基础特征(如01/10输入分别激活中间神经元)
    • 万能近似定理:足够深宽的神经网络可拟合任意函数
  3. 关键网络结构演进
    • CNN(卷积神经网络):局部连接+权值共享,擅长图像识别
    • ResNet/DenseNet:跳跃连接解决深层网络梯度消失问题
    • Transformer:注意力机制(Attention),支撑GPT等大语言模型

四、深度学习训练核心技术

  1. 梯度下降算法
    • 本质:通过调整参数(旋钮)最小化损失函数(预测误差)
    • 类比:在”损失曲面”中沿最陡峭方向(梯度)下山,逐步逼近最优解
  2. 反向传播(Back Propagation)
    • 基于链式法则:从输出层反向计算各层参数梯度
    • 关键作用:使深层网络参数优化成为可能

五、大语言模型(GPT)原理

  1. 核心机制:自回归生成
    • 任务:基于上文预测下一个词(Next Token Prediction)
    • 训练数据:TB级文本语料(相当于上亿本《三国演义》)
    • 参数规模:GPT-3含1750亿参数,生成1个字需10¹⁵次运算
  2. 技术演进
    • 预训练(Pre-training):在海量文本上学习语言规律
    • 微调(Fine-tuning):针对特定领域优化
    • RLHF(人类反馈强化学习):通过奖励/惩罚调整输出,提升可用性
  3. 局限性
    • 幻觉(Hallucination):编造虚假信息
    • 对抗样本:微小噪声可导致模型误判(如熊猫→乌龟)
    • 缺乏因果推理能力,易混淆相关性与必然性

六、扩散模型(生成式AI)原理

  1. 扩散过程
    • 正向:从有序结构(图片)到随机噪声(类似墨水扩散)
    • 反向:通过评分函数(Score Function)从噪声重建原图
  2. Sora视频生成技术
    • 本质:在像素空间+时间维度扩展扩散模型
    • 挑战:保持长时序连贯性(如遮挡物体的位置一致性)

七、AI对职业的影响与应对

  1. 高风险领域
    • 重复性工作:文秘、翻译、基础编程、财务核算
    • 原因:数据充足、模式固定,易被AI替代
  2. 人类优势领域
    • 创造力:艺术设计、科研idea、情感表达
    • 复杂决策:战略规划、危机处理、伦理判断
  3. 应对策略
    • 人机协同:利用AI提升效率(如生成初稿、数据分析)
    • 技能升级:聚焦创意、领导力、跨学科整合能力
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY
LOOPER'S DAILY

Leave a Comment

您的邮箱地址不会被公开。 必填项已用 * 标注