1. 1943:McCulloch & Pitts 提出人工神经元模型 —— 神经网络的雏形。2. 1957:Rosenblatt 提出感知机(Perceptron) —— 最早的可训练神经网络。
Rosenblatt 提出的 Perceptron 是一个 单层感知机(Single-layer Perceptron)。
• 它本质上是一个线性分类器:
y = f\left(\sum_i w_i x_i + b\right)
3. 1970s:Vapnik 提出统计学习理论(VC维、泛化误差界) —— 机器学习的数学基础。4. 1986:Rumelhart, Hinton & Williams 提出反向传播算法(Backpropagation) —— 神经网络真正可训练。5. 1990s:支持向量机(SVM)、集成学习(Boosting、Random Forest)兴起。6. 1997:Hochreiter & Schmidhuber 提出 LSTM —— 序列建模突破。7. 2006:Hinton 提出深度置信网络(DBN) —— 深度学习复兴。8. 2012:AlexNet 在 ImageNet 夺冠 —— 深度学习进入主流。9. 2017–至今:Transformer、BERT、GPT 等推动 AI 爆炸式发展。