当前位置: 首页 > news >正文

LLM学习记录DAY2

📘今日学习总结

一、博客美化

  • 通过系统学习与实践,我对博客园平台的美化工作进行了全面的探索与实施。
  • 本次学习的核心目标在于提升博客的视觉美感、增强用户体验以及融入个性化元素。

1.1整体视觉与布局的现代化改造

  • 本次美化的基础是对博客整体框架进行了修改。
  1. 主题切换: 采用了备受推崇的 “SimpleMemory” 主题作为基底。
  2. 布局优化: 通过定制CSS代码,实现了:
    • 内容区拓宽: 使文章显示区域更宽,减少了阅读时的局促感,提升了阅读效率。
    • 结构清晰化: 对页头、导航栏、侧边栏和页脚进行了重新排版与设计,使博客结构层次分明,逻辑清晰。

1.2个性化功能元素的成功引入

在优化视觉的基础上,我重点引入了一系列互动性与个性化功能,让博客更加nice。

  1. 动态页脚: 在博客底部成功添加了网站运行时间统计。这个动态更新的元素不仅是一个有趣的小功能,更象征着博客与访客之间一段持续的陪伴,赋予了博客一丝“生命感”。
  2. 互动看板娘: 成功在页面一角部署了Live2D看板娘。她能够跟随鼠标移动、显示欢迎语并提供简单的互动。这个元素的加入极大地增强了博客的亲和力与趣味性,有效拉近了与访客的距离。
  3. 样式深度定制:
    • 色彩体系: 修改了默认的链接色、背景色等,建立了属于自己的博客色彩标识,避免了千篇一律。
    • 代码高亮: 为博客中的代码块更换了美观清晰的语法高亮主题,使其阅读体验堪比专业编辑器,对技术类博客的内容呈现至关重要。

二、Transformer 模型核心机制

  • Transformer 模型由编码器-解码器结构组成,完全基于注意力机制,摒弃了传统的 CNN 和 RNN。
    image-20251016015106314

  • 其核心机制包括:

2.1注意力机制

  • 通过 Query、Key、Value 矩阵计算相似度,实现加权求和。

  • 公式为:$$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{D}}\right)V$$

  • 使用点积注意力是因为其计算效率高,优于加法注意力。

2.2多头注意力

  • 将注意力拆分为多个“头”,每个头关注不同语义空间,最后合并结果。
  • 类似 CNN 中使用多个卷积核,增强模型表达能力。

2.3位置编码

  • Transformer 本身不具备序列顺序感知能力,需引入位置编码。
  • 常用正弦-余弦函数编码,也有可学习或 RoPE、ALiBi 等变体。

4. 前馈网络与残差连接

  • 前馈网络通常为两层线性变换加激活函数(如 ReLU、GELU、SwiGLU)。
  • 残差连接与层归一化提升训练稳定性。

三、大语言模型的关键配置

构建大模型时需考虑以下配置:

3.1归一化方法

![image-20251016093919467]

2. 激活函数

image-20251016094024787

3. 位置编码方式

  • 绝对位置编码:如原始 Transformer 的 sin/cos 编码。
  • 相对位置编码:如 RoPE、ALiBi,能更好地处理长序列和外推任务。

4. 注意力机制优化

  • MQAGQA:减少 KV 缓存,提升推理速度。
  • MLA:DeepSeek-V2 提出,进一步压缩 KV Cache,降低显存。
    ![[image-20251016094411201.png]]

5. 混合专家架构

  • 使用多个专家网络,每个词元仅激活部分专家,实现参数扩展而不显著增加计算成本。

四、长上下文模型与扩展方法

为处理长文本(如 128K、200K 甚至 2M 上下文),模型需进行扩展和优化:

4.1长度外推方法

  • ALiBi:通过线性偏置惩罚远距离词元,增强外推能力。
  • RoPE 扩展
    • 位置插值:缩放位置索引。
    • NTK-RoPE:动态调整旋转基,无需训练即可扩展上下文。
    • 旋转基截断:控制旋转角度分布,防止超出训练范围。

4.2受限注意力机制

  • 并行上下文窗口:分段编码,但顺序关系建模弱。
  • Λ型上下文窗口:仅关注开头和邻近词元,如 StreamingLLM。
  • 词元选择:基于相似度检索远距离词元,如 Focused Transformer。

4.3长文本数据训练

  • 使用少量长文本数据继续预训练,可有效扩展上下文窗口。
  • 数据需多样化、连贯,并进行聚合与上采样。

五、新型模型架构探索

为克服 Transformer 在长序列上的计算瓶颈,出现了一系列新型架构:

5.1状态空间模型

  • Mamba:引入输入依赖的选择机制,实现线性复杂度。
  • RWKV:结合 RNN 与 Transformer 优点,支持并行训练与高效推理。
  • RetNet:使用多尺度保留机制,支持递归、并行和分块计算。
  • Hyena:使用长卷积与门控机制,替代注意力层。

5.2模型对比

  • SSM 类模型在长序列上具有更好的计算效率,但在表达能力上仍需优化。
  • 多数新型模型仍在发展中,尚未完全取代 Transformer。

📘今日学习总结

一、博客美化

  • 通过系统学习与实践,我对博客园平台的美化工作进行了全面的探索与实施。
  • 本次学习的核心目标在于提升博客的视觉美感、增强用户体验以及融入个性化元素。

1.1整体视觉与布局的现代化改造

  • 本次美化的基础是对博客整体框架进行了修改。
  1. 主题切换: 采用了备受推崇的 “SimpleMemory” 主题作为基底。
  2. 布局优化: 通过定制CSS代码,实现了:
    • 内容区拓宽: 使文章显示区域更宽,减少了阅读时的局促感,提升了阅读效率。
    • 结构清晰化: 对页头、导航栏、侧边栏和页脚进行了重新排版与设计,使博客结构层次分明,逻辑清晰。

1.2个性化功能元素的成功引入

在优化视觉的基础上,我重点引入了一系列互动性与个性化功能,让博客更加nice。

  1. 动态页脚: 在博客底部成功添加了网站运行时间统计。这个动态更新的元素不仅是一个有趣的小功能,更象征着博客与访客之间一段持续的陪伴,赋予了博客一丝“生命感”。
  2. 互动看板娘: 成功在页面一角部署了Live2D看板娘。她能够跟随鼠标移动、显示欢迎语并提供简单的互动。这个元素的加入极大地增强了博客的亲和力与趣味性,有效拉近了与访客的距离。
  3. 样式深度定制:
    • 色彩体系: 修改了默认的链接色、背景色等,建立了属于自己的博客色彩标识,避免了千篇一律。
    • 代码高亮: 为博客中的代码块更换了美观清晰的语法高亮主题,使其阅读体验堪比专业编辑器,对技术类博客的内容呈现至关重要。

二、Transformer 模型核心机制

  • Transformer 模型由编码器-解码器结构组成,完全基于注意力机制,摒弃了传统的 CNN 和 RNN。
    image-20251016094411201

其核心机制包括:

2.1注意力机制

  • 通过 Query、Key、Value 矩阵计算相似度,实现加权求和。

  • 公式为:$$\text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{D}}\right)V$$

  • 使用点积注意力是因为其计算效率高,优于加法注意力。

2.2多头注意力

  • 将注意力拆分为多个“头”,每个头关注不同语义空间,最后合并结果。
  • 类似 CNN 中使用多个卷积核,增强模型表达能力。

2.3位置编码

  • Transformer 本身不具备序列顺序感知能力,需引入位置编码。
  • 常用正弦-余弦函数编码,也有可学习或 RoPE、ALiBi 等变体。

4. 前馈网络与残差连接

  • 前馈网络通常为两层线性变换加激活函数(如 ReLU、GELU、SwiGLU)。
  • 残差连接与层归一化提升训练稳定性。

三、大语言模型的关键配置

构建大模型时需考虑以下配置:

3.1归一化方法

![[image-20251016093919467.png]]

2. 激活函数

![[image-20251016094024787.png]]

3. 位置编码方式

  • 绝对位置编码:如原始 Transformer 的 sin/cos 编码。
  • 相对位置编码:如 RoPE、ALiBi,能更好地处理长序列和外推任务。

4. 注意力机制优化

  • MQAGQA:减少 KV 缓存,提升推理速度。
  • MLA:DeepSeek-V2 提出,进一步压缩 KV Cache,降低显存。
    ![[image-20251016094411201.png]]

5. 混合专家架构

  • 使用多个专家网络,每个词元仅激活部分专家,实现参数扩展而不显著增加计算成本。

四、长上下文模型与扩展方法

为处理长文本(如 128K、200K 甚至 2M 上下文),模型需进行扩展和优化:

4.1长度外推方法

  • ALiBi:通过线性偏置惩罚远距离词元,增强外推能力。
  • RoPE 扩展
    • 位置插值:缩放位置索引。
    • NTK-RoPE:动态调整旋转基,无需训练即可扩展上下文。
    • 旋转基截断:控制旋转角度分布,防止超出训练范围。

4.2受限注意力机制

  • 并行上下文窗口:分段编码,但顺序关系建模弱。
  • Λ型上下文窗口:仅关注开头和邻近词元,如 StreamingLLM。
  • 词元选择:基于相似度检索远距离词元,如 Focused Transformer。

4.3长文本数据训练

  • 使用少量长文本数据继续预训练,可有效扩展上下文窗口。
  • 数据需多样化、连贯,并进行聚合与上采样。

五、新型模型架构探索

为克服 Transformer 在长序列上的计算瓶颈,出现了一系列新型架构:

5.1状态空间模型

  • Mamba:引入输入依赖的选择机制,实现线性复杂度。
  • RWKV:结合 RNN 与 Transformer 优点,支持并行训练与高效推理。
  • RetNet:使用多尺度保留机制,支持递归、并行和分块计算。
  • Hyena:使用长卷积与门控机制,替代注意力层。

5.2模型对比

  • SSM 类模型在长序列上具有更好的计算效率,但在表达能力上仍需优化。
  • 多数新型模型仍在发展中,尚未完全取代 Transformer。
http://www.hskmm.com/?act=detail&tid=32145

相关文章:

  • 虚拟机的环境配置
  • 【随手记录】minio最新社区版控制台没有管理权限
  • Hbase基础知识学习
  • python循环遍历文件夹名称和txt文件名称
  • hadoop 环境配置
  • 电力系统短期负荷预测
  • vscode python format
  • 线性代数笔记
  • Ubuntu挂载新硬盘
  • 2025 年浇注料生产厂家最新推荐榜单:聚焦实力企业,助力石化冶金新能源等行业精准选择优质供应商轻质/氧化铝空心球/耐火纤维浇注料厂家推荐
  • 阿里云安全防护利器ESA
  • 2025 年国内控制柜生产厂家最新推荐排行榜:聚焦换热机组与污水处理等领域品牌实力测评污水处理PLC/变频供水/反冲洗/压差过滤器控制柜厂家推荐
  • 谷歌推出全新语音搜索技术 S2R:跳过语音转文字,直接理解语音意图;代体 AI 推出端侧语音输入法丨日报
  • /emps?ids=1,2,3 类型参数如何获取?
  • 【VPX315】基于 3U VPX 总线架构的 JFMQL100TAI + FT-M6678 智能信号处理平台
  • 2025年代码托管平台深度评测:本土化与全球化之争
  • 访问控制列表 ACL
  • 数据跨境传输:挑战、需求与管控实践
  • 2025 年深圳心理咨询机构最新推荐排行榜:覆盖青少年、婚姻情感等领域,精选优质品牌供参考深圳催眠/深圳沙盘游戏/深圳孩子厌学心理咨询机构推荐
  • 手把手教你在 Docker 中部署 Home Assistant
  • Index of /download/windows/spice-guest-tools
  • 铁磁材料的磁化曲线和磁滞回线
  • 达芬奇杂志风格挂件字幕文字标题转场预设插件20组 MotionVFX – mRoutine DVR
  • uni-app实现瀑布流展示
  • localdateTime转date及localdatetime格式化日期格式转换为字符串
  • 元推理框架,人类文明的逻辑正果
  • 2025 年广州心理咨询机构最新推荐榜权威发布,详解品牌实力优势与选择指南广州青少年心理咨询/广州情感心理咨询/广州婚姻情感心理咨询/广州催眠心理咨询机构推荐
  • 大学本科及研究生职业专业题库数据集:112031条高质量中文职业教育题库数据,涵盖铁路交通市场营销会计管理等全领域,支持智能教育系统与机器学习算法训练的专业数据集
  • 嘉立创EDA使用技巧
  • 还在手动Code Review?给你的GitHub项目请一个免费的AI审查官吧!