Skip to main content

Command Palette

Search for a command to run...

Architecture 大模型整体架构

Published
1 min read
Architecture 大模型整体架构

分词粒度

  1. 词粒度 word:英文天生使用空格分隔词汇,中文可使用 jieba 分词工具

    1. 优点词的边界和含义得到保留

    2. 缺点

      1. 由于长尾效应词粒度的词表可能会非常大包含很多的稀有词存储和训练成本高稀有词往往很难学习好

      2. OOV(out of vocabulary)问题对词表之外的词无能为力

      3. 无法处理单词的形态关系和词缀关系同一个词的不同形态语义相近完全当做不同的单词不仅增加了训练成本而且无法很好捕捉这些单词之间的关系同时无法学习词缀在不同单词之间的泛化

  2. 字符粒度 char能够解决 OOV 问题

    1. 优点词表极小。(26 个英文字母可以组出所有的词,5000 多个中文常用字基本也能够组合出足够的词汇,再加上一些常用字符)

    2. 缺点

      1. 无法承载丰富的语义

      2. 序列长度增长带来计算成本的增长

  3. 字词粒度 subword粒度介于 char 和 word 之间常用词保持原状生僻词拆分成子词以共享 token 压缩空间

    1. 优点可以较好的平衡词表大小与语义表达能力OOV 问题可以通过 subword 的组合来解决

    2. 常见子词分词算法:

      1. 字节对编码(Byte Pair Encoding,BPE).

      2. WordPiece.

      3. Unigram Language Model.

More from this blog

LLM Pre-training 预训练

基本概念 预训练:在大规模的通用数据集上对模型进行初步训练,在见到特定任务数据之前,使模型能够捕捉到数据的通用特征和模式,提升其在各种任务上的性能和泛化能力,同时减少对标注数据的依赖,生成一个具备基础能力的基座模型(base model) ,并加速模型在新任务上的训练和微调(fine-tuning)过程。在预训练期间,模型需要处理大量未标记的文本数据,例如书籍、文章和网站,目标是捕获文本语料库中存

Apr 30, 20261 min read
LLM Pre-training 预训练

Reinforcement Learning 强化学习

1. RL 简介 在机器学习领域,有一类重要的任务和人生选择很相似,即序贯决策(sequential decision making)任务。决策和预测任务不同,决策往往会带来“**后果 ” ,因此决策者需要为未来负责,在未来的时间点做出进一步的决策。实现序贯决策的机器学习方法就是强化学习(reinforcement learning)** 。预测仅仅产生一个针对输入数据的信号,并期望它和未来可观测

Apr 30, 20261 min read
Reinforcement Learning 强化学习

明天不熬夜

6 posts