康康博客
首页
归档
分类
标签
关于
ML基础知识
9
综述大模型的参数高效微调(PEFT)方法
损失函数
2
最大似然估计和CE的关系
常见损失函数介绍
优化器
2
优化器介绍II——动量和自适应学习率
优化器介绍I——BGD/SGD/MBGD
Tokenizer
2
详细介绍Google的SentencePiece
tokenizer的原理I
激活函数
1
各种激活函数的介绍
模型量化
1
大模型量化技术的原理和代码实现
ML常见模型
7
llama
3
llama3.1模型的下载和性能测评
llama2模型的结构和原理
通俗理解llama3的性能和创新
transformer
3
详细理解attention的原理
位置编码的原理详解
浅析transformer的结构
GPT
1
GPT2模型原理的通俗理解
论文精读
5
HMA论文-存内计算方向
Double-Win-Quant 论文精读
CPT Cyclic Precision Training 论文精读
LoRA论文精读
LLM-QAT论文精读
pytorch
2
pytorch面试题II:梯度更新的代码实现
pytorch面试题:实现attention结构
数据集
1
SQuAD数据集的结构和代码
搜索
×
关键词
博客在允许 JavaScript 运行的环境下浏览效果更佳