ProbSolv | pip no build isolation开关的观察
以后再提示torch和本机CUDA不匹配的时候可以试试带上它
以后再提示torch和本机CUDA不匹配的时候可以试试带上它
挺麻烦的,不然节点显示Error连不上
机器反学习,选择性遗忘
可能会偏数学
将隐藏状态建模成可训练的模型
提出了一个指令遵循难度指标
https://ghp.ci/
00
读大的excel文件慢,可以存df
主要讲SFT数据选择不应太关注于数据质量和多样性(预训练数据才关注)
有些东西不知道咋写看看
数据对齐
也很慢,但能用
py3.6有一些版本冲突
git从零到一
提供两种方案:modelscope和镜像站
1.本地生成一对key;2.将.pub上传到远程主机的authorized_keys
说实话没咋听懂…和空间转录组交叉不大
研组布置的文献阅读任务。。。啥也不会
LLM纯小白向-1
过拟合—本质
过度训练让中度模型「涌现」结构泛化能力('fake it till you make it)
分享会记录
记录
重装系统,重装devcpp发现cmd没法用gcc/g++,不方便命令行编译,需要重新写进环境变量
对torch的tensor操作等再熟悉一下,为手撕系列开坑做准备
进入粘贴模式
在有单一模型文件损坏时很好用的这个方法
reload一下
无
一种可能是开梯但是conda镜像设置了国内,还有可能是相反
代理设置出错,只需重置代理即可
看Sora顺带看这个,不然看不懂
据说性能很强悍
先看着点,等闲了系统学下CUDA编程
文生视频模型,感觉pika要凉……
win干这种事好麻烦
LLM-QAT论文的实验+KDTrainer实现细看
一个函数调用可视化工具
GPU的虚拟化方法
另外附上PCIe不同lanes的速度
坑爹的阉割版没法开tpm
一些写过的数据处理、可视化、工具代码
梯度裁剪—应对梯度爆炸的方案
主要看量化感知训练和ft,后量化不做重点
RoSA:一个新的低秩微调方案
见过两次了,通过它了解一下prefill的概念
rxpci txpci等
一点点即兴伴奏基础(?)
LLM Map
zsh大法好
Nvidia 驱动版本 cuda版本查看
记录一下吧,以后应该还会用到
解决huggingface被墙
back-propagation
PyTorch使用缓存分配器来加速内存分配。缓存分配器中未被占用的内存,nvidia-smi也显示为使用
iterm2基本用法、profile配置、sshpass配置
不知
为了降低显存占用,将部分数据和计算放到CPU上
更新pip和apt
一些基本和进阶用法
vllm和tgi框架进行推理性能测试
重装驱动
一个小问题,sudo chown -R即可
说了一下目前市场上推荐的卡,及限令之后的训练替代方案L20多一
NV的论文,晓慧姐放在issue上的;提出了sequence parallelism
docker使用 很全
模型蒸馏论文第一次提出的带有温度的softmax,为了保持类别之间的相关性的信息
模型蒸馏的始祖论文
MoE的元老级paper,探讨了合作和竞争的损失函数,提出了gate network选择一个专家
A800遇到2次了,是因为nvidia-fabricmanager自动升级了,降级成匹配的驱动版本就行
xiwang
mistral新的MoE模型,据说很强
Agents的调研
基础名词解释
NV-ampere架构的Sparse方案
一些tools备忘
操作系统课设-死锁环路
好几道 easy题
现在看都忘了