没啥标题

活下去

以前看论文的方式好糟糕,看完以后完全没印象,一句话形容:对预训练的llm微调对齐,利用通过小模型学习偏好与不偏好答案之间的纠正残差

所以LLM的方向实际上就两种:微调和压缩?

阅读全文 »

不过cuda和cuda toolkit之间的区别还挺大的,一般nvidia-smi能有输出的话就不用管了,一些特殊的依赖才必须nvcc。

阅读全文 »

以前没好好学的现在孽力回馈了。

搜了一下dropout居然算深度学习,深度学习是神经网络里面的?

嗯原来是一种skill :D

阅读全文 »

直觉告诉我这肯定是一大坨一直写不完的东西。

阅读全文 »
0%