wget 后台下载
wget -b url
# 查看wget log
cat wget-log
tail -f wget-log
# wget指定文件名称
wget url -o filename
sftp文件上传
sftp root@8.134.128.130 <<EOF
put ./source/openai-demo*.jar /opt/openai-demo/
bye
EOF
#查看本地的文件列表
lls
lcd
ls
cd
查看文件摘要
sha256sum example.txt
Git lfs使用
安装 homebrew
brew install git-lfs
git lfs install
下载安装 windows installer
运行 windows installer
git lfs install
sudo yum install git-lfs
sudo apt-get install git-lfs
# 切换到lfs
git lfs install
# 列出git lfs管理的大文件
git lfs list-files
Conda使用
conda create -n env_name
conda activate env_name
conda info --envs
# 安装软件
conda install xxx
查看显卡运行情况命令
watch -n 0.5 nvidia-smi
安装环境依赖
pip install -r requirement.txt
Clash服务器端代理:
使用Xflash作为梯子
https://i.jakeyu.top/2021/11/27/centos-使用-Clash-梯子/
https://www.jianshu.com/p/1702a352797d
nohup ~/clash > /dev/null 2>&1 &
nohup ~/clash > ~/clash_out.log &
vim /etc/profile
source /etc/profile
export ALL_PROXY=socks5://127.0.0.1:7891
export http_proxy=http://127.0.0.1:7890
export https_proxy=http://127.0.0.1:7890
#测试
curl www.google.com
报错集锦
大语言模型大爆发
开源大语言模型(LLM)汇总: http://www.dtmao.cc/NodeJs/75351.html
开源ChatGPT替代模型项目整理: https://zhuanlan.zhihu.com/p/618790279
LLMA(大语言模型,Large Language Model, LLM)
大语言模型llma-13b:https://huggingface.co/decapoda-research/llama-13b-hf/tree/main
LMFlow大语言模型微调:https://github.com/OptimalScale/LMFlow/blob/main/readme/README_zh-hans.md
LLMA-Alpaca中文版:https://github.com/ymcui/Chinese-LLaMA-Alpaca
LLMA-Alpaca中文版与原始llma模型合并:https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/模型合并与转换
LLMA-Alpaca中文版模型训练过程:https://github.com/ymcui/Chinese-LLaMA-Alpaca/wiki/训练细节
大语言模型的下载和安装:https://ivonblog.com/posts/dalai-llama-installation/
ChatGLM
https://github.com/THUDM/ChatGLM-6B
官方chatglm微调:https://github.com/THUDM/ChatGLM-6B/blob/main/ptuning/README.md
第三方微调:https://github.com/ssbuild/chatglm_finetuning
PTuning与LoRA微调方式:https://github.com/liucongg/ChatGLM-Finetuning
制作数据集方案:https://github.com/hikariming/alpaca_chinese_dataset/blob/main/微调使用自己数据集成功方案.ipynb
用Blog和聊天记录微调自己的ChatGLM模型:https://github.com/wdkwdkwdk/CLONE_DK
使用langchat进行训练:https://www.heywhale.com/mw/project/643977aa446c45f4592a1e59
港科大开源的训练微调脚手架:https://github.com/OptimalScale/LMFlow
微调
ChatGPT等大模型高效调参大法——PEFT:https://zhuanlan.zhihu.com/p/613863520
(1)对于动则百亿级别的参数,如何更高效,低资源的微调大模型呢
(2)当样本量很小的时候,如何微调大模型能得到较好的效果呢
- LORA :LORA 算法是在 每层 transfomer block 旁边引入一个并行低秩的支路,支路的输入是transfomer block 的输入,
- PREFIX_TUNING
- P_TUNING/P_TUNING 2
- PROMPT_TUNING
基于ChatGLM的P-Tuning2微调
官方chatglm微调:https://github.com/THUDM/ChatGLM-6B/blob/main/ptuning/README.md
基于ChatGLM的Lora微调
Langchain
人工智能应用搭建的脚手架,提供了诸如在特定文档上进行问答、聊天机器人、智能代理等各类应用场景的快速搭建
https://github.com/hwchase17/langchain
https://github.com/arc53/docsgpt
https://github.com/liaokongVFX/LangChain-Chinese-Getting-Started-Guide
实现基于上下文的QA机器人:
https://python.langchain.com/en/latest/modules/chains/index_examples/vector_db_qa.html
https://python.langchain.com/en/latest/use_cases/question_answering.html
人工智能领域软件汇总
- transflow 神经网络框架
- PyTorch 新兴神经网络框架
- transformer huggingface出品,类似于人工智能的运行框架和平台, 底层进一步对PyTorch/Transflow等进行封装,是人工智能模型标准定义
- huggingface:https://huggingface.co/ 是一个AI领域的GITHUB,上面管理的市训练好的模型(Model)、数据集(Dataset)、社区(Space)
- Conda python环境隔离管理软件,因为各个python应用所需的依赖版本有时各有不同,为了防止冲突,可以通过conda进行依赖环境隔离
- Cuda Nvidia的指令集,供给应用层使用GPU计算能力,也就是给ai的训练和推演提供算力支持
- Git lfs 大文件git管理指令集,用于从:https://huggingface.co/ clone下载模型文件
- Langchain 人工智能应用搭建的脚手架,提供了诸如在特定文档上进行问答、聊天机器人、智能代理等各类应用场景的快速搭建