基础
自然语言处理(NLP)
自然语言处理PaddleNLP-词向量应用展示
自然语言处理(NLP)-前预训练时代的自监督学习
自然语言处理PaddleNLP-预训练语言模型及应用
自然语言处理PaddleNLP-文本语义相似度计算(ERNIE-Gram)
自然语言处理PaddleNLP-词法分析技术及其应用
自然语言处理PaddleNLP-快递单信息抽取
理解
自然语言处理PaddleNLP-信息抽取技术及应用
自然语言处理PaddleNLP-基于预训练模型完成实体关系抽取–实践
自然语言处理PaddleNLP-情感分析技术及应用-理论
自然语言处理PaddleNLP-情感分析技术及应用SKEP-实践
问答
自然语言处理PaddleNLP-检索式文本问答-理论
自然语言处理PaddleNLP-结构化数据问答-理论
翻译
自然语言处理PaddleNLP-文本翻译技术及应用-理论
自然语言处理PaddleNLP-机器同传技术及应用-理论
对话
自然语言处理PaddleNLP-任务式对话系统-理论
自然语言处理PaddleNLP-开放域对话系统-理论
产业实践
自然语言处理 Paddle NLP – 预训练模型产业实践课-理论
模型压缩:理论基础
模型压缩基本方法分为三类:
- 量化
- 裁剪
- 蒸馏
量化
裁剪
绿线:随机裁剪 30% 已经扛不住了
蓝线:60% 还不错
蒸馏
- 蒸馏任务与原来的学习任务同时进行.
- 对于没有标注的数据,可以只学习teacher的预测概率
Teacher model:教师模型,是已经训练好的,比较不错的模型。
Student(distilled) model:学生模型,是重新初始化的小模型,去学生老师的结果
设置损失函数,让学生的概率分布,往老师上靠。使得学生能够复现老师的输出,从而获得老师的准确率
蒸馏的信号
第一步:A 首先对Student进行学习,不带蒸馏的,一般在无监督数据上进行 lask
第二步:把学习的模型拿过来,带一个老师模型,同样进行无监督学习,B
第三步:通过通用的老师.. 视频时间:20:00
任务无关蒸馏:不需要知道下一步要做什么,蒸完就能直接拿去用
3层,比12层更小,更宽。
压缩模型最好是压深度,而不是宽度,因为压缩深度可以有效的降低依赖性,使用3步就可以完成计算,宽度有些设备可以高效的并行完成
宽度的大小对整个模型的预测时间,是影响不大的
中文是没有空格的语言,所以先要分词
产业实践案例
模型上线,首先要考虑的是模型是不是需要微调,有些模型不需要微调,直接可以上线。
- 可能没有数据给他微调
- 希望这个模型做为下游模型的输入
CPU在线预测应用
数据增强
实践案例:搜索问答
实践案例:GPU在线预测应用在搜索引擎
服务器托管,北京服务器托管,服务器租用 http://www.fwqtg.net
机房租用,北京机房租用,IDC机房托管, http://www.fwqtg.net
源创会,线下重启!2023年7月1日深圳站—基础软件技术面面谈!免费票限时抢购! 多按键输入驱动 荔枝派的全志V3s开发板上面,有4个按键本身不是通过gpio连接到soc上面的。它是通过ad的方法,连接到主芯片的。这个时候,不同的按键被按下的时候,就会生成不同…