暂无商品咨询信息 [发表商品咨询]
"《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》全面、系统、深入地介绍自然语言处理(NLP)的核心知识与实践方法,涵盖从传统模型到基于Transformer架构的大语言模型的完整知识体系。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》通过理论推导与Python代码实践相结合的方式,深入解析词嵌入、句法分析、序列建模等基础技术,并重点探讨Transformer架构、预训练范式、生成控制与RLHF对齐等大语言模型的关键技术。《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》结合多个Python实践案例与伦理问题,帮助读者掌握“基础理论→算法实现→应用落地”的NLP任务构建全栈能力。
《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》共12章,分为4篇。第1篇自然语言处理基础与词表示,介绍词袋模型、TF-IDF、Word2Vec和GloVe词嵌入等NLP基础,以及神经网络基础、朴素贝叶斯在情感分类中的作用、N-gram语言建模等;第2篇语言结构与句法解析,介绍上下文无关语法、成分解析与依存句法分析等;第3篇序列建模与深度学习方法,深入介绍循环神经网络、长短期记忆网络、门控循环单元、序列到序列模型、注意力机制与Transformer架构等;第4篇大语言模型与生成技术,介绍自然语言生成的解码过程、常见问题及其解决方案、评估指标、评价方法、伦理问题,以及大语言模型预处理与基于人类反馈的强化学习等。
《自然语言处理与大语言模型原理详解:从NLP模型到Transformer架构》内容丰富,讲解深入浅出,理论兼具实践,适合想系统、深入学习自然语言处理和大语言模型的读者,也适合数据科学家、机器学习工程师和NLP研究员等大语言模型从业人员阅读,还可作为高等院校人工智能相关专业的教材或教学参考书,以及相关培训机构的教学用书。"
基本信息 | |
---|---|
出版社 | 清华大学出版社 |
ISBN | 9787302699132 |
条码 | 9787302699132 |
编者 | 杨灵玑 著 |
译者 | -- |
出版年月 | 2025-08-01 00:00:00.0 |
开本 | 其他 |
装帧 | 平装 |
页数 | 0 |
字数 | 630 |
版次 | 1 |
印次 | 1 |
纸张 | 一般胶版纸 |
暂无商品评论信息 [发表商品评论]
暂无商品咨询信息 [发表商品咨询]