暂无商品咨询信息 [发表商品咨询]
·覆盖Llama 3应用场景:包含多模态智能体、编程助手、私有化部署等前沿技术。
·实战案例丰富:提供大量案例分析和项目实践,助力快速上手。
·掌握大模型核心技巧:深入剖析提示工程、RAG技术,轻松应对复杂NLP任务。
·探索前沿部署领域:探索了Llama 3在移动端与边缘计算领域的部署价值与广阔前景,深入剖析了模型的功能,如世界模型的理念与多模态大模型的开发技巧。
本书旨在带领读者全面掌握将Llama应用于多模态智能体、编程助手及私有化部署等场景的相关知识。全书共分三篇,内容由浅到深、层层递进。基础篇(第1章~第3章)概览大模型技术,聚焦Transformer显卡开发环境与自然语言处理任务,深入分析开源大模型的推理与训练。核心篇(第4章~第8章)探讨提示工程技术与应用,介绍如何基于Llama3打造SWE-Agent编程助手,详细阐述实现Llama3私有化落地应用的初级与进阶RAG,以及专用知识站与问答系统的构建。扩展篇(第9章~第10章)探索Llama3手机与边缘计算的部署,介绍Llama3的高级功能。本书是一部集理论与实践于一体的技术宝典,适合人工智能领域的开发者及对大模型感兴趣的读者阅读。
刘欣,东南大学工程博士在读,研究方向为大模型和类脑计算。多年来专注于Llama及Qwen等大模型的开发与应用,对开源大模型的设计与特性有着深刻的认识,擅长多模态智能体大模型的构建与落地。实战经验丰富,编写的多个优秀大模型系统已应用于实际项目,同时撰写了大量有关大模型的技术文章,相关研究成果在NEUROCOMPUTING等国际知名期刊上发表。活跃于大模型开源社区,是RWKV、Wenda、ShareAl、Fay、Linly-Talker等多个社区型开源项目的核心成员。
基础篇
第1章 大模型技术概览
1.1从机器学习到多模态智能体大模型
1.1.1机器学习
1.1.2大模型
1.1.3多模态智能体大模型
1.2动手搭建一个神经网络
1.2.1PyTorch+CUDA显卡开发环境搭建
1.2.2卷积神经网络与循环神经网络
1.2.3一个典型的手写数字识别CNN
1.3注意力机制的学习训练
1.3.1卷积神经网络中的注意力机制
1.3.2循环神经网络中的注意力机制
1.3.3Transformer网络结构介绍
第2章 Transformer显卡开发环境与NLP任务
2.1Transformer显卡开发环境搭建
2.2BERT系列模型执行NLP任务
2.2.1BERT模型网络结构
2.2.2BERT变体模型
2.2.3BERT模型处理自然语言处理任务
……
基本信息 | |
---|---|
出版社 | 人民邮电出版社 |
ISBN | 9787115672001 |
条码 | 9787115672001 |
编者 | 刘欣 著 著 |
译者 | -- |
出版年月 | 2025-09-01 00:00:00.0 |
开本 | 16开 |
装帧 | 平装 |
页数 | 195 |
字数 | 244000 |
版次 | 1 |
印次 | 1 |
纸张 |
暂无商品评论信息 [发表商品评论]
暂无商品咨询信息 [发表商品咨询]