深入探索快速发展的生成AI世界,参加我们的综合课程,专为渴望从零开始构建、训练和部署大型语言模型(LLMs)的学习者设计。此课程为你提供了一系列工具、框架和技术,帮助你使用大型语言模型创建GenAI应用,包括Python、PyTorch、LangChain、LlamaIndex、Hugging Face、FAISS、Chroma、Tavily、Streamlit、Gradio、FastAPI、Docker等。本动手课程涵盖了人工智能助手、聊天机器人、增强检索生成(RAG)系统、自动化代理等最先进的AI应用的核心主题,包括实施Transformers、微调模型、提示工程、向量嵌入、向量存储,并从零开始使用REST API和Docker容器化部署你的GenAI应用。完成本课程后,你将拥有工程和部署自己的基于LLM的应用所需的实践技能和理论知识

由Quang Tan DUONG创建
MP4 | 视频: h264,1280×720 | 音频: AAC,44.1 KHz,2声道
类型: 电子学习 | 语言: 英语 | 时长: 160讲(6小时18分钟) | 文件大小: 2.76 GB

实施Transformer、训练、微调 | GenAI应用: AI助手、聊天机器人、RAG、代理 | 部署

你将学到的内容:
理解如何从零开始构建、实施、训练和推理大型语言模型,例如Transformer(Attention Is All You Need)。
了解构建基于LLM的应用所需的不同组件、工具和框架。
学习如何从零开始服务和部署你的基于LLM的应用。
参与动手技术实施:Notebook、Python脚本、将模型构建为Python包、训练、推理、微调、部署等。
获得关于生成AI与大型语言模型的高级工程主题的指导。 Hands-on Generative AI Engineering with Large Language Model

要求:
不需要有生成AI、大型语言模型、自然语言处理或Python的经验。本课程将为你提供进入这一领域所需的一切知识,激发你的热情和好奇心。概念和组件首先通过理论和文档进行解释,然后随之进行动手技术实施。所有代码片段逐步解释,并配有Notebook实验场和完整的Python源代码,结构清晰,便于深入理解。

让我们来看看课程内容:

课程介绍
课程目标
课程结构
学习路径

第一部分:Python项目的软件要求
IDE: VS Code、PyCharm
终端: Windows: PowerShell等,macOS: iTerm2等,Linux: Bash等
Python安装
Python安装程序
Anaconda发行版
Python环境
venv、conda
Python包安装
PyPI、pip
Anaconda、conda
本课程中使用的软件

第二部分:Transformer简介
Transformer到来前后的NLP介绍
逐块掌握Transformers
Transformer训练过程
Transformer推理过程

第三部分:从零开始使用PyTorch实现Transformers
训练过程实施介绍
将Transformer实现为Python包
调用训练和推理过程
使用Notebook进行实验

第四部分:使用Hugging Face生态系统进行生成AI
Hugging Face简介
Hugging Face Hub
模型
数据集
空间
Hugging Face库
Transformers数据集
评估等
使用Hugging Face的实用指南
使用Hugging Face微调预训练语言模型
端到端微调示例
分享你的模型

第五部分:构建基于LLM的Web应用的组件
后端组件
LLM编排框架:LangChain、LlamaIndex
开源与专有LLM的比较
向量嵌入
向量数据库
提示工程
前端组件
基于Python的前端框架:Streamlit、Gradio

第六部分:构建基于LLM的Web应用
任务特定的AI助手
烹饪AI助手
市场营销AI助手
客户AI助手
SQL查询AI助手
旅行AI助手
摘要AI助手
面试AI助手
简单AI聊天机器人
基于RAG(增强检索生成)的AI聊天机器人
处理PDF、DOCX、CSV、TXT、网页的AI聊天机器人
基于代理的AI聊天机器人
解决数学问题的AI聊天机器人
解决搜索问题的AI聊天机器人

第七部分:服务基于LLM的Web应用
创建前端和后端作为两个独立的服务
使用REST API在前端和后端之间进行通信
使用Docker服务应用
在一个Docker容器中安装、运行并实现前后端之间的通信

用例
基于LLM的歌曲推荐应用
结论与后续步骤
我们学到了什么
下步计划
谢谢!

发表回复

后才能评论