AIGC-6天

  培訓(xùn)講師:葉梓

講師背景:
葉梓老師葉梓,工學(xué)博士,高級工程師。現(xiàn)某大型上市企業(yè)資深技術(shù)專家。2005年上海交通大學(xué)計算機(jī)專業(yè)博士畢業(yè),在校期間的主研方向?yàn)閿?shù)據(jù)挖掘、機(jī)器學(xué)習(xí)、人工智能。畢業(yè)后即進(jìn)入軟件行業(yè)從事信息化技術(shù)相關(guān)工作;負(fù)責(zé)或參與了多項(xiàng)、省市級人工智能及大數(shù) 詳細(xì)>>

葉梓
    課程咨詢電話:

AIGC-6天詳細(xì)內(nèi)容

AIGC-6天

基于人工智能的內(nèi)容生成(AIGC)
【課程簡介】
無論是火遍全網(wǎng)的AI繪畫,還是震驚世人的ChatGPT,都屬于AIGC(基于人工智能的內(nèi)容生成)這一概念。AIGC并不是一個全新的概念,它最早出現(xiàn)在深度學(xué)習(xí)模型“對抗生成網(wǎng)絡(luò)”GAN的應(yīng)用中,被譽(yù)為“21世紀(jì)最強(qiáng)大的算法模型之一” ,后續(xù)發(fā)展起來的擴(kuò)散模型,以及自然語言領(lǐng)域BERT、GPT等都是典型的AIGC模型。
本課程以AIGC發(fā)展歷程為主線,由淺入深介紹了AIGC相關(guān)模型的技術(shù)和應(yīng)用場景,可以作為AIGC領(lǐng)域?qū)W習(xí)者的入門到進(jìn)階級課程。
【課程時長】
6天(6小時/天)
【課程對象】
理工科本科及以上,且至少了解一門編程語言。
【課程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)
時間
內(nèi)容
案例實(shí)踐與練習(xí)
Day1上午
綜述與準(zhǔn)備
AIGC綜述
AIGC的概念
AIGC的應(yīng)用場景
AIGC的知識地圖
準(zhǔn)備工作
概念與術(shù)語
Python(Anaconda)的安裝
Pycharm的安裝與使用
Jupyter Notebook的安裝與使用
Tensorflow與pytorch的安裝
Opencv、Sklearn工具包的運(yùn)用
案例實(shí)踐:
Anaconda安裝
Pip install的技巧
Tensorflow-GPU的安裝
pytorch的安裝
Jupyter Notebook的使用
Opencv的基本例子
Day1下午
基礎(chǔ)模型
基礎(chǔ)的基礎(chǔ):神經(jīng)網(wǎng)絡(luò)
人工神經(jīng)元及感知機(jī)模型
Sigmoid激活函數(shù)
前向神經(jīng)網(wǎng)絡(luò)的架構(gòu)
梯度下降
誤差反向傳播詳解
基礎(chǔ)的基礎(chǔ):性能評價指標(biāo)(5)
精確率;
P、R與F1
ROC與AUC
對數(shù)損失
泛化性能評價:k折驗(yàn)證驗(yàn)證
案例實(shí)踐:
手算神經(jīng)網(wǎng)絡(luò)BP算法
只用numpy,手推BPNN
Day2上午
深度學(xué)習(xí)基礎(chǔ)
深度學(xué)習(xí)基礎(chǔ)
連接主義的興衰
深度學(xué)習(xí)與神經(jīng)網(wǎng)絡(luò)的區(qū)別與聯(lián)系
目標(biāo)函數(shù)與激勵函數(shù)
學(xué)習(xí)步長
權(quán)重初始化
權(quán)重衰減(Weight Decay)
梯度下降的方法
避免過適應(yīng)
圖像處理基礎(chǔ):用于分類的CNN
圖像分類概述
AlexNet
ZF-Net
卷積層的誤差反向傳播
池化層的誤差反向傳播
VGG(5層變?yōu)?組)
遷移學(xué)習(xí)
GoogLenet和Inception模塊
模型退化與ResNet
DenseNet(充分利用特征)
最新的efficientnet
案例實(shí)踐:
通過深度BP網(wǎng)絡(luò)實(shí)現(xiàn)手寫數(shù)字的識別
各種梯度下降方法的實(shí)戰(zhàn)效果
Batch normalization的實(shí)戰(zhàn)效果
VGG各層的可視化展現(xiàn)
遷移學(xué)習(xí):識別貓和狗
Resnet用于圖像分類
Day2下午
圖像生成模型
VAE
GAN
早期圖像生成模型:VAE
圖像生成模型
AE
VAE
DAE
圖像生成經(jīng)典模型:GAN
生成對抗網(wǎng)絡(luò)(GAN)
KL散度與JS散度
改進(jìn)的GAN:DCGAN
加上約束:infoGAN
根本上解決:Wasserstein GAN
Zoo of GAN
案例實(shí)踐:
GAN生成的數(shù)字
VAE生成的數(shù)字
babyGAN:特朗普的孩子?
styleGAN:查無此人
Day3上午
圖像分類 CNN
圖像分類CNN
自然語言處理基礎(chǔ)(1)
語言模型
Bi-Gram與N-Gram
機(jī)械分詞與統(tǒng)計分詞
詞性標(biāo)注
命名實(shí)體識別
情感分析
自然語言生成基礎(chǔ):RNN
RNN基本原理
LSTM、GRU
雙向循環(huán)神經(jīng)網(wǎng)絡(luò)
編碼器與解碼器結(jié)構(gòu)
seq2seq模型
Attention
圖片->文字的生成:NIC
案例實(shí)踐:
jieba的分詞效果
交易數(shù)據(jù)的預(yù)測;
《絕代雙驕》人物關(guān)系分析
SnowNLP:褒義的中性詞
Show and tell模型效果
Day4上午
自然語言處理
自然語言生成基礎(chǔ):詞向量
W2V:CBOW
W2V:skip-gram
W2V:Hierachical Softmax
W2V:Negative Sampling
自然語言生成進(jìn)階:Transformer
所需的僅僅是“注意力”
Transformer中的block
自注意力機(jī)制
多頭注意力
位置編碼(拋棄RNN)
Batch Norm與Layer Norm
解碼器的構(gòu)造
案例實(shí)踐:
藏頭詩生成;
《絕代雙驕》分析
SnowNLP:褒義的中性詞
Word2vec代碼解讀
手撕Transformer
Day4下午
預(yù)訓(xùn)練模型基礎(chǔ)
自然語言生成進(jìn)階:BERT
BERT整體架構(gòu)
Masked-LM
Next Sentence Prediction
改造下游任務(wù)
WordPiece作為輸入
哪些改進(jìn)起作用?
自然語言生成進(jìn)階:GPT
“獨(dú)角獸”的威力
GPT的內(nèi)部架構(gòu)
基于Transformer的改造
自注意力機(jī)制的改進(jìn)
GPT的應(yīng)用場景
GPT-3
最新的GPT-3.5
基于圖像補(bǔ)全的模型:MAE
iGPT
Vision Transformer(ViT)
BEiT
MAE令人驚奇的效果
MAE詳解
案例實(shí)踐:
BERT代碼解讀
BERT下游任務(wù)的改造
讓GPT寫一篇散文
GPT會做小學(xué)應(yīng)用題嗎?
MAE的效果
Day5上午
強(qiáng)化學(xué)習(xí)
強(qiáng)化學(xué)習(xí)基礎(chǔ)
agent的屬性
馬爾科夫獎勵/決策過程
exploration and exploitation
狀態(tài)行為值函數(shù)
Bellman期望方程
最優(yōu)策略
強(qiáng)化學(xué)習(xí)經(jīng)典方法
策略迭代與價值迭代
蒙特卡洛法
時序差分法
DP、MC、TD的關(guān)系
案例實(shí)踐:
格子世界
谷底的小車
倒立擺
blackjack
Day5下午
深度強(qiáng)化學(xué)習(xí)
深度強(qiáng)化學(xué)習(xí)
值函數(shù)的參數(shù)化表示
值函數(shù)的估計過程
深度學(xué)習(xí)與強(qiáng)化學(xué)習(xí)的結(jié)合
基礎(chǔ)的DQN 方法
Double DQN
Prioritized Replay
Dueling Network
基于信賴域的深度強(qiáng)化學(xué)習(xí)
信賴域系方法背景
信賴域系方法發(fā)展路線圖
TRPO方法
PPO方法
案例實(shí)踐:
井字棋
笨鳥先飛:DQN
Day6上午
最新生成模型
擴(kuò)散模型(圖像生成最新模型)綜述
1、擴(kuò)散模型與GAN、VAE的關(guān)系
2、擴(kuò)散模型常用算法
3、擴(kuò)散模型的應(yīng)用領(lǐng)域
擴(kuò)散模型之DDPM
1、整體流程
2、前向與還原步驟
3、訓(xùn)練與采樣過程
4、模型結(jié)構(gòu)
5、實(shí)驗(yàn)效果
擴(kuò)散模型之DDIM
1、前提條件
2、優(yōu)化推理與優(yōu)化前置條件
4、實(shí)驗(yàn)效果
擴(kuò)散模型之CLIP
1、基本概念
2、模型架構(gòu)
3、實(shí)驗(yàn)效果
案例實(shí)踐:
DDPM的效果
CLIP的效果
Day6下午
最新生成模型及chatGPT
擴(kuò)散模型之DALLE-2
1、整體架構(gòu)
2、PIROR模塊與DECODER模塊
4、效果對比
擴(kuò)散模型之Stable-Diffusion
1、整體架構(gòu)
2、潛在表達(dá)得生成模型
3、條件化機(jī)制
4、實(shí)驗(yàn)效果
chatGPT(自然語言生成最新模型)
1、技術(shù)背景
2、主要特點(diǎn)
3、ChatGPT的訓(xùn)練過程
4、InstructGPT與PPO
5、WebGPT和CICERO
6、chatGPT的應(yīng)用領(lǐng)域
7、chatGPT引發(fā)的討論
案例實(shí)踐:
異想天開的DALL-E 2
匪夷所思的chatGPT
其他生成模型效果演示

 

葉梓老師的其它課程

DeepSeek輔助日常工作培訓(xùn)提綱一、引言介紹大模型領(lǐng)域的競爭態(tài)勢強(qiáng)調(diào)DeepSeek的獨(dú)特優(yōu)勢二、DeepSeek概述DeepSeek的發(fā)展背景與定位DeepSeek各版本的特點(diǎn)與區(qū)別三、DeepSeek部署本地單機(jī)部署DeepSeek蒸餾版的硬件要求本地單機(jī)部署DeepSeek(量化)滿血版的配置與性能本地單機(jī)多卡部署DeepSeek(量化)滿血版的策

 講師:葉梓詳情


知識圖譜的Python實(shí)現(xiàn)【課程簡介】本課程包含知識圖譜的基本概念及常用算法,并實(shí)現(xiàn)了一個基于知識圖譜的對話機(jī)器人。通過1天的系統(tǒng)學(xué)習(xí)、案例講解和動手實(shí)踐,讓學(xué)員能初步了解知識圖譜的的相關(guān)知識與技術(shù)。【課程對象】理工科本科以上,或至少了解一種編程語言。知識圖譜基礎(chǔ)知識圖譜存儲知識圖譜基礎(chǔ)概念知識推理本體推理方法本體推理工具語義搜索RDF與RDFSOWL與OW

 講師:葉梓詳情


智能醫(yī)療技術(shù)與ChatGPT臨床應(yīng)用三日深度培訓(xùn)第一天:人工智能基礎(chǔ)與Python編程入門上午:人工智能在醫(yī)療領(lǐng)域的應(yīng)用概述Python編程基礎(chǔ)環(huán)境搭建、數(shù)據(jù)類型、流程控制Python環(huán)境搭建Python數(shù)據(jù)類型與流程控制Python函數(shù)的應(yīng)用Python面向?qū)ο缶幊?文件讀寫和目錄操作異常處理機(jī)器學(xué)習(xí)概述數(shù)據(jù)探索性分析:智能化數(shù)據(jù)分析特征工程:數(shù)據(jù)準(zhǔn)備、數(shù)

 講師:葉梓詳情


人工智能“最強(qiáng)模型”transformer詳解【課程簡介】Transformer是迄今為止人工智能領(lǐng)域的最新和最強(qiáng)大的模型類別之一。它幾乎正在憑借一己之力來推動深度學(xué)習(xí)的又一波重大進(jìn)步。Transformer模型充分運(yùn)用了稱為注意力和自注意力機(jī)制,以檢測系列(或圖像)中元素相互影響和相互依賴的微妙關(guān)系。本課程通過2天時間的詳細(xì)介紹,可使學(xué)習(xí)者初步了解Tran

 講師:葉梓詳情


||1.人工智能概述||第一節(jié):人工智能與機(jī)器學(xué)習(xí)基礎(chǔ)|2.機(jī)器學(xué)習(xí)概述|||3.機(jī)器學(xué)習(xí)算法應(yīng)用分析|||1.一元線性回歸|||2.代價函數(shù)|||3.梯度下降法||第二節(jié):回歸算法|4.sklearn一元線性回歸應(yīng)用|||5.多元線性回歸|||6.sklearn多元線性回歸應(yīng)用|||案例:葡萄酒質(zhì)量和時間的關(guān)系|||1.KNN分類算法介紹|||2.KNN分

 講師:葉梓詳情


人工智能技術(shù)詳解【課程內(nèi)容】本課程包含大數(shù)據(jù)、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)、知識圖譜、強(qiáng)化學(xué)習(xí)與深度強(qiáng)化學(xué)習(xí)的相關(guān)知識?!菊n程時長】7天(7小時/天)【課程對象】理工科本科及以上,且至少了解一門編程語言?!菊n程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)時間內(nèi)容案例實(shí)踐與練習(xí)Day1上午準(zhǔn)備工作準(zhǔn)備工作1.概念與術(shù)語2.Python(Anaconda)的安裝3.Pycharm

 講師:葉梓詳情


人工智能與深度學(xué)習(xí)第一天:人工智能概念與經(jīng)典算法人工智能概念綜述(第一天——1)從一些術(shù)語辨析人工智能人工智能之連接主義的興衰史這次AI的熱潮是怎么來的?圖像處理領(lǐng)域的最新熱點(diǎn)(第一天——2)分類、目標(biāo)檢測與實(shí)例分割風(fēng)格遷移自動駕駛?cè)梭w姿態(tài)識別超分辨率圖像生成語言處理領(lǐng)域的最新熱點(diǎn)(第一天——3)Attention機(jī)制自動構(gòu)建知識圖譜看圖說話預(yù)訓(xùn)練機(jī)制三大經(jīng)

 講師:葉梓詳情


人工智能之最新自然語言處理技術(shù)與實(shí)戰(zhàn)課程介紹:自然語言處理(簡稱NLP)是計算機(jī)科學(xué)和人工智能研究的一個重要方向,研究計算機(jī)和理解和運(yùn)用人類語言進(jìn)行交互的問題,它是集語言學(xué)、機(jī)器學(xué)習(xí)、統(tǒng)計學(xué)、大數(shù)據(jù)于一體的綜合學(xué)科。本課程主要介紹了NLP中的常用知識點(diǎn):分詞、詞法分析、句法分析、向量化方法、經(jīng)典的NLP機(jī)器學(xué)習(xí)算法,還重點(diǎn)介紹了NLP中最近兩年來基于大規(guī)模語

 講師:葉梓詳情


第一天上午:統(tǒng)計分析原理從最簡單的案例開始統(tǒng)計基礎(chǔ)描述性統(tǒng)計用SPSS實(shí)現(xiàn)描述性統(tǒng)計的案例回歸分析:線性回歸回歸分析:logistics回歸用SPSS實(shí)現(xiàn)回歸分析的案例可視化工具第一天下午:數(shù)據(jù)庫與數(shù)據(jù)倉庫介紹數(shù)據(jù)庫概述SQL(基本的增、刪、改、查)SQL(稍復(fù)雜的子句或嵌套)基于MySQL的上機(jī)操作SQL語言數(shù)據(jù)倉庫:度量與維度數(shù)據(jù)倉庫:星型模型、雪花模型

 講師:葉梓詳情


計算機(jī)視覺【課程時長】3天(7小時/天)【課程對象】理工科本科及以上,且至少了解一門編程語言。【課程大綱】(培訓(xùn)內(nèi)容可根據(jù)客戶需求調(diào)整)時間內(nèi)容案例實(shí)踐與練習(xí)Day1上午準(zhǔn)備工作準(zhǔn)備工作決策樹準(zhǔn)備工作(1)概念與術(shù)語Python(Anaconda)的安裝Pycharm的安裝與使用JupyterNotebook的安裝與使用Tensorflow與pytorch的

 講師:葉梓詳情


 發(fā)布內(nèi)容,請點(diǎn)我! 講師申請/講師自薦
清華大學(xué)卓越生產(chǎn)運(yùn)營總監(jiān)高級研修班
清華大學(xué)卓越生產(chǎn)運(yùn)營總監(jiān)高級研修班
COPYRIGT @ 2001-2018 HTTP://m.gzzmzs.cn INC. ALL RIGHTS RESERVED. 管理資源網(wǎng) 版權(quán)所有