AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天

  培訓(xùn)講師:尹立慶

講師背景:
尹立慶老師多年從事人工智能、深度學(xué)習(xí)、大數(shù)據(jù)、區(qū)塊鏈、云計(jì)算、物聯(lián)網(wǎng)研發(fā)工作經(jīng)驗(yàn),資深軟件架構(gòu)師,數(shù)學(xué)博士,北航移動(dòng)云計(jì)算碩士,Cloudera大數(shù)據(jù)認(rèn)證,項(xiàng)目管理師(PMP)認(rèn)證,移動(dòng)云計(jì)算專家,主要研究方向包括人工智能、深度學(xué)習(xí)、機(jī)器學(xué) 詳細(xì)>>

尹立慶
    課程咨詢電話:

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天詳細(xì)內(nèi)容

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)-2天

AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)
-15240011430課程簡介
大模型的應(yīng)用場景很廣泛,可以用于處理多種類型的對(duì)話,包過對(duì)話機(jī)器人、問答機(jī)器人和客服機(jī)器人等。它還可以用于各種自然語言處理任務(wù),比如文本摘要、情感分析和信息提取等。例如,在一個(gè)問答系統(tǒng)中,大模型可以提供準(zhǔn)確的答案,解決用戶的疑惑;在一個(gè)客服機(jī)器人中,他可以幫助用戶解決問題,提供更好的服務(wù)體驗(yàn)。
大模型是用網(wǎng)絡(luò)上之前的數(shù)據(jù)訓(xùn)練的,因此會(huì)有信息滯后的局限性。雖然這些模型的通用知識(shí)很棒,但是如果能讓它們連接到自定義的數(shù)據(jù)和計(jì)算,就會(huì)有更多的實(shí)用價(jià)值,LangChain即可以解決以上的局限性和提供實(shí)用價(jià)值。LangChain是一個(gè)開源的框架,它可以讓AI開發(fā)人員把大型語言模型(LLM)和企業(yè)內(nèi)部數(shù)據(jù)結(jié)合起來。它提供了Python或JavaScript(TypeScript)的包。
LangChain可以讓自己的LLM在回答問題時(shí)參考整個(gè)數(shù)據(jù)庫。所以可以讓自己的大模型訪問最新的數(shù)據(jù),比如報(bào)告、文檔和網(wǎng)站信息。
此課程是尹立慶老師多年人工智能工作經(jīng)驗(yàn)的分享,重點(diǎn)介紹LangChain帶來的技術(shù)變革與應(yīng)用落地和未來發(fā)展趨勢。
-15240011430培訓(xùn)目標(biāo)

深入講解AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù),大模型微調(diào);
LangChain概述;
LangChain環(huán)境部署;
LangChain的Pipeline現(xiàn)場實(shí)操;
深度解讀LangChain帶來的技術(shù)變革與行業(yè)應(yīng)用落地;
深度解讀業(yè)界最新的LangChain技術(shù);
深度解讀LangChain的原理、技術(shù)特性;
深度解讀glm2_6b大模型;
深度剖析LangChain的價(jià)值、應(yīng)用場景;
課程重點(diǎn)探討LangChain的未來發(fā)展趨勢;
介紹LangChain實(shí)施落地技術(shù);
-15240011430培訓(xùn)對(duì)象

本課程適合于對(duì)ChatGPT、LangChain感興趣的人員;
本課程適合于架構(gòu)師、技術(shù)經(jīng)理、高級(jí)工程師;
適合于企業(yè)科技研發(fā)人員和人工智能科學(xué)家;
-15240011430培訓(xùn)方式

以課堂講解、演示、案例分析為主,內(nèi)容偏實(shí)用,結(jié)合講解與演示方式,循序漸進(jìn),輔以互動(dòng)研討、現(xiàn)場答疑、學(xué)以致用。
-15240011430課程安排

課程時(shí)間:2天
課程內(nèi)容:
時(shí)間
內(nèi)容
備注
第1天
AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)大模型微調(diào)(深入講解AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù))(120分鐘)
AI大模型應(yīng)用企業(yè)內(nèi)部數(shù)據(jù)
大模型微調(diào)
大模型微調(diào)的概念和意義
預(yù)訓(xùn)練模型的優(yōu)勢和應(yīng)用場景
大模型微調(diào)基本原理
大模型微調(diào)方法
數(shù)據(jù)加載、模型訓(xùn)練、調(diào)參等常見操作的優(yōu)化和加速方法
使用可視化工具進(jìn)行模型訓(xùn)練過程的分析和調(diào)試
大模型微調(diào)的基本流程和關(guān)鍵步驟
常用的深度學(xué)習(xí)框架和工具
TensorFlow、PyTorch等常見深度學(xué)習(xí)框架
Parameter-Efficient Fine-Tuning (PEFT)
預(yù)訓(xùn)練階段
目標(biāo)任務(wù)準(zhǔn)備
構(gòu)建微調(diào)任務(wù)
PEFT微調(diào)
常用的PEFT方法
Adapter Tuning
Prefix Tuning
Prompt Tuning
P-Tuning
LoRA
案例剖析:應(yīng)用大模型微調(diào)技術(shù)解決實(shí)際問題
大模型微調(diào)技術(shù)與實(shí)踐(大模型微調(diào)技術(shù)與實(shí)踐)(90分鐘)
大模型微調(diào)技術(shù)與實(shí)踐
常見的大模型微調(diào)技術(shù)
知識(shí)蒸餾
遷移學(xué)習(xí)
領(lǐng)域適應(yīng)
案例大模型微調(diào)的實(shí)踐
文本分類
圖像識(shí)別
自然語言處理
探討大模型微調(diào)過程中可能遇到的問題和解決方案
選擇合適的預(yù)訓(xùn)練模型并進(jìn)行微調(diào)
如何評(píng)估微調(diào)效果和改進(jìn)方案
實(shí)際應(yīng)用案例分享與討論
LangChain概述(LangChain概述)(30分鐘)
LangChain概述
LangChain介紹
LangChain的重要概念
Components
Prompts
Chains
Agents
大模型微調(diào)
LangChain工作原理(LangChain工作原理)(30分鐘)
LangChain工作原理
LangChain如何與OpenAI的LLM合作
LoRA模型(LoRA模型)(90分鐘)
LoRA模型
LangChain如何與OpenAI的LLM合作
LoRA模型概述
繪畫模型
LoRA 原論文
LoRA模型的核心思想
數(shù)學(xué)原理
LoRA模型訓(xùn)練
低秩適應(yīng)訓(xùn)練方法
LoRA 庫的GitHub存儲(chǔ)庫
時(shí)間
內(nèi)容
備注
第2天
深度解讀glm2_6b大模型(深度解讀glm2_6b大模型)(90分鐘)
深度解讀glm2_6b大模型
glm2_6b大模型的原理
GPT(Generative Pre-trained Transformer)架構(gòu)
glm2_6b大模型數(shù)據(jù)集
glm2_6b大模型的部署
準(zhǔn)備環(huán)境
安裝依賴庫
下載模型權(quán)重
加載模型
部署API或服務(wù)
調(diào)優(yōu)和監(jiān)控
glm2_6b大模型的訓(xùn)練
glm2_6b大模型的應(yīng)用
自然語言處理
文本生成
機(jī)器翻譯
問答系統(tǒng)
LangChain環(huán)境部署(LangChain環(huán)境部署)(90分鐘)
LangChain環(huán)境部署
安裝依賴包
配置環(huán)境
獲取pinecone環(huán)境和KPI_KEY
獲取OPENAI_KPI_KEY
LangChain的Pipeline現(xiàn)場實(shí)操(LangChain的Pipeline現(xiàn)場實(shí)操)(90分鐘)
LangChain的Pipeline現(xiàn)場實(shí)操
Pipeline執(zhí)行流程
大模型包裝器
LangChain應(yīng)用實(shí)戰(zhàn)(LangChain應(yīng)用實(shí)戰(zhàn))(90分鐘)
模型(LLM包裝器)
提示Prompts
Prompts模板
鏈Chains
嵌入和向量存儲(chǔ)Embeddings and VectorStores
代理Agents
示例代碼

 

尹立慶老師的其它課程

人工智能大模型應(yīng)用案例實(shí)戰(zhàn)-15240011430課程簡介大模型也稱為大語言模型(LLM)是指使用大量文本數(shù)據(jù)訓(xùn)練的深度學(xué)習(xí)模型,可以生成自然語言文本或理解語言文本的含義。這些模型通常基于深度學(xué)習(xí)架構(gòu),如Transformer等,這有助于它們?cè)诟鞣NNLP任務(wù)上取得令人驚嘆的表現(xiàn)。目前的大語言模型(如GPT和BERT)采用與小模型類似的Transformer架

 講師:尹立慶詳情


 發(fā)布內(nèi)容,請(qǐng)點(diǎn)我!  講師申請(qǐng)/講師自薦
清華大學(xué)卓越生產(chǎn)運(yùn)營總監(jiān)高級(jí)研修班
清華大學(xué)卓越生產(chǎn)運(yùn)營總監(jiān)高級(jí)研修班
COPYRIGT @ 2001-2018 HTTP://m.gzzmzs.cn INC. ALL RIGHTS RESERVED. 管理資源網(wǎng) 版權(quán)所有