日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 科技  > 軟件

攜程旅游大語言模型系統介紹及其應用

來源: 責編: 時間:2023-12-09 15:23:46 350觀看
導讀作者簡介Terry,攜程自然語言處理和大語言模型算法方向專家,有多年的自然語言處理項目經驗和AI落地經驗。一、背景隨著OpenAI的ChatGPT火遍全球,大語言模型(Large Language Model,下文簡稱LLM)成為了人工智能領域的熱門話題

作者簡介UTY28資訊網——每日最新資訊28at.com

Terry,攜程自然語言處理和大語言模型算法方向專家,有多年的自然語言處理項目經驗和AI落地經驗。UTY28資訊網——每日最新資訊28at.com

一、背景

隨著OpenAI的ChatGPT火遍全球,大語言模型(Large Language Model,下文簡稱LLM)成為了人工智能領域的熱門話題。大語言模型是一種基于深度學習的自然語言處理技術,它能夠模擬人類的語言能力并生成連貫的文本。這種技術的出現引起了廣泛的關注和應用。大型語言模型在機器翻譯、文本生成、智能對話等領域發揮著重要作用。在這些領域中,它們能夠理解和生成自然語言,使得機器能夠更好地與人類進行交流和合作。

無論是在學術研究還是商業領域中,LLM都有潛力成為一個強大的工具,幫助我們更好地理解和利用自然語言。但由于ChatGPT是閉源且信息安全存疑,并不適合在企業內部的所有業務場景使用。此外,最近有大批優秀的開源大語言模型涌現,比如Llama-2。因此,很多企業構建屬于自己領域的LLM和配套系統,應用在自身的業務場景中。為了適應旅游場景的應用,我們也構建了一套訓練、推理LLM的系統,充分利用LLM的強大能力。
UTY28資訊網——每日最新資訊28at.com

二、LLM訓練系統

2.1 訓練基礎架構

LLM訓練系統有預訓練(Pretrain)、繼續預訓練(Continue Pretrain)、微調(Finetune)幾個模式。UTY28資訊網——每日最新資訊28at.com

1)預訓練階段使用的數據是大規模的通用數據,通常訓練成本高達數百萬GPU-hour,成本很高。例如在Llama-2-70B的預訓練中,使用的172萬GPU-hour,在Falcon-180B的預訓練中,使用了超過700萬GPU-hour。UTY28資訊網——每日最新資訊28at.com

2)繼續預訓練階段基于預訓練過的基座模型(foundation model),使用特定領域的無標注數據訓練,通常需要數千GPU-hour??梢杂糜趯W習領域內知識,拓展語言、領域詞表。UTY28資訊網——每日最新資訊28at.com

3)微調階段基于基座模型,使用特定任務的數據訓練,可以使模型對齊某些輸出范式,完成特定的任務,通常需要10到1000 GPU-hour,成本較低。代表模型有Alpaca等。UTY28資訊網——每日最新資訊28at.com

訓練框架基于PyTorch + DeepSpeed、Transformers的技術路線,有Nvidia、Meta、Microsoft、HuggingFace等公司支持,并且有廣泛社區支持。PyTorch在更新至2.0后,加入compile模式,大幅提升訓練速度;DeepSpeed中的ZeRO與offload技術幫助模型在多機多卡的訓練中使用較小的顯存用量;這些技術簡化了百億到千億參數的模型的訓練,并且在訓練中保持穩定。UTY28資訊網——每日最新資訊28at.com

通過Flash Attention、Apex、算子融合等提高硬件利用率的技術,目前我們可以以超過50%浮點利用率(MFU)的效率訓練百億參數的模型。UTY28資訊網——每日最新資訊28at.com

2.2 訓練參數量

根據可訓練的參數量可以分為全參數訓練、LoRA、QLoRA等技術。UTY28資訊網——每日最新資訊28at.com

全參數訓練推薦在大量數據及預算充分的情況下使用,訓練時模型的全部參數參與訓練,可以精準的對齊目標范式;LoRA、QLoRA作為參數高效的訓練方式,推薦在資源受限或需要快速獲取結果的情況下使用。UTY28資訊網——每日最新資訊28at.com

2.3 拓展詞表

Llama原生詞表中1個中文字通常對應2個token,導致中文內容的token數量較長,不利于模型訓練與推理的效率;并且Llama的預訓練語料中中文占比較少,沒有針對中文語料優化。UTY28資訊網——每日最新資訊28at.com

拓展詞表可以幫助解決這兩個問題。我們在Llama詞表的基礎上拓展了超過1萬的中文詞表,并使用大量中文語料繼續預訓練,模型在中文數據上的困惑度(Perplexity)顯著降低。在訓練與推理時,相同字數的中文數據的token減少一半,成本降低。UTY28資訊網——每日最新資訊28at.com

2.4 Flash Attention

在GPU SRAM與HBM(High Bandwidth Memory)的IO速度相差十多倍,使用更少的內存訪問量可以顯著提高計算速度。Flash Attention 的目標是避免從HBM中讀寫注意力矩陣。Flash Attention解決了兩個問題達到這個目標:UTY28資訊網——每日最新資訊28at.com

1)在不訪問整個輸入的情況下計算 softmax reduction。Flash Attention重組注意力計算,將輸入分成塊,并在輸入塊上進行多次傳遞,從而逐步執行 softmax reduction。UTY28資訊網——每日最新資訊28at.com

2)在后向傳播中不能存儲中間注意力矩陣。存儲前向傳遞的 softmax 歸一化因子,在后向傳播中快速重新計算片上注意力,這比從 HBM 中讀取中間注意力矩陣的標準方法更快。UTY28資訊網——每日最新資訊28at.com

三、LLM推理系統

LLM的推理系統的關鍵的是延遲與成本。延遲關系到用戶的感受,最低標準是不能低于人類的打字速度,每秒1-3字,在給用戶整段文章或者代碼提示時需要更快的速度,理想情況時可以略高于人類看文字的速度,約每秒5-10字。然而高速通常意味著更高的硬件要求,更高的成本。UTY28資訊網——每日最新資訊28at.com

我們的推理部署系統有低延遲、高吞吐、高并發、高可用的特性。(以13B模型、1xA100部署為例)UTY28資訊網——每日最新資訊28at.com

1)低延遲:最快生成速度20ms/token;UTY28資訊網——每日最新資訊28at.com

2)批量生成吞吐量達到1600+ token/s;UTY28資訊網——每日最新資訊28at.com

3)可有效應對并發數超過100;UTY28資訊網——每日最新資訊28at.com

4)高可用部署,僅需10分鐘即可部署兩地、多區域部署。UTY28資訊網——每日最新資訊28at.com

3.1 KV-Cache

LLM在推理時是一個自回歸的過程,使用前n個token作為輸入預測第n+1個token。其中attention部分使用的K和V部分的前n token的向量在每次預測中時是不變的,可以將KV的值緩存下來,在預測下一個token的時候避免重復計算。UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

3.2 PagedAttention

在應用KV-cache進行LLM的自回歸解碼過程中,LLM 的所有輸入token都會生成其注意K和V張量,并且這些張量保存在x顯存中以生成下一個token。其中有兩個特點導致內存大量浪費,大約浪費了60%-80%的顯存:UTY28資訊網——每日最新資訊28at.com

1)緩存占用大:在Llama-13B中單個序列最多占用1.7GB;UTY28資訊網——每日最新資訊28at.com

2)動態:緩存大小取決于序列長度,序列長度變化很大并且不可預測。UTY28資訊網——每日最新資訊28at.com

PagedAttention 允許在不連續的內存空間中存儲連續的KV張量。PagedAttention 將每個序列的 KV 緩存劃分為塊,每個塊包含固定數量toke的KV。在注意力計算過程中,PagedAttention 內核有效地識別并獲取這些塊。除此之外使用的內存共享,Copy-on-write等機制大幅降低內存使用量,并提升吞吐量。比HuggingFace默認方法提高最多24倍。UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

3.3 Continuous Batching

批量預測可以減少模型的加載次數,提高內存帶寬利用率,提高計算資源的利用率,最終增加吞吐量、降低推理成本。UTY28資訊網——每日最新資訊28at.com

傳統的批量預測是靜態批處理,批處理的大小在推理完成前保持不變。然而在LLM的推理中每個請求逐個生成token,直到生成到最大長度或者停止token(EOS),在同一批次中每個請求的生成長度幾乎不可能相同。如果采用傳統的靜態批處理,需要不停生成直到最長的序列完成,GPU并不能完全充分利用。在極端情況,同一批次同時生成最大長度為100token與8000token的序列時,需要等待8000 token的序列完成,才能進行下一批次的預測,這樣GPU利用率會低于分別推理每一條請求,即批處理大小為1的情況。UTY28資訊網——每日最新資訊28at.com


UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

為了充分利用GPU,增大吞吐量,可以使用連續批處理(Continuous Batching)。在模型輸出停止token后放入新的待生成序列,批次中的每一個空白token都可以被充分利用。UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

3.4 實際推理速度

以部署在A100的13B模型為例,從第1個token生成至128token,在并發為1時可以實現2.6qps,在并發100時可以實現13qps,并且延遲得到有效控制,用戶感知的生成token速度在16-48 token/s,超過人類聊天時的打字速度,在客服聊天場景下體驗良好。在需要高吞吐量的場景下,最高可以超過1700 token/s。按照A100 20元/小時的成本估算,約0.003元/1000token,比使用GPT-3.5的使用成本低5-10倍。UTY28資訊網——每日最新資訊28at.com

如下圖所示,并發限制在100時可以達到用戶感知與吞吐量的最佳平衡,用戶無需忍受超長時間的等待,服務器可以以較低的成本提供服務。UTY28資訊網——每日最新資訊28at.com


UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

四、旅游場景的應用

4.1 智能客服機器人

智能客服機器人在攜程的服務環節起到非常重要的作用,60%以上的客人通過智能客服機器人等自助功能解決咨詢問題,例如下圖中的場景。UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

傳統的智能客服機器人,一般借助分類或者匹配模型,準確識別用戶的意圖,進而回答客人問題或者幫助客人解決問題。但傳統的分類或匹配模型經常面臨召回率不高,缺少訓練語料等問題,特別是針對較為長尾的用戶意圖。一般情況下,有了充足的高質量訓練語料,模型才能有好的效果,而為了收集高質量語料,往往需要投入較多的人力。UTY28資訊網——每日最新資訊28at.com

大語言模型系統,解決了上述的問題。首先,LLM可以取代傳統小模型,完成識別用戶意圖的任務,并且在準確率和召回率上都有提升。此外,在我們LLM推理系統的加持下,LLM的推理速度可以達到傳統小模型的水平。線上數據表明,在識別意圖方面,LLM相比于傳統模型,準確率提升5%以上,召回率提升20%以上,而響應速度保持不變。UTY28資訊網——每日最新資訊28at.com

其次,由于LLM使用成本較高,對于繼續使用小模型的場景,借助LLM的生成能力,可以輕松構造出大量的高質量語料,并且這些樣本類型多樣,與客人的真實問題相近。通過這種方式可以提高模型的泛化性能,還能節省人力投入。目前已經落地的場景中,準備語料的人力投入平均從20人日減少到5人日以下。UTY28資訊網——每日最新資訊28at.com

4.2 信息抽取

在旅游的服務場景中,往往從客人或供應商獲取的是大段的非結構化文本信息,此時需要依賴人工進行信息抽取并填表,需要花費很高的人工成本。UTY28資訊網——每日最新資訊28at.com

而采用傳統算法進行抽取,實際使用中的準確率和召回率都不是很高。此外,當提取復雜關系的實體時,需要花費大量時間設計模型與規則,依然有很高的開發成本。UTY28資訊網——每日最新資訊28at.com

大語言模型系統,解決了上述的問題。使用LLM只需要簡單地構造prompt,就能輕松識別復雜關系的實體,開發成本大大降低。UTY28資訊網——每日最新資訊28at.com

以下圖的火車票信息抽取場景為例,非結構化文本內包含多人、多時間、不同出發地、到達地、車廂、座位等實體,并且輸出也需要歸納為多行。經過微調后的LLM,可以準確地將目標信息結構化輸出為表格。針對火車票信息抽取場景,相比于采用傳統算法,LLM的抽取準確率可以從80%提升到95%以上,而開發人日從5人日左右減少到1人日以下。UTY28資訊網——每日最新資訊28at.com

圖片UTY28資訊網——每日最新資訊28at.com

4.3 會話總結

在客服場景中,不同時間或不同場景,往往會由不同的客服人員服務客人。當客人的對話結束時,需要對客人的對話記錄進行歸納、總結,便于后續其他客服人員服務客人時,能快速了解之前的背景信息,否則需要花費時間去查看歷史對話記錄。UTY28資訊網——每日最新資訊28at.com

如果依賴人工總結,會花費大量的人工成本。而采用傳統的算法小模型,很容易造成信息丟失,準確率不高等問題。UTY28資訊網——每日最新資訊28at.com

大語言模型系統,解決了上述的問題。借助LLM強大的生成能力,我們可以通過調整prompt,讓模型對會話內容進行歸納,并按我們需要的方式輸出,例如將客人問題發生的時間、地點、任務等信息,串聯成一段通順且便于理解的話,也可以將客人的問題總結成標簽。UTY28資訊網——每日最新資訊28at.com

線上數據表明,采用LLM,準確率相比小模型提升5%以上,節省客服人員平均每段對話的查看時間2分鐘以上。UTY28資訊網——每日最新資訊28at.com

五、未來與展望

除了大語言模型以外,其他的大模型也在高速發展中,多模態大模型未來會成為主流??梢灶A見到,大模型在旅游領域的未來是非常廣闊的,隨著科技的不斷發展,大模型將在旅游行業中發揮重要作用。例如:UTY28資訊網——每日最新資訊28at.com

  • 幫助旅游企業進行市場分析和預測:通過對大量的數據進行分析,大模型可以幫助企業了解旅游市場的趨勢和消費者的需求,從而更好地制定營銷策略和推出符合市場需求的產品。
  • 提供個性化的旅游推薦和定制服務:通過分析用戶的歷史數據和偏好,大模型可以為用戶提供個性化的旅游推薦,包括旅游線路、酒店、景點等推薦場景。同時,大模型還可以根據用戶的需求進行旅游行程的定制,提供更好的旅行體驗。

隨著使用量的提高,對模型的反饋也可以幫助模型進行大規模的人類反饋的強化學習(RLHF),進一步提升大模型的性能,實現更優秀的表現。UTY28資訊網——每日最新資訊28at.com

本文鏈接:http://www.www897cc.com/showinfo-26-40686-0.html攜程旅游大語言模型系統介紹及其應用

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: Java開發者的MySQL數據庫版本管理策略

下一篇: 程序中樹形結構(Tree)的設計思路及程序實現,附源代碼

標簽:
  • 熱門焦點
Top 主站蜘蛛池模板: 枝江市| 文登市| 白沙| 龙岩市| 禄丰县| 灵宝市| 页游| 镇巴县| 商南县| 新泰市| 长岭县| 洛隆县| 黄梅县| 扎赉特旗| 兴义市| 常州市| 赤壁市| 金阳县| 电白县| 尖扎县| 滁州市| 临桂县| 西乡县| 县级市| 平遥县| 兴和县| 安庆市| 广昌县| 乐陵市| 日照市| 宁海县| 湖口县| 太和县| 紫阳县| 石渠县| 股票| 白玉县| 前郭尔| 永川市| 哈密市| 彭山县|