久久精品欧美日韩精品/狠狠色婷婷久久一区二区三区/国产精品午夜无码av体验区/丰满人妻av无码一区二区三区/成人做爰A片免费看网站爱酱

金山辦公與英偉達團隊合作,加速WPS AI服務

DoNews7月3日消息,在辦公場景中,文檔類型圖像被廣泛使用,比如證件、發票、合同、保險單、掃描書籍、拍攝的表格等,這類圖像包含了大量的純文本信息,還包含有表格、圖片、印章、手寫、公式等復雜的版面布局和結構信息。

早前這些信息均采用人工來處理,需要耗費大量人力,很大程度上阻礙了企業的辦公效率 。其圖像文檔識別與內容理解業務就是為了解決此類用戶痛點。

自 2017 年以來的不斷耕耘,金山辦公在圖像文檔識別與理解領域已達到了國內領先水平。其主要使用了 CV(Computer Vision)與 VIE(Visual Information Extraction 視覺信息抽取) 等相關深度學習技術,例如通過 CV 技術識別發票和 PDF 大綱并獲取其中的數據關系,其日請求次數已達上億次。

圖像識別與理解是一個很復雜的過程,一個任務的 pipeline 用到的深度學習模型多達 20+ 個,且日請求量級較大(上億級別)需要大量的計算資源。當業務落地時,團隊主要面臨以下兩個挑戰:任務的絕對耗時不能過長,以及成本問題。

為了解決上訴的兩個挑戰,金山辦公采用了英偉達 T4 Tensor Core GPU 進行推理、英偉達 TensorRT 8.2.4 進行模型加速、英偉達 Triton 推理服務器 22.04 在 K8S 上進行模型部署與編排。

長鏈路(多達 20+ 個模型的 pipeline)意味著長耗時,若基于 CPU 推理的話,pipeline 耗時會長達 15 秒左右,通過 GPU 推理和 TensorRT 加速,成功將耗時降低到了 2.4 秒左右。

模型部署的時候,常見的做法是推理與業務代碼(前后處理)放在一個進程空間里,每個模型需要在每個進程中加載一次,由于顯存的限制,很多時候難以得到較高的單卡 GPU 使用率。

就算采用了進程池的方式提高了單卡的 GPU 利用率,也會因 CPU 的限制,出現機器整體的 GPU 利用率不高。而在引入了 Triton 推理服務器進行推理部署后,將推理與業務代碼解耦,初步實現將 GPU 資源池化調度。最終在同等業務規模情況下,部署成本節省了 23%。

金山辦公圖像文檔識別與理解業務,通過采用英偉達 T4 Tensor Core GPU 及 TensorRT加速,相比于 CPU 其 pipeline 耗時共下降 84%;而采用英偉達 Triton 推理服務器部署,其部署成本節省了 23% 。

標簽: 金山WPS
金山辦公與英偉達團隊合作,加速WPS AI服務
掃描二維碼查看原文
分享自DoNews
Copyright ? DoNews 2000-2025 All Rights Reserved