国模叶桐尿喷337p人体,国产乱xxⅹxx国语对白,国产精品人妻无码久久久郑州,国产一区二区内射最近更新,国产一区二区三区不卡在线看

首頁 資訊正文

國家級平臺上線DeepSeek大模型,本地化極簡部署指南來了!

  近日,DeepSeek大模型正式上線國家級平臺,標志著我國在人工智能領域邁出了重要一步。

  DeepSeek大模型上線國家級平臺

  人民網(wǎng)消息顯示,目前DeepSeek-R1、V3、Coder等系列模型已登陸國家超算互聯(lián)網(wǎng)平臺,用戶無需下載到本地部署,即可在線完成DeepSeek系列模型的推理、部署及定制化訓練與開發(fā)。其中,DeepSeek-R1模型提供一鍵推理服務,無需下載本地;還可根據(jù)私有化需求,引入專有數(shù)據(jù),對模型進行定制化訓練和開發(fā)。此次上線不僅展示了DeepSeek在技術上的領先優(yōu)勢,也為廣大用戶提供了更加便捷的AI服務。

  新華社、環(huán)球網(wǎng)等媒體點評稱,DeepSeek 模型依托國家超算互聯(lián)網(wǎng)平臺 “普惠易用、豐富好用” 的算力服務,能夠為海量中國企業(yè)與用戶提供高性能、高性價比、高可信的選擇。當智能算力不足時,國家超算互聯(lián)網(wǎng)平臺所提供的豐富異構算力資源和跨域調度算力功能,能夠確保推理任務的流暢運行,為大規(guī)模 AI 應用提供可持續(xù)的算力保障。

  國家超算互聯(lián)網(wǎng)平臺:國家級的創(chuàng)新之舉

  國家超算互聯(lián)網(wǎng)平臺作為科技部2023年啟動建設的國家級項目,承載著促進超算算力一體化運營、打造國家算力底座的重要使命。為推進這一宏大工程,科技部成立了工作推進組、總體專家組以及超算互聯(lián)網(wǎng)聯(lián)合體,由時任科技部副部長相里斌擔任工作推進組組長,中科院院士錢德沛擔任總體專家組組長。

  錢德沛院士指出,國家超算互聯(lián)網(wǎng)平臺以互聯(lián)網(wǎng)思維構建國家超算基礎設施,打破了傳統(tǒng)算力資源分散的局面,實現(xiàn)了資源的深度整合。通過該平臺,用戶可便捷獲取所需資源,避免了重復的技術性開發(fā),降低了創(chuàng)新門檻,提高了科研與產(chǎn)業(yè)創(chuàng)新效率。在國際上,尚無類似平臺的先例,中國打造國家超算互聯(lián)網(wǎng)平臺,彰顯了在算力領域敢為人先的創(chuàng)新勇氣與探索精神。

  該平臺還是全國算力資源的統(tǒng)籌調度中心。在算力被視為新質 “能源” 的今天,算力水平已成為衡量國家科技與經(jīng)濟實力的關鍵指標。國家超算互聯(lián)網(wǎng)平臺官網(wǎng)顯示,平臺致力于連接算力產(chǎn)業(yè)上下游及供需雙方,實現(xiàn)超算、智算等全國算力資源的統(tǒng)一調度與高效配置,這是打造國家算力底座的關鍵所在。

  自2024年4月正式上線以來,截至今年1月,平臺已連接14個省份的20多家超算和智算中心,入駐300多家算力服務商,展現(xiàn)出強大的資源匯聚與整合能力。

  DeepSeek-R1 本地化極簡部署簡明指南(Ollama可視化方案)

  【準備工作】

  硬件要求:配備NVIDIA顯卡的電腦(顯存≥8GB),建議預留20GB磁盤空間

  網(wǎng)絡準備:確??稍L問 https://ollama.com

  一、Ollama安裝(以Windows為例)

  步驟1:下載安裝包

  訪問[Ollama官網(wǎng)](https://ollama.com)→點擊「Download→選擇Windows版本

  步驟2:安裝ollama

  雙擊安裝包→保持默認選項→點擊「Install」

  出現(xiàn)「Installation complete」提示即成功

  步驟3:驗證安裝

  右鍵點擊Windows開始菜單 ,選擇「終端(管理員)」,在「終端」界面輸入:

  ollama——version

  這時[版本信息] 應顯示類似“ollama version 0.1.25”這樣的版本號

  以上操作也可以采用在鍵盤上按下Win鍵+R,在調出“運行”中輸入“cmd”打開「終端」后輸入指令:

  powershell

  ollama——version

  二、模型部署流程

  步驟1:獲取模型文件

  在D盤創(chuàng)建專用文件夾:AI_Models\deepseek-R1

  也可在「終端」輸入:

  powershell

  mkdir D:\AI_Models\deepseek-R1

  步驟2:編寫配置文件

  在上面所建的“deepseek-R1”文件夾內通過Windows的“記事本”編寫并創(chuàng)建“Modelfile”文件,內容如下:

  FROM deepseek-ai/deepseek-R1:latest

  PARAMETER temperature 0.7 # 控制生成隨機性

  PARAMETER num_ctx 4096 # 支持4K上下文

  步驟3:執(zhí)行部署命令

  在文件夾內按住Shift+鼠標右鍵,在彈出的選單中選擇「在此處打開Powershell窗口」→輸入:

  ollama create deepseek-r1 -f .\Modelfile

  觀察終端顯示的下載進度條(約需15-30分鐘)

  三、可視化交互(推薦使用 Open WebUI)

  步驟1:安裝Docker

  訪問Docker官網(wǎng)[Docker Desktop](https://www.docker.com/) →下載安裝→完成基礎配置

  步驟2:啟動Web服務

  在「終端」執(zhí)行:

  powershell

  docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

  步驟3:訪問控制臺

  在瀏覽器界面輸入地址 http://localhost:3000,找到「注冊賬號」完成注冊,選擇「DeepSeek-R1」模型

  在對話框中輸入測試問題:“如何理解DeepSeek-R1的推理過程” ,查看生成結果。

  四、配置優(yōu)化

  【方案1:量化加速】

  修改“Modelfile”添加量化參數(shù):

  QUANTIZATION q4_0 # 啟用4bit量化(顯存需求降至6GB)

  【方案2:多GPU分配】

  在啟動時指定顯卡:

  powershell

  OLLAMA_NUM_GPU=2 ollama run deepseek-r1 # 使用前兩塊GPU

  五、常見問題診斷

  癥狀1:生成速度慢

  解決方式:

  打開[GPU監(jiān)控] →檢查顯存占用情況→[調整量化等級]→[關閉其他GPU應用]

  癥狀2:中文輸出亂碼

  解決方式:

  在WebUI→Settings→將「Default Language」設置為「中文」

  部署后建議首次運行時打開任務管理器觀察GPU負載,正常情況 GPU利用率應波動在60-80%,顯存占用穩(wěn)定在7-8GB。

責任編輯:張薇

分享:
2022全數(shù)會
貴州

貴州大數(shù)據(jù)產(chǎn)業(yè)政策

貴州大數(shù)據(jù)產(chǎn)業(yè)動態(tài)

貴州大數(shù)據(jù)企業(yè)

更多
企業(yè)
更多