<strike id="l7tx9"></strike><strike id="l7tx9"></strike>
<strike id="l7tx9"></strike>
<strike id="l7tx9"><dl id="l7tx9"></dl></strike>
<strike id="l7tx9"></strike>
<strike id="l7tx9"><dl id="l7tx9"><del id="l7tx9"></del></dl></strike><strike id="l7tx9"><i id="l7tx9"></i></strike><strike id="l7tx9"></strike>
<span id="l7tx9"><address id="l7tx9"><span id="l7tx9"></span></address></span><span id="l7tx9"></span>
<strike id="l7tx9"></strike>
<span id="l7tx9"><dl id="l7tx9"><ruby id="l7tx9"></ruby></dl></span>
<strike id="l7tx9"></strike>
<strike id="l7tx9"></strike>
<strike id="l7tx9"></strike><strike id="l7tx9"><dl id="l7tx9"><del id="l7tx9"></del></dl></strike>
<strike id="l7tx9"></strike>
<span id="l7tx9"><video id="l7tx9"></video></span>
<strike id="l7tx9"><dl id="l7tx9"><del id="l7tx9"></del></dl></strike>
<ruby id="l7tx9"><i id="l7tx9"><cite id="l7tx9"></cite></i></ruby>
<strike id="l7tx9"></strike>

上海人工智能實驗室開源書生·浦語20B模型,消費級GPU即可運行

來源:上觀新聞2023.9.21

9月20日,上海人工智能實驗室等機構發布書生·浦語大模型(InternLM)200億參數版本InternLM-20B,并在阿里云魔搭社區開源首發、免費商用。

書生·浦語(InternLM)大語言模型由上海人工智能實驗室聯合多家機構共同推出。今年6月,InternLM千億參數(104B)語言大模型首次發布,現已經歷多輪升級。7月,上海人工智能實驗室開源書生·浦語70億參數的輕量級版本InternLM-7B,且在業內率先開源貫穿數據、預訓練、微調、部署和評測的全鏈條工具體系。本次發布的InternLM-20B是一款中量級大模型,相較于InternLM-7B,其理解能力、推理能力、數學能力、編程能力等都有顯著提升。

相比于此前國內陸續開源的7B和13B規格模型,20B量級模型具備更強大的綜合能力,復雜推理和反思能力尤為突出,能為實際應用場景提供更有力的性能支持;同時,20B量級模型可在單卡上進行推理,經過低比特量化后,可運行在單塊消費級GPU上,因而在實際應用中更為便捷。

相比于此前的開源模型,InternLM-20B能以不足1/3的參數量,測評成績達到了Llama2-70B的水平,同時支持數十類插件,上萬個API接口功能,還具備代碼解釋和反思修正能力。另外,InternLM-20B在研發訓練的過程中,研究團隊進行了基于SFT和RLHF兩階段價值對齊,并通過專家紅隊的對抗訓練大幅提高其安全性。

更多資訊

欧美一区二区三区在线观看