• <table id="ceegc"></table>
  • <td id="ceegc"><option id="ceegc"></option></td>
  • <optgroup id="ceegc"></optgroup>
  • <td id="ceegc"></td>
  • <table id="ceegc"></table>
  • 發布時間:2023-04-21 16:35 原文鏈接: MOSS!今日正式開源上線

    復旦大學自然語言處理實驗室開發的新版 MOSS 模型今日正式上線,成為國內首個插件增強的開源對話語言模型。

    目前,MOSS 模型已上線開源,相關代碼、數據、模型參數已在 Github 和 Hugging Face 等平臺開放,供科研人員下載。

    據介紹,MOSS 是一個支持中英雙語和多種插件的開源對話語言模型,moss-moon 系列模型具有 160 億參數,在 FP16 精度下可在單張 A100 / A800 或兩張 3090 顯卡運行,在 INT4/8 精度下可在單張 3090 顯卡運行。MOSS 基座語言模型在約七千億中英文以及代碼單詞上預訓練得到,后續經過對話指令微調、插件增強學習和人類偏好訓練具備多輪對話能力及使用多種插件的能力。

    MOSS 來自復旦大學自然語言處理實驗室的邱錫鵬教授團隊,名字與《流浪地球》電影中的 AI 同名,已發布至公開平臺(https://moss.fastnlp.top/),邀請公眾參與內測。

    通過查看 MOSS 的 GitHub 頁面發現,該項目所含代碼采用 Apache 2.0 協議,數據采用 CC BY-NC 4.0 協議,模型權重采用 GNU AGPL 3.0 協議。如需將該項目所含模型用于商業用途或公開部署,需要簽署文件并發送至 robot@fudan.edu.cn 取得授權,商用情況僅用于記錄,不會收取任何費用。

    模型

    • moss-moon-003-base: MOSS-003 基座模型,在高質量中英文語料上自監督預訓練得到,預訓練語料包含約 700B 單詞,計算量約 6.67x1022 次浮點數運算。

    • moss-moon-003-sft: 基座模型在約 110 萬多輪對話數據上微調得到,具有指令遵循能力、多輪對話能力、規避有害請求能力。

    • moss-moon-003-sft-plugin: 基座模型在約 110 萬多輪對話數據和約 30 萬插件增強的多輪對話數據上微調得到,在 moss-moon-003-sft 基礎上還具備使用搜索引擎、文生圖、計算器、解方程等四種插件的能力。

    • moss-moon-003-pm: 在基于 moss-moon-003-sft 收集到的偏好反饋數據上訓練得到的偏好模型,將在近期開源。

    • moss-moon-003: 在 moss-moon-003-sft 基礎上經過偏好模型 moss-moon-003-pm 訓練得到的最終模型,具備更好的事實性和安全性以及更穩定的回復質量,將在近期開源。

    • moss-moon-003-plugin: 在 moss-moon-003-sft-plugin 基礎上經過偏好模型 moss-moon-003-pm 訓練得到的最終模型,具備更強的意圖理解能力和插件使用能力,將在近期開源。

    數據

    • moss-002-sft-data: MOSS-002 所使用的多輪對話數據,覆蓋有用性、忠實性、無害性三個層面,包含由 text-davinci-003 生成的約 57 萬條英文對話和 59 萬條中文對話。

    • moss-003-sft-data: moss-moon-003-sft 所使用的多輪對話數據,基于 MOSS-002 內測階段采集的約 10 萬用戶輸入數據和 gpt-3.5-turbo 構造而成,相比 moss-002-sft-data,moss-003-sft-data 更加符合真實用戶意圖分布,包含更細粒度的有用性類別標記、更廣泛的無害性數據和更長對話輪數,約含 110 萬條對話數據。目前僅開源少量示例數據,完整數據將在近期開源。

    • moss-003-sft-plugin-data: moss-moon-003-sft-plugin 所使用的插件增強的多輪對話數據,包含支持搜索引擎、文生圖、計算器、解方程等四個插件在內的約 30 萬條多輪對話數據。目前僅開源少量示例數據,完整數據將在近期開源。

    • moss-003-pm-data: moss-moon-003-pm 所使用的偏好數據,包含在約 18 萬額外對話上下文數據及使用 moss-moon-003-sft 所產生的回復數據上構造得到的偏好對比數據,將在近期開源。


    相關文章

    先進的人工智能模型居然不會“問診”

    一項新研究發現,雖然先進的人工智能(AI)模型在專業醫學考試中得分很高,但在醫生最重要的任務之一——與患者交談以收集相關醫療信息并提供準確診斷方面,仍然表現不佳。1月2日,相關研究成果發表于《自然-醫......

    清華大學藥學院學者開發基于蛋白質語言模型的結構與功能預測方法

    研究背景隨著計算生物學的快速發展,我們正處于一個由數據驅動的生物信息學新時代。蛋白質,作為生命活動的執行者,其結構和功能預測一直是科學研究的核心問題。近年來,深度學習技術的突破性進展,尤其是蛋白質語言......

    日本發布大規模語言模型

    東京工業大學、日本理化學研究所及富士通公司等近日宣布,利用超級計算機“富岳”,他們開發的大規模語言模型“Fugaku-LLM”正式發布。“Fugaku-LLM”是首個完全由日本國產技術構建的AI語言模......

    采用Sora同款架構,混元文生圖大模型宣布開源

    5月14日,騰訊宣布其旗下混元文生圖大模型全面升級,并對外開源。據了解,這是首個中文原生的類Sora架構開源模型,填補了國產大模型在文生圖先進架構上的空白。目前,主流的文生圖開源生態基本圍繞英文建設,......

    國產千卡集群訓練優化技術AdaPipe發布

    近日,在美國圣迭戈市舉行的計算機體系結構重要國際會議ASPLOS上,由鵬城實驗室智能計算研究部、清華大學計算機系教授陳文光團隊自主研發的國產千卡集群訓練優化技術AdaPipe正式發布。近年來,大規模語......

    科研人員利用大語言模型解釋調節睡眠的分子機制

    華中科技大學生命學院張珞穎團隊和薛宇團隊在NatureCommunications雜志上合作發表了題為“Large-languagemodelsfacilitatediscoveryofthemole......

    人工智能突然變聰明了嗎

    人工智能超級智能會突然出現,還是科學家能預見它的到來并有機會向世界發出警告?隨著大型語言模型如ChatGPT的興起,這個問題最近受到了很多關注。這類模型隨著規模的增長已經獲得了大量新功能。一些研究結果......

    科學家評估大型語言模型回答醫學問題的能力

    圖為研究團隊的方法和現有技術的比較。Flan-PaLM540B模型在MedQA,MedMCQA和PubMedQA數據集上均超過了以往最先進的SOTA,每列上方顯示的是準確率百分比。你在網上搜過“我哪哪......

    一天內篩選超1億種化合物,AI語言模型“提速”藥物發現

    美國麻省理工學院和塔夫茨大學研究人員設計出一種基于大型語言模型(如ChatGPT)的人工智能算法,這種稱為ConPLex的新模型可將目標蛋白與潛在的藥物分子相匹配,而無需執行計算分子結構的密集型步驟。......

    錢德沛院士:開源是共享智慧的工作模式

    近日,由中國科學院計算機網絡信息中心主辦的第三屆中國開源科學軟件創意大賽揭曉并在京頒獎。在當前的國際國內環境下,大力推動開源科學軟件發展對科學研究和經濟社會發展起著怎樣的作用?我國在開源科學軟件發展中......

  • <table id="ceegc"></table>
  • <td id="ceegc"><option id="ceegc"></option></td>
  • <optgroup id="ceegc"></optgroup>
  • <td id="ceegc"></td>
  • <table id="ceegc"></table>
  • www.mitao95.com