ai大模型

LLaMa

LLaMa模型,github下载,Meta(Facebook)開放和高效的基礎语言模型

标签:ai大模型

LLaMa模型官网,github下载,Meta(Facebook)開放和高效的基礎语言模型

什么是LLaMa模型?

在2月25日,Meta官网發布了一款名為LLaMA(Large Language Model Meta AI)的新型大型语言模型。根据参數規模,Meta提供了70亿、130亿、330亿和650亿四种不同参數規模的LLaMA模型,并使用20种语言进行了訓练。与现有最佳的大型语言模型相比,LLaMA模型在性能上具有竞争力。

LLaMa模型官网:

https://github.com/facebookresearch/llama

論文地址: https://arxiv.org/abs/2302.13971

中文LLaMA&Alpaca大语言模型+本地CPU/GPU訓练部署 (Chinese LLaMA & Alpaca LLMs):

https://github.com/ymcui/Chinese-LLaMA-Alpaca

LLaMa

LLaMa模型怎么样?

LLaMA(Large Language Model Meta AI),由 Meta AI 發布的一个開放且高效的大型基礎语言模型,共有 7B13B33B65B(650 亿)四种版本。其資料集来源都是公開資料集,無任何定制資料集,保證了其工作与開源兼容和可复现,整个訓练資料集在 token 化之后大約包含 1.4T 的 token。

關于模型性能,LLaMA 的性能非常優異:具有 130 亿参數的 LLaMA 模型「在大多數基准上」可以胜过 GPT-3( 参數量达 1750 亿),而且可以在單块 V100 GPU 上運行;而最大的 650 亿参數的 LLaMA 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B。

關于訓练集,其来源都是公開資料集,無任何定制資料集,保證了其工作与開源兼容和可复现。整个訓练資料集在 token 化之后大約包含 1.4T 的 token。其中,LLaMA-65B 和 LLaMA-33B 是在 1.4万亿个 token 上訓练的,而最小的模型 LLaMA-7B 是在 1万亿个 token 上訓练的。

总体而言,LLaMA模型表现出色:擁有130亿参數的LLaMA模型在大多數基准测試中胜过了参數規模為1750亿的GPT-3,并且可以在單块V100 GPU上運行;而擁有650亿参數的LLaMA模型在性能上与谷歌的Chinchilla-70B和PaLM-540B相媲美。

Meta的首席执行官馬克·扎克伯格表示,LLaMA模型旨在帮助研究人员在生成文本、對话、总結書面材料、證明數学定理或预测蛋白质結构等更复雜的任務上取得进展,具有广闊的前景。

LLaMA模型相比Chinchilla、PaLM、GPT-3和ChatGPT等模型具有哪些優势和特点呢?

目前,Meta已經將相關論文上传至arXiv。

类似其他大型语言模型,LLaMA模型也存在一些問题,例如可能会產生偏見、有毒或虚假内容。Meta透過開源吸引更多研究人员的参与,以解决这些問题。

為了确保完整性和防止滥用,Meta將向非商業研究机构開放LLaMA的開源訪問權限,并根据具体情况授予学術研究人员訪問權限。这些權限將逐步授予政府、民间组織、学術界以及全球工業研究實验室的组織。

值得注意的是,LLaMA并非仅仅是一个聊天机器人,而是一种研究工具,可能用于解决与AI语言模型相關的問题。它是一套”更小、性能更好”的模型,并与谷歌的LaMDA和OpenAI的GPT模型不同,LLaMA是基于公開資料进行訓练的。LLaMA并非针對特定任務进行微调的模型,而是适用于許多不同任務的通用模型。

LLaMA模型將向整个AI研究社区開源,授予大学、非政府组織和工業實验室訪問權限。透過这种開源的方式,有助于解决大型语言模型中不可避免的偏見、有毒性和虚假内容的風险。

同时,小型模型透過使用更多的資料进行訓练,可以超越大型模型,例如LLaMA-13B在大多數基准测試中優于1750亿参數的GPT-3;而LLaMA-65B的性能与更大規模的Chinchilla-70B和PaLM-540B相媲美。

LLaMa以ChatGPT、GPT-4等為代表的大语言模型(Large Language Model, LLM)掀起了新一輪自然语言處理领域的研究浪潮,展现出了类通用人工智能(AGI)的能力,受到業界广泛關注。然而,由于大语言模型的訓练和部署都极為昂貴,為构建透明且開放的学術研究造成了一定的阻碍。

中文LLaMA模型

為了促进大模型在中文NLP社区的開放研究,本專案開源了中文LLaMA模型和指令精调的Alpaca大模型。这些模型在原版LLaMA的基礎上擴充了中文词表并使用了中文資料进行二次预訓练,进一步提升了中文基礎语義理解能力。同时,中文Alpaca模型进一步使用了中文指令資料进行精调,顯著提升了模型對指令的理解和执行能力。详細内容请参考技術報告(Cui, Yang, and Yao, 2023)。

LLaMa

本專案主要内容:

  • 🚀 针對原版LLaMA模型擴充了中文词表,提升了中文编解碼效率
  • 🚀 開源了使用中文文本資料预訓练的中文LLaMA以及經过指令精调的中文Alpaca
  • 🚀 開源了预訓练脚本、指令精调脚本,用户可根据需要自行进一步訓练
  • 🚀 快速使用筆電電腦(个人PC)的CPU/GPU本地量化和部署体验大模型
  • 🚀 支持🤗transformers, llama.cpp, text-generation-webui, LlamaChat, LangChain, privateGPT等生態
  • 目前已開源的模型版本:7B(标准版、Plus版)、13B(标准版、Plus版

💡 下圖是中文Alpaca-7B模型在本地CPU量化部署后的實際体验效果(GIF未加速,M1 Max下實测)。

数据评估

LLaMa浏览人数已经达到279,如你需要查询该站的相关权重信息,可以点击"5118数据""爱站数据""Chinaz数据"进入;以目前的网站数据参考,建议大家请以爱站数据为准,更多网站价值评估因素如:LLaMa的访问速度、搜索引擎收录以及索引量、用户体验等;当然要评估一个站的价值,最主要还是需要根据您自身的需求以及需要,一些确切的数据则需要找LLaMa的站长进行洽谈提供。如该站的IP、PV、跳出率等!

关于LLaMa特别声明

本站ai工具百寶箱提供的LLaMa都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由ai工具百寶箱实际控制,在2024年11月30日 下午4:02收录时,该网页上的内容,都属于合规合法,后期网页的内容如出现违规,可以直接联系网站管理员进行删除,ai工具百寶箱不承担任何责任。

相关导航

暂无评论

暂无评论...