导读

  1. 如何使用单4G GPU 运行 LLAMA3 70B

  2. 为什么接下来半年自己训练大模型创业公司会死一大批

  3. 数据对大模型的重要性

最强大的开源LLM模型Llama3已经发布,有人问:

AirLLM是否支持在本地用4GB的VRAM运行Llama3 70B?答案是肯定的。

此外,Llama3的性能如何与GPT-4相比?Llama3变得如此强大的关键前沿技术是什么?

Llama3的突破是否意味着开源模型正式开始超越闭源模型?

今天我们也会给出解释。

如何在只有4GB内存的单个GPU上运行Llama3 70B

Llama3的模型架构没有改变,所以:

AirLLM实际上已经自然地支持完美地运行Llama3 70B!它甚至可以在MacBook上运行。

首先,安装AirLLM:

pip install airllm

然后,你只需要几行代码:

from airllm import AutoModel`              `MAX_LENGTH =128`              `model = AutoModel.from_pretrained("v2ray/Llama-3-70B")`              `input_text = [                      ``'中国的首都是哪个城市?'`                  `]`              `input_tokens = model.tokenizer(input_text,                  ``   return_tensors="pt",                    ``   return_attention_mask=False,                    ``   truncation=True,                    ``   max_length=MAX_LENGTH,                    ``padding=False)`              `   ``   ``   ``generation_output = model.generate(                  ``   input_tokens['input_ids'].cuda(),                    ``   max_new_tokens=20,                   ``   use_cache=True,                   ``return_dict_in_generate=True)`              `   ``   ``   ``output = model.tokenizer.decode(generation_output.sequences[0])`              `print(output)

请注意:它不适用于实时交互式场景,如聊天,更适用于数据处理和其他离线异步场景。

与GPT4相比效果如何?

根据官方评估数据和最新的lmsys排行榜,Llama3 70B非常接近GPT4和Claude3 Opus。

官方评估结果:

lmsys排行榜结果:

当然,将类似大小的400B模型与GPT4和Claude3 Opus进行比较会更加合理:

Llama3 400B已经非常接近最强版本的GPT4和Claude3,而且它仍在训练中。

Llama3 的核心改进是什么?

Llama3 的架构并没有改变;在训练方法上有一些技术改进,比如基于 DPO 的模型对齐训练。

DPO 已经成为所有排名靠前的大型模型在所有排行榜上的标准训练方法 - 它就是有效!

当然,Llama3 的主要秘密武器在于其训练数据的数量和质量的大幅增加。
从 Llama2 的 2T 增加到了 15T!AI 就是关于数据!

数据的改进不仅仅在于数量,还在于质量。
Meta 进行了大量的数据质量过滤、去重等工作。其中很多工作是基于使用像 Llama2 这样的大型模型来过滤和选择数据。

请注意:这个 15T 是经过严格过滤和清理之后的。在过滤之前,可能超过了 100T。

训练 AI 模型的核心是数据。

要训练一个好的 AI 模型,不是靠很多花哨的训练技巧,而是要扎实而细致地做基础工作。尤其是那些不起眼、肮脏、乏味的数据质量工作 - 这实际上非常重要。

很多人一直高度评价 Meta AI 的能力。从使用Transformer进行区分性 AI 的早期,Meta AI 就以其扎实的数据处理基础而闻名,生产了许多长期领先SOTA的经典模型,比如 Roberta 和 Roberta XLM,这些模型长时间以来一直是我们的首选模型。

Llama3 的成功是否预示着开源模型的崛起??

开源和闭源之间的战斗可能还远未结束。还有很多戏剧性的事情将要发生。

无论是开源还是闭源,训练大型模型已经成为了一场烧钱的游戏。15T 的数据和 400B 的模型并不是小公司可以承担得起的。

在接下来的六个月内,许多致力于大型模型的小公司将会消失。

当谈到烧钱竞争时,真正重要的是长期能力和效率如何将投资变现。

事实上,到目前为止,AI LLMs 的真正商业应用仍然很少。很难说谁能维持他们的投资,以及以何种方式。

从纯技术角度来看,我们一直认为开放的文化对于 AI 是至关重要的。近年来 AI 的快速发展离不开 AI 社区的开放和共享文化。

即使在公司内部也是如此。一个公司能否保持开放和共享的环境,并不断进行透明和开放的思想交流,这对于其 AI 的发展至关重要。

一个对外部世界非常封闭的公司很可能在内部也不够开放和透明,这迟早会阻碍其 AI 技术的快速发展,并阻止其真正建立一流的团队。

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

观看零基础学习书籍和视频,看书籍和视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
在这里插入图片描述
在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐