普大喜奔!免费使用 llama3.1的八个网站

Overseas 发表了文章 • 2024-07-25 10:58 • 来自相关话题

又一个重量级大模型发布,波谲云诡的AI江湖再添变数这是一款强大的开源 AI 模型,由知名科技公司 Meta(之前叫 Facebook)发布。Llama 3.1 ,一共三个版本, 包括 8B、70B、405B今天我向您简介这款AI,并分享八个免费使用 Llama 3.1 的方法,其中3个国内直联、支持405B!以下是官方公布的测试数据,水平 与gpt4o、claude3.5 sonnect 旗鼓相当第三方评测机构,除坚持用户盲测打分的LMsys暂未给出排名外,SEAL 和 Allen AI 的 ZeroEval 两个独立评估机构给出了自己的结果,405B 确实厉害!SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。官方博客:  llama.meta.com/llama3申请下载:   llama.meta.com/llama-downloads一、开源 AI 和闭源 AI 大战在 AI 的世界里,有两个阵营:开源 AI 和闭源 AI。开源 AI 像是一个巨大的图书馆,任何人都可以进去学习、分享和改进知识。闭源 AI 则像是私人图书馆,只有特定的人才能进入。什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。开源 AI 模型和普通商业 AI 模型不太一样。开源的好处是,大家可以一起分享知识,互相合作改进模型。成本也会更低,让更多人和小型公司参与进来。而且开源的模型更加透明,人们更容易相信和信任。相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。开源 AI 的优势:共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。官方博客:  llama.meta.com/llama3硬件配置 要求中等,下载到本地,苹果M1、16G显卡就能本地运行后,免费使用!让我们一起来看看 llama3.1是如何改变游戏规则的,以及我们个人用户如何能够使用它。关键是,如果你有能力本地部署,它还是完全免费的!在 AI 的世界里,有两个阵营:开源 AI 和闭源 AI。什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。成本效益:不需要很多钱就能使用这些模型,小公司和个人也能参与。透明度:我们知道它是如何工作的,这让我们更信任它。主流AI大模型速度-性能- 价格分布图如下:闭源 AI 的特点:专有技术:由一家公司控制,他们不告诉别人它是怎么做的。定制化服务:可以提供特别为你设计的服务。盈利模式:通过订阅费或授权使用费来赚钱。常见闭源软件有 ChatGPT、Claude、谷歌 gemini、kimi 等meta 是一个商业盈利机构,但是为了构建元宇宙,它买了最多的显卡,给大家训练了一个开源 AI 大模型 llama 系列!二、llamma3 的使用现在,让我们看看如何使用 llama3.1。(一)本地使用:ollma 部署:如果你想在自己的电脑上使用 llama3,可以下载模型并进行本地部署。1、安装和启动 Ollma访问 https://ollama.com/download 下载适合自己系统的 Ollma 客户端。2、运行 Ollma 客户端,它会在本地启动一个 API 服务。在 Ollma 中,可以选择运行 LLaMA 3.1 模型打开终端,输入:ollama run llama3.13、输入问题,开始使用本地API使用 :到第三方去购买API,然后在本机安装一个chatnextweb软件。第三方API的价格目前是gpt4o的50%,大概2.5~3美元每百万token。(二)在线使用1、Meta 官网国内直联:否登录难度:极大登录网址:www.meta.ai响应速度:中等2、抱抱脸 HuggingChat(推荐)国内直联:否登录难度:中登录网址:huggingface.co/chat/响应速度:中等打开界面上的“设置”齿轮,选中 LLaMA3.1,点击“Activate”,输入系统提示“用中文回复”,关闭窗口,搞定!3、Groq 平台Groq 是一家专注于开发高效能 AI 推理硬件的公司,其产品旨在为机器学习工作负载提供高性能和低功耗的解决方案,开发了一种名为LPU的专用芯片,专门针对大型语言模型(LLM)的推理进行优化。国内直联:否登录难度:中登录网址:console.groq.com响应速度:中等使用界面:需要选中 LLaMA-3.1,405B暂时下架,估计过两天会恢复4、deepinfra 平台DeepInfra 是一个提供机器学习模型和基础设施的平台,它专注于提供快速的机器学习推理(ML Inference)服务。注册送1.5美元API 额度。也可在线使用国内直联:否登录难度:中登录网址:deepinfra.com/meta-llama/响应速度:中等使用界面:5、cloudflare 平台(国内直联)Cloudflare 是一家大名鼎鼎提供互联网安全、性能优化和相关服务的公司国内直联:是登录难度:中登录网址:playground.ai.cloudflare.com/响应速度:中等使用界面:需要选中 LLaMA-3.1 ,目前只有 8B 版本6、Repilcate 平台(推荐,国内直联)国内一个面向机器学习和人工智能模型的在线平台,专注于提供模型的部署、运行和训练服务国内直联:是 :)登录难度:小,国内直联,支持405B登录网址:llama3.replicate.devhttps://replicate.com/meta/meta-llama-3-70b-instruct响应速度:中等使用界面:需要选中 LLaMA-3.17、英伟达平台(国内直联)英伟达公司不用介绍了吧国内直联:是 :)登录难度:小,,国内直联,支持405B登录网址:https://build.nvidia.com/explore/discover#llama-3_1-405b-instruct响应速度:中等使用界面:需要选中 LLaMA-3.18、中文 llama 社区(国内直联)中文 llama 社区国内直联:是 :)登录难度:小,国内直联,支持405B登录网址:llama.family/chat响应速度:70B(8B 很快)使用界面:这次 llama3.1 的发布,就看其他厂商如何应对了,估计 AI之王 GPT5 快出关了!好啦,今天的分享就到这里! 查看全部

又一个重量级大模型发布,波谲云诡的AI江湖再添变数

这是一款强大的开源 AI 模型,由知名科技公司 Meta(之前叫 Facebook)发布。Llama 3.1 ,一共三个版本, 包括 8B、70B、405B

今天我向您简介这款AI,并分享八个免费使用 Llama 3.1 的方法,其中3个国内直联、支持405B!

以下是官方公布的测试数据,水平 与gpt4o、claude3.5 sonnect 旗鼓相当

第三方评测机构,除坚持用户盲测打分的LMsys暂未给出排名外,SEAL 和 Allen AI 的 ZeroEval 两个独立评估机构给出了自己的结果,405B 确实厉害!SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二

ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。

官方博客:  llama.meta.com/llama3
申请下载:   llama.meta.com/llama-downloads

一、开源 AI 和闭源 AI 大战

在 AI 的世界里,有两个阵营:开源 AI 闭源 AI。开源 AI 像是一个巨大的图书馆,任何人都可以进去学习、分享和改进知识。闭源 AI 则像是私人图书馆,只有特定的人才能进入。什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。开源 AI 模型和普通商业 AI 模型不太一样。开源的好处是,大家可以一起分享知识,互相合作改进模型。成本也会更低,让更多人和小型公司参与进来。而且开源的模型更加透明,人们更容易相信和信任。相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。

开源 AI 的优势:

共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。

SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二

ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。

官方博客:  llama.meta.com/llama3

硬件配置 要求中等,下载到本地,苹果M1、16G显卡就能本地运行后,免费使用!

让我们一起来看看 llama3.1是如何改变游戏规则的,以及我们个人用户如何能够使用它。

关键是,如果你有能力本地部署,它还是完全免费的!

在 AI 的世界里,有两个阵营:开源 AI 闭源 AI

什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。

相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。

  • 共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。
  • 成本效益:不需要很多钱就能使用这些模型,小公司和个人也能参与。
  • 透明度:我们知道它是如何工作的,这让我们更信任它。

主流AI大模型速度-性能- 价格分布图如下:

闭源 AI 的特点:

  • 专有技术:由一家公司控制,他们不告诉别人它是怎么做的。
  • 定制化服务:可以提供特别为你设计的服务。
  • 盈利模式:通过订阅费或授权使用费来赚钱。

常见闭源软件有 ChatGPT、Claude、谷歌 gemini、kimi 等

meta 是一个商业盈利机构,但是为了构建元宇宙,它买了最多的显卡,给大家训练了一个开源 AI 大模型 llama 系列!

二、llamma3 的使用

现在,让我们看看如何使用 llama3.1。

(一)本地使用:

  • ollma 部署:如果你想在自己的电脑上使用 llama3,可以下载模型并进行本地部署。

1、安装和启动 Ollma

访问 https://ollama.com/download 

下载适合自己系统的 Ollma 客户端。

2、运行 Ollma 客户端,它会在本地启动一个 API 服务。

在 Ollma 中,可以选择运行 LLaMA 3.1 模型

打开终端,输入:ollama run llama3.1

3、输入问题,开始使用

本地API使用 :

到第三方去购买API,然后在本机安装一个chatnextweb软件。

第三方API的价格目前是gpt4o的50%,大概2.5~3美元每百万token。

(二)在线使用

1、Meta 官网

国内直联:否

登录难度:极大

登录网址:www.meta.ai

响应速度:中等

2、抱抱脸 HuggingChat(推荐)

国内直联:否

登录难度:中

登录网址:huggingface.co/chat/

响应速度:中等

打开界面上的“设置”齿轮,选中 LLaMA3.1,点击“Activate”,输入系统提示“用中文回复”,关闭窗口,搞定!

3、Groq 平台

Groq 是一家专注于开发高效能 AI 推理硬件的公司,其产品旨在为机器学习工作负载提供高性能和低功耗的解决方案,开发了一种名为LPU的专用芯片,专门针对大型语言模型(LLM)的推理进行优化。

国内直联:否

登录难度:中

登录网址:console.groq.com

响应速度:中等

使用界面:

需要选中 LLaMA-3.1,405B暂时下架,估计过两天会恢复

4、deepinfra 平台

DeepInfra 是一个提供机器学习模型和基础设施的平台,它专注于提供快速的机器学习推理(ML Inference)服务。注册送1.5美元API 额度。也可在线使用

国内直联:否

登录难度:中

登录网址:deepinfra.com/meta-llama/

响应速度:中等

使用界面:

5、cloudflare 平台(国内直联)

Cloudflare 是一家大名鼎鼎提供互联网安全、性能优化和相关服务的公司

国内直联:是

登录难度:中

登录网址:

playground.ai.cloudflare.com/

响应速度:中等

使用界面:

需要选中 LLaMA-3.1 ,目前只有 8B 版本

6、Repilcate 平台(推荐,国内直联)

国内一个面向机器学习和人工智能模型的在线平台,专注于提供模型的部署、运行和训练服务

国内直联:是 :)

登录难度:小,国内直联,支持405B

登录网址:llama3.replicate.dev

https://replicate.com/meta/meta-llama-3-70b-instruct

响应速度:中等

使用界面:

需要选中 LLaMA-3.1

7、英伟达平台(国内直联)

英伟达公司不用介绍了吧

国内直联:是 :)

登录难度:小,,国内直联,支持405B

登录网址:

https://build.nvidia.com/explore/discover#llama-3_1-405b-instruct

响应速度:中等

使用界面:

需要选中 LLaMA-3.1

8、中文 llama 社区(国内直联)

中文 llama 社区

国内直联:是 :)

登录难度:小,国内直联,支持405B

登录网址:llama.family/chat

响应速度:70B(8B 很快)

使用界面:

这次 llama3.1 的发布,就看其他厂商如何应对了,估计 AI之王 GPT5 快出关了!

好啦,今天的分享就到这里!

当Kimi浏览器助手遇上投资小白

Overseas 发表了文章 • 2024-07-25 11:46 • 来自相关话题

昨天,Kimi官宣上新了Kimi浏览器助手小插件,今天上手体验了一下,测试了应用在公众号、财经新闻网页等的阅读上,效果相当不错。作为投资小白,可以尝试利用Kimi的这款浏览器插件进行专业新闻及数据的阅读和理解上。Kimi浏览器助手主要有三个功能:1.有问题,划线问 Kimi选取有疑问的段落轻松划线获得符合上下文的答案,浏览网页不再需要反复切换页面查询新问题2.读文章,摘要找 Kimi点击右侧悬浮图标或快捷键一键唤起对话窗口,快速总结全文减少阅读时间消耗。3.写文档,灵感找 Kimi侧边栏模式和全局浮窗模式可在插件设置页自由切换,在你有需要的任意场景下常驻手边。下载及使用方式可以在Kimi官方网页左下角,进行点击下载,安装及使用都比较容易上手,在这里就不展开了。在这里我用两篇文章来测试Kimi浏览器助手的使用便捷程度。第一篇是新浪财经今日的头条新闻:“精准调节流动性 央行创设临时隔夜正、逆回购操作“鼠标覆盖标题,左侧就有Kimi的标志出现,紧接着,弹出的对话框开始解释精准调节流动性的背景以及正逆回购的解释。如果读者觉得解释过于专业可以继续追问,比如:请用投资小白能够听得懂的语言再给我讲一遍。这时候的回答更取决于prompt的精准度。但是足够可以清晰的让读者明白一些偏专业的内容。多轮测试下来,这项功能给我的感觉是,虽然你只划定了词汇,但 AI 的解释结果更多是综合了选定词的上下文以及初步搜索结果。在一些更深层次的问题上,Kimi浏览器助手给的答案不尽人意,需要借助Kimi官网的解答。比如我继续追问:历史上逆回购有哪几次,背景是怎样的?对市场产生了什么影响?请以表格的形式展示。同样的问题在Kimi网站上给的答案会更准确,下边是通过Kimi官网给到的答复:除此之外, Kimi 浏览器助手总结全文,对于理解一些投教的文章会更加清晰,提升了阅读的效率。需要精读公众号文章时,调用 Kimi 总结功能,一篇详略得当的文章总结就呈现在我们眼前。比如总结以下文章的内容:在体验完 Kimi浏览器助手后,我得出的结论是,它无法、也不能取代AI搜索,它是一个更简洁的小「搜索引擎」但是Kimi 浏览器助手主打一个免费,其目前使用次数无上限。而且对于很多小白投资者而言一些专业的名词及投教文章可以更好的去理解。还是要再夸一下Kimi的迭代能力,当国内大模型纷纷竞争B端时,Kimi选择了在C端发力,让AI更多的出现在我们的工作及生活的场景中。最后重温一下杨植麟的经典语录:“搞定”不是一个好的词,背后本质是合作。合作就是能双赢,因为双赢是合作的前提。所以也没什么区别,需要给别人提供独特价值。也没有什么天赋,就是努力干活。 查看全部

昨天,Kimi官宣上新了Kimi浏览器助手小插件,今天上手体验了一下,测试了应用在公众号、财经新闻网页等的阅读上,效果相当不错。作为投资小白,可以尝试利用Kimi的这款浏览器插件进行专业新闻及数据的阅读和理解上。

Kimi浏览器助手主要有三个功能:

1.有问题,划线问 Kimi

选取有疑问的段落轻松划线获得符合上下文的答案,浏览网页不再需要反复切换页面查询新问题

2.读文章,摘要找 Kimi

点击右侧悬浮图标或快捷键一键唤起对话窗口,快速总结全文减少阅读时间消耗。

3.写文档,灵感找 Kimi

侧边栏模式和全局浮窗模式可在插件设置页自由切换,在你有需要的任意场景下常驻手边。

下载及使用方式可以在Kimi官方网页左下角,进行点击下载,安装及使用都比较容易上手,在这里就不展开了。

在这里我用两篇文章来测试Kimi浏览器助手的使用便捷程度。第一篇是新浪财经今日的头条新闻:“精准调节流动性 央行创设临时隔夜正、逆回购操作“

鼠标覆盖标题,左侧就有Kimi的标志出现,紧接着,弹出的对话框开始解释精准调节流动性的背景以及正逆回购的解释。

如果读者觉得解释过于专业可以继续追问,比如:请用投资小白能够听得懂的语言再给我讲一遍。这时候的回答更取决于prompt的精准度。但是足够可以清晰的让读者明白一些偏专业的内容。

多轮测试下来,这项功能给我的感觉是,虽然你只划定了词汇,但 AI 的解释结果更多是综合了选定词的上下文以及初步搜索结果。

在一些更深层次的问题上,Kimi浏览器助手给的答案不尽人意,需要借助Kimi官网的解答。比如我继续追问:历史上逆回购有哪几次,背景是怎样的?对市场产生了什么影响?请以表格的形式展示。

同样的问题在Kimi网站上给的答案会更准确,下边是通过Kimi官网给到的答复:

除此之外, Kimi 浏览器助手总结全文,对于理解一些投教的文章会更加清晰,提升了阅读的效率。

需要精读公众号文章时,调用 Kimi 总结功能,一篇详略得当的文章总结就呈现在我们眼前。

比如总结以下文章的内容:


在体验完 Kimi浏览器助手后,我得出的结论是,它无法、也不能取代AI搜索,它是一个更简洁的小「搜索引擎」

但是Kimi 浏览器助手主打一个免费,其目前使用次数无上限。而且对于很多小白投资者而言一些专业的名词及投教文章可以更好的去理解。

还是要再夸一下Kimi的迭代能力,当国内大模型纷纷竞争B端时,Kimi选择了在C端发力,让AI更多的出现在我们的工作及生活的场景中。

最后重温一下杨植麟的经典语录:

“搞定”不是一个好的词,背后本质是合作。合作就是能双赢,因为双赢是合作的前提。所以也没什么区别,需要给别人提供独特价值。也没有什么天赋,就是努力干活。

剑指 Meta:Mistral Large2 凌晨开源,媲美 Llama3.1

Overseas 发表了文章 • 2024-07-25 11:58 • 来自相关话题

Mistral AI 发布 Mistral Large 2,123B 大小,128k 上下文,与 Llama 3.1 不相上下。 支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的数十种语言- 支持 Function Calling 和 Retrieval开源地址: https://huggingface.co/mistralai/Mistral-Large-Instruct-2407 可用于研究和非商业用途,商用需获取许可在线使用:https://chat.mistral.ai/chat 开发者平台:https://console.mistral.ai/ 云服务:可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上调用简单使用可在这里使用:https://chat.mistral.ai/chat不够聪明啊,ahhhhhh版本特色多语言设计:支持多种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。精通代码:熟练掌握 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。还熟悉一些更具体的语言,如 Swift 和 Fortran。Agent 支持:原生支持 Function Calling 和 JSON 输出。好的推理:数学和推理能力远超前代,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 不相上下128k 上下文:,加之在 la Plateforme 实施的输出限制模式,大大促进了应用开发和技术栈的现代化。开源许可:允许用于研究和非商业用途的使用和修改。推理测试表现远超之前的 Mistral Large,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 相媲美代码生成测试MultiPL-E 性能测试GSM8K(8-shot)和 MATH(0-shot,无 CoT)测试语言覆盖 官方给的图,剑指 Meta语言性能测试更多信息按 Mistral 的说法,他们会围绕以下模型在 la Plateforme 上进行后续整合:通用模型:Mistral Nemo 和 Mistral Large专业模型:Codestral 和 Embed其中 Mistral NeMo 是一款与 NVIDIA 合作开发的 12B 模型,一周前发布的,具体参见:https://mistral.ai/news/mistral-nemo/同时,Mistral 的 Large2 模型已可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上进行调用。更多的安排参考: 查看全部

Mistral AI 发布 Mistral Large 2,123B 大小,128k 上下文,与 Llama 3.1 不相上下。
支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的数十种语言- 支持 Function Calling 和 Retrieval
开源地址: https://huggingface.co/mistralai/Mistral-Large-Instruct-2407 可用于研究和非商业用途,商用需获取许可
在线使用:https://chat.mistral.ai/chat
开发者平台:https://console.mistral.ai/
云服务:可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上调用

简单使用

可在这里使用:https://chat.mistral.ai/chat

不够聪明啊,ahhhhhh

版本特色

  • 多语言设计:支持多种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。
  • 精通代码:熟练掌握 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。还熟悉一些更具体的语言,如 Swift 和 Fortran。
  • Agent 支持:原生支持 Function Calling 和 JSON 输出。
  • 好的推理:数学和推理能力远超前代,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 不相上下
  • 128k 上下文:,加之在 la Plateforme 实施的输出限制模式,大大促进了应用开发和技术栈的现代化。
  • 开源许可:允许用于研究和非商业用途的使用和修改。

推理测试

表现远超之前的 Mistral Large,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 相媲美

代码生成测试

MultiPL-E 性能测试

GSM8K(8-shot)和 MATH(0-shot,无 CoT)测试

语言覆盖

 官方给的图,剑指 Meta

语言性能测试

更多信息

按 Mistral 的说法,他们会围绕以下模型在 la Plateforme 上进行后续整合:

  • 通用模型:Mistral Nemo 和 Mistral Large
  • 专业模型:Codestral 和 Embed

其中 Mistral NeMo 是一款与 NVIDIA 合作开发的 12B 模型,一周前发布的,具体参见:https://mistral.ai/news/mistral-nemo/

同时,Mistral 的 Large2 模型已可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上进行调用。更多的安排参考: