剑指 Meta:Mistral Large2 凌晨开源,媲美 Llama3.1

Overseas 发表了文章 • 2024-07-25 11:58 • 来自相关话题

Mistral AI 发布 Mistral Large 2,123B 大小,128k 上下文,与 Llama 3.1 不相上下。 支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的数十种语言- 支持 Function Calling 和 Retrieval开源地址: https://huggingface.co/mistralai/Mistral-Large-Instruct-2407 可用于研究和非商业用途,商用需获取许可在线使用:https://chat.mistral.ai/chat 开发者平台:https://console.mistral.ai/ 云服务:可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上调用简单使用可在这里使用:https://chat.mistral.ai/chat不够聪明啊,ahhhhhh版本特色多语言设计:支持多种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。精通代码:熟练掌握 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。还熟悉一些更具体的语言,如 Swift 和 Fortran。Agent 支持:原生支持 Function Calling 和 JSON 输出。好的推理:数学和推理能力远超前代,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 不相上下128k 上下文:,加之在 la Plateforme 实施的输出限制模式,大大促进了应用开发和技术栈的现代化。开源许可:允许用于研究和非商业用途的使用和修改。推理测试表现远超之前的 Mistral Large,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 相媲美代码生成测试MultiPL-E 性能测试GSM8K(8-shot)和 MATH(0-shot,无 CoT)测试语言覆盖 官方给的图,剑指 Meta语言性能测试更多信息按 Mistral 的说法,他们会围绕以下模型在 la Plateforme 上进行后续整合:通用模型:Mistral Nemo 和 Mistral Large专业模型:Codestral 和 Embed其中 Mistral NeMo 是一款与 NVIDIA 合作开发的 12B 模型,一周前发布的,具体参见:https://mistral.ai/news/mistral-nemo/同时,Mistral 的 Large2 模型已可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上进行调用。更多的安排参考: 查看全部

Mistral AI 发布 Mistral Large 2,123B 大小,128k 上下文,与 Llama 3.1 不相上下。
支持包括法语、德语、西班牙语、意大利语、葡萄牙语、阿拉伯语、印地语、俄语、中文、日语和韩语在内的数十种语言- 支持 Function Calling 和 Retrieval
开源地址: https://huggingface.co/mistralai/Mistral-Large-Instruct-2407 可用于研究和非商业用途,商用需获取许可
在线使用:https://chat.mistral.ai/chat
开发者平台:https://console.mistral.ai/
云服务:可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上调用

简单使用

可在这里使用:https://chat.mistral.ai/chat

不够聪明啊,ahhhhhh

版本特色

  • 多语言设计:支持多种语言,包括英语、法语、德语、西班牙语、意大利语、中文、日语、韩语、葡萄牙语、荷兰语和波兰语。
  • 精通代码:熟练掌握 80 多种编程语言,如 Python、Java、C、C++、JavaScript 和 Bash 等。还熟悉一些更具体的语言,如 Swift 和 Fortran。
  • Agent 支持:原生支持 Function Calling 和 JSON 输出。
  • 好的推理:数学和推理能力远超前代,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 不相上下
  • 128k 上下文:,加之在 la Plateforme 实施的输出限制模式,大大促进了应用开发和技术栈的现代化。
  • 开源许可:允许用于研究和非商业用途的使用和修改。

推理测试

表现远超之前的 Mistral Large,与 GPT-4o、Claude 3 Opus 和 Llama 3.1 405B 相媲美

代码生成测试

MultiPL-E 性能测试

GSM8K(8-shot)和 MATH(0-shot,无 CoT)测试

语言覆盖

 官方给的图,剑指 Meta

语言性能测试

更多信息

按 Mistral 的说法,他们会围绕以下模型在 la Plateforme 上进行后续整合:

  • 通用模型:Mistral Nemo 和 Mistral Large
  • 专业模型:Codestral 和 Embed

其中 Mistral NeMo 是一款与 NVIDIA 合作开发的 12B 模型,一周前发布的,具体参见:https://mistral.ai/news/mistral-nemo/

同时,Mistral 的 Large2 模型已可在 Google Cloud 、Azure AI Studio、Amazon Bedrock 和 IBM watsonx.ai 上进行调用。更多的安排参考:

当Kimi浏览器助手遇上投资小白

Overseas 发表了文章 • 2024-07-25 11:46 • 来自相关话题

昨天,Kimi官宣上新了Kimi浏览器助手小插件,今天上手体验了一下,测试了应用在公众号、财经新闻网页等的阅读上,效果相当不错。作为投资小白,可以尝试利用Kimi的这款浏览器插件进行专业新闻及数据的阅读和理解上。Kimi浏览器助手主要有三个功能:1.有问题,划线问 Kimi选取有疑问的段落轻松划线获得符合上下文的答案,浏览网页不再需要反复切换页面查询新问题2.读文章,摘要找 Kimi点击右侧悬浮图标或快捷键一键唤起对话窗口,快速总结全文减少阅读时间消耗。3.写文档,灵感找 Kimi侧边栏模式和全局浮窗模式可在插件设置页自由切换,在你有需要的任意场景下常驻手边。下载及使用方式可以在Kimi官方网页左下角,进行点击下载,安装及使用都比较容易上手,在这里就不展开了。在这里我用两篇文章来测试Kimi浏览器助手的使用便捷程度。第一篇是新浪财经今日的头条新闻:“精准调节流动性 央行创设临时隔夜正、逆回购操作“鼠标覆盖标题,左侧就有Kimi的标志出现,紧接着,弹出的对话框开始解释精准调节流动性的背景以及正逆回购的解释。如果读者觉得解释过于专业可以继续追问,比如:请用投资小白能够听得懂的语言再给我讲一遍。这时候的回答更取决于prompt的精准度。但是足够可以清晰的让读者明白一些偏专业的内容。多轮测试下来,这项功能给我的感觉是,虽然你只划定了词汇,但 AI 的解释结果更多是综合了选定词的上下文以及初步搜索结果。在一些更深层次的问题上,Kimi浏览器助手给的答案不尽人意,需要借助Kimi官网的解答。比如我继续追问:历史上逆回购有哪几次,背景是怎样的?对市场产生了什么影响?请以表格的形式展示。同样的问题在Kimi网站上给的答案会更准确,下边是通过Kimi官网给到的答复:除此之外, Kimi 浏览器助手总结全文,对于理解一些投教的文章会更加清晰,提升了阅读的效率。需要精读公众号文章时,调用 Kimi 总结功能,一篇详略得当的文章总结就呈现在我们眼前。比如总结以下文章的内容:在体验完 Kimi浏览器助手后,我得出的结论是,它无法、也不能取代AI搜索,它是一个更简洁的小「搜索引擎」但是Kimi 浏览器助手主打一个免费,其目前使用次数无上限。而且对于很多小白投资者而言一些专业的名词及投教文章可以更好的去理解。还是要再夸一下Kimi的迭代能力,当国内大模型纷纷竞争B端时,Kimi选择了在C端发力,让AI更多的出现在我们的工作及生活的场景中。最后重温一下杨植麟的经典语录:“搞定”不是一个好的词,背后本质是合作。合作就是能双赢,因为双赢是合作的前提。所以也没什么区别,需要给别人提供独特价值。也没有什么天赋,就是努力干活。 查看全部

昨天,Kimi官宣上新了Kimi浏览器助手小插件,今天上手体验了一下,测试了应用在公众号、财经新闻网页等的阅读上,效果相当不错。作为投资小白,可以尝试利用Kimi的这款浏览器插件进行专业新闻及数据的阅读和理解上。

Kimi浏览器助手主要有三个功能:

1.有问题,划线问 Kimi

选取有疑问的段落轻松划线获得符合上下文的答案,浏览网页不再需要反复切换页面查询新问题

2.读文章,摘要找 Kimi

点击右侧悬浮图标或快捷键一键唤起对话窗口,快速总结全文减少阅读时间消耗。

3.写文档,灵感找 Kimi

侧边栏模式和全局浮窗模式可在插件设置页自由切换,在你有需要的任意场景下常驻手边。

下载及使用方式可以在Kimi官方网页左下角,进行点击下载,安装及使用都比较容易上手,在这里就不展开了。

在这里我用两篇文章来测试Kimi浏览器助手的使用便捷程度。第一篇是新浪财经今日的头条新闻:“精准调节流动性 央行创设临时隔夜正、逆回购操作“

鼠标覆盖标题,左侧就有Kimi的标志出现,紧接着,弹出的对话框开始解释精准调节流动性的背景以及正逆回购的解释。

如果读者觉得解释过于专业可以继续追问,比如:请用投资小白能够听得懂的语言再给我讲一遍。这时候的回答更取决于prompt的精准度。但是足够可以清晰的让读者明白一些偏专业的内容。

多轮测试下来,这项功能给我的感觉是,虽然你只划定了词汇,但 AI 的解释结果更多是综合了选定词的上下文以及初步搜索结果。

在一些更深层次的问题上,Kimi浏览器助手给的答案不尽人意,需要借助Kimi官网的解答。比如我继续追问:历史上逆回购有哪几次,背景是怎样的?对市场产生了什么影响?请以表格的形式展示。

同样的问题在Kimi网站上给的答案会更准确,下边是通过Kimi官网给到的答复:

除此之外, Kimi 浏览器助手总结全文,对于理解一些投教的文章会更加清晰,提升了阅读的效率。

需要精读公众号文章时,调用 Kimi 总结功能,一篇详略得当的文章总结就呈现在我们眼前。

比如总结以下文章的内容:


在体验完 Kimi浏览器助手后,我得出的结论是,它无法、也不能取代AI搜索,它是一个更简洁的小「搜索引擎」

但是Kimi 浏览器助手主打一个免费,其目前使用次数无上限。而且对于很多小白投资者而言一些专业的名词及投教文章可以更好的去理解。

还是要再夸一下Kimi的迭代能力,当国内大模型纷纷竞争B端时,Kimi选择了在C端发力,让AI更多的出现在我们的工作及生活的场景中。

最后重温一下杨植麟的经典语录:

“搞定”不是一个好的词,背后本质是合作。合作就是能双赢,因为双赢是合作的前提。所以也没什么区别,需要给别人提供独特价值。也没有什么天赋,就是努力干活。

普大喜奔!免费使用 llama3.1的八个网站

Overseas 发表了文章 • 2024-07-25 10:58 • 来自相关话题

又一个重量级大模型发布,波谲云诡的AI江湖再添变数这是一款强大的开源 AI 模型,由知名科技公司 Meta(之前叫 Facebook)发布。Llama 3.1 ,一共三个版本, 包括 8B、70B、405B今天我向您简介这款AI,并分享八个免费使用 Llama 3.1 的方法,其中3个国内直联、支持405B!以下是官方公布的测试数据,水平 与gpt4o、claude3.5 sonnect 旗鼓相当第三方评测机构,除坚持用户盲测打分的LMsys暂未给出排名外,SEAL 和 Allen AI 的 ZeroEval 两个独立评估机构给出了自己的结果,405B 确实厉害!SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。官方博客:  llama.meta.com/llama3申请下载:   llama.meta.com/llama-downloads一、开源 AI 和闭源 AI 大战在 AI 的世界里,有两个阵营:开源 AI 和闭源 AI。开源 AI 像是一个巨大的图书馆,任何人都可以进去学习、分享和改进知识。闭源 AI 则像是私人图书馆,只有特定的人才能进入。什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。开源 AI 模型和普通商业 AI 模型不太一样。开源的好处是,大家可以一起分享知识,互相合作改进模型。成本也会更低,让更多人和小型公司参与进来。而且开源的模型更加透明,人们更容易相信和信任。相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。开源 AI 的优势:共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。官方博客:  llama.meta.com/llama3硬件配置 要求中等,下载到本地,苹果M1、16G显卡就能本地运行后,免费使用!让我们一起来看看 llama3.1是如何改变游戏规则的,以及我们个人用户如何能够使用它。关键是,如果你有能力本地部署,它还是完全免费的!在 AI 的世界里,有两个阵营:开源 AI 和闭源 AI。什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。成本效益:不需要很多钱就能使用这些模型,小公司和个人也能参与。透明度:我们知道它是如何工作的,这让我们更信任它。主流AI大模型速度-性能- 价格分布图如下:闭源 AI 的特点:专有技术:由一家公司控制,他们不告诉别人它是怎么做的。定制化服务:可以提供特别为你设计的服务。盈利模式:通过订阅费或授权使用费来赚钱。常见闭源软件有 ChatGPT、Claude、谷歌 gemini、kimi 等meta 是一个商业盈利机构,但是为了构建元宇宙,它买了最多的显卡,给大家训练了一个开源 AI 大模型 llama 系列!二、llamma3 的使用现在,让我们看看如何使用 llama3.1。(一)本地使用:ollma 部署:如果你想在自己的电脑上使用 llama3,可以下载模型并进行本地部署。1、安装和启动 Ollma访问 https://ollama.com/download 下载适合自己系统的 Ollma 客户端。2、运行 Ollma 客户端,它会在本地启动一个 API 服务。在 Ollma 中,可以选择运行 LLaMA 3.1 模型打开终端,输入:ollama run llama3.13、输入问题,开始使用本地API使用 :到第三方去购买API,然后在本机安装一个chatnextweb软件。第三方API的价格目前是gpt4o的50%,大概2.5~3美元每百万token。(二)在线使用1、Meta 官网国内直联:否登录难度:极大登录网址:www.meta.ai响应速度:中等2、抱抱脸 HuggingChat(推荐)国内直联:否登录难度:中登录网址:huggingface.co/chat/响应速度:中等打开界面上的“设置”齿轮,选中 LLaMA3.1,点击“Activate”,输入系统提示“用中文回复”,关闭窗口,搞定!3、Groq 平台Groq 是一家专注于开发高效能 AI 推理硬件的公司,其产品旨在为机器学习工作负载提供高性能和低功耗的解决方案,开发了一种名为LPU的专用芯片,专门针对大型语言模型(LLM)的推理进行优化。国内直联:否登录难度:中登录网址:console.groq.com响应速度:中等使用界面:需要选中 LLaMA-3.1,405B暂时下架,估计过两天会恢复4、deepinfra 平台DeepInfra 是一个提供机器学习模型和基础设施的平台,它专注于提供快速的机器学习推理(ML Inference)服务。注册送1.5美元API 额度。也可在线使用国内直联:否登录难度:中登录网址:deepinfra.com/meta-llama/响应速度:中等使用界面:5、cloudflare 平台(国内直联)Cloudflare 是一家大名鼎鼎提供互联网安全、性能优化和相关服务的公司国内直联:是登录难度:中登录网址:playground.ai.cloudflare.com/响应速度:中等使用界面:需要选中 LLaMA-3.1 ,目前只有 8B 版本6、Repilcate 平台(推荐,国内直联)国内一个面向机器学习和人工智能模型的在线平台,专注于提供模型的部署、运行和训练服务国内直联:是 :)登录难度:小,国内直联,支持405B登录网址:llama3.replicate.devhttps://replicate.com/meta/meta-llama-3-70b-instruct响应速度:中等使用界面:需要选中 LLaMA-3.17、英伟达平台(国内直联)英伟达公司不用介绍了吧国内直联:是 :)登录难度:小,,国内直联,支持405B登录网址:https://build.nvidia.com/explore/discover#llama-3_1-405b-instruct响应速度:中等使用界面:需要选中 LLaMA-3.18、中文 llama 社区(国内直联)中文 llama 社区国内直联:是 :)登录难度:小,国内直联,支持405B登录网址:llama.family/chat响应速度:70B(8B 很快)使用界面:这次 llama3.1 的发布,就看其他厂商如何应对了,估计 AI之王 GPT5 快出关了!好啦,今天的分享就到这里! 查看全部

又一个重量级大模型发布,波谲云诡的AI江湖再添变数

这是一款强大的开源 AI 模型,由知名科技公司 Meta(之前叫 Facebook)发布。Llama 3.1 ,一共三个版本, 包括 8B、70B、405B

今天我向您简介这款AI,并分享八个免费使用 Llama 3.1 的方法,其中3个国内直联、支持405B!

以下是官方公布的测试数据,水平 与gpt4o、claude3.5 sonnect 旗鼓相当

第三方评测机构,除坚持用户盲测打分的LMsys暂未给出排名外,SEAL 和 Allen AI 的 ZeroEval 两个独立评估机构给出了自己的结果,405B 确实厉害!SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二

ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。

官方博客:  llama.meta.com/llama3
申请下载:   llama.meta.com/llama-downloads

一、开源 AI 和闭源 AI 大战

在 AI 的世界里,有两个阵营:开源 AI 闭源 AI。开源 AI 像是一个巨大的图书馆,任何人都可以进去学习、分享和改进知识。闭源 AI 则像是私人图书馆,只有特定的人才能进入。什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。开源 AI 模型和普通商业 AI 模型不太一样。开源的好处是,大家可以一起分享知识,互相合作改进模型。成本也会更低,让更多人和小型公司参与进来。而且开源的模型更加透明,人们更容易相信和信任。相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。

开源 AI 的优势:

共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。

SEAL 上405B指令遵循主流AI中第一、代码第四、数学第二

ZeroEval 测试它整体性能介于 Sonnet 3.5 和 GPT4o 之间。

官方博客:  llama.meta.com/llama3

硬件配置 要求中等,下载到本地,苹果M1、16G显卡就能本地运行后,免费使用!

让我们一起来看看 llama3.1是如何改变游戏规则的,以及我们个人用户如何能够使用它。

关键是,如果你有能力本地部署,它还是完全免费的!

在 AI 的世界里,有两个阵营:开源 AI 闭源 AI

什么是开源呢?就是代码和数据是公开透明的,任何人都可以下载使用和改进。

相比之下,商业 AI 模型的代码和数据都是保密的,只有公司自己掌控,定价也更高。但这样可以提供更专业定制的服务。

  • 共享与协作:全球的研究者和开发者可以一起工作,让模型变得更好。
  • 成本效益:不需要很多钱就能使用这些模型,小公司和个人也能参与。
  • 透明度:我们知道它是如何工作的,这让我们更信任它。

主流AI大模型速度-性能- 价格分布图如下:

闭源 AI 的特点:

  • 专有技术:由一家公司控制,他们不告诉别人它是怎么做的。
  • 定制化服务:可以提供特别为你设计的服务。
  • 盈利模式:通过订阅费或授权使用费来赚钱。

常见闭源软件有 ChatGPT、Claude、谷歌 gemini、kimi 等

meta 是一个商业盈利机构,但是为了构建元宇宙,它买了最多的显卡,给大家训练了一个开源 AI 大模型 llama 系列!

二、llamma3 的使用

现在,让我们看看如何使用 llama3.1。

(一)本地使用:

  • ollma 部署:如果你想在自己的电脑上使用 llama3,可以下载模型并进行本地部署。

1、安装和启动 Ollma

访问 https://ollama.com/download 

下载适合自己系统的 Ollma 客户端。

2、运行 Ollma 客户端,它会在本地启动一个 API 服务。

在 Ollma 中,可以选择运行 LLaMA 3.1 模型

打开终端,输入:ollama run llama3.1

3、输入问题,开始使用

本地API使用 :

到第三方去购买API,然后在本机安装一个chatnextweb软件。

第三方API的价格目前是gpt4o的50%,大概2.5~3美元每百万token。

(二)在线使用

1、Meta 官网

国内直联:否

登录难度:极大

登录网址:www.meta.ai

响应速度:中等

2、抱抱脸 HuggingChat(推荐)

国内直联:否

登录难度:中

登录网址:huggingface.co/chat/

响应速度:中等

打开界面上的“设置”齿轮,选中 LLaMA3.1,点击“Activate”,输入系统提示“用中文回复”,关闭窗口,搞定!

3、Groq 平台

Groq 是一家专注于开发高效能 AI 推理硬件的公司,其产品旨在为机器学习工作负载提供高性能和低功耗的解决方案,开发了一种名为LPU的专用芯片,专门针对大型语言模型(LLM)的推理进行优化。

国内直联:否

登录难度:中

登录网址:console.groq.com

响应速度:中等

使用界面:

需要选中 LLaMA-3.1,405B暂时下架,估计过两天会恢复

4、deepinfra 平台

DeepInfra 是一个提供机器学习模型和基础设施的平台,它专注于提供快速的机器学习推理(ML Inference)服务。注册送1.5美元API 额度。也可在线使用

国内直联:否

登录难度:中

登录网址:deepinfra.com/meta-llama/

响应速度:中等

使用界面:

5、cloudflare 平台(国内直联)

Cloudflare 是一家大名鼎鼎提供互联网安全、性能优化和相关服务的公司

国内直联:是

登录难度:中

登录网址:

playground.ai.cloudflare.com/

响应速度:中等

使用界面:

需要选中 LLaMA-3.1 ,目前只有 8B 版本

6、Repilcate 平台(推荐,国内直联)

国内一个面向机器学习和人工智能模型的在线平台,专注于提供模型的部署、运行和训练服务

国内直联:是 :)

登录难度:小,国内直联,支持405B

登录网址:llama3.replicate.dev

https://replicate.com/meta/meta-llama-3-70b-instruct

响应速度:中等

使用界面:

需要选中 LLaMA-3.1

7、英伟达平台(国内直联)

英伟达公司不用介绍了吧

国内直联:是 :)

登录难度:小,,国内直联,支持405B

登录网址:

https://build.nvidia.com/explore/discover#llama-3_1-405b-instruct

响应速度:中等

使用界面:

需要选中 LLaMA-3.1

8、中文 llama 社区(国内直联)

中文 llama 社区

国内直联:是 :)

登录难度:小,国内直联,支持405B

登录网址:llama.family/chat

响应速度:70B(8B 很快)

使用界面:

这次 llama3.1 的发布,就看其他厂商如何应对了,估计 AI之王 GPT5 快出关了!

好啦,今天的分享就到这里!

2024年自媒体教程:借助AI创作撸头条3天必起号,也适合不擅长写作的人

Overseas 发表了文章 • 2024-03-22 10:30 • 来自相关话题

在数字经济的浪潮中,越来越多的人开始寻找适合自己的副业,希望通过互联网实现财富的增值。今天,我要向大家介绍一个既适合新手小白,又适合想要在互联网上大展拳脚的创业者们的副业项目——AI撸头条。这个项目凭借其独特的优势,让你在短短3天内就能起号,实现一键分发,简单无脑地赚取收益。一、项目介绍AI撸头条项目是一个利用人工智能技术,进行内容创作与分发的副业项目。它适合那些没有在互联网上赚过钱,或者想要通过互联网赚取额外收入的人群。项目的操作难度极低,只需要复制粘贴,借助AI创作原创爆款文章,然后发布到头条等平台,有流量就有收益。二、项目优势AI撸头条项目的优势主要体现在以下几个方面:1.零粉丝即有收益:无需担心粉丝数量少而影响收益,只要你的内容有流量,就能获得收益。2.长久稳定,不违规:项目遵循平台规则,不触碰任何违规内容,保证收益的长久稳定。3、适用人群广泛:无论你是上班族、大学生、宝妈还是互联网新手,都可以轻松上手,实现在家创业的梦想。4、无需资金投入:项目启动成本低,无需大量资金投入,让你轻松开启副业之旅。5、高效省时:每天只需花费半小时的时间,就能完成内容的创作与分发,实现高效收益。<o:p></o:p>6、批量多平台操作:通过批量多平台矩阵操作,你可以放大收益,实现收益最大化。<o:p></o:p>三、准备工作在开始AI撸头条项目之前,你需要做好以下准备工作:1.一部手机:通过数据上网,确保一机一卡一网一号。通过抖音账号可直接注册一个今日头条的账号,为后续的内容发布做准备。2.一台电脑:电脑的配置不需要太高,只要能够运行剪映等视频编辑软件即可。这将有助于你进行内容的后期处理和音频的添加。3.开通创作者收益:在今日头条等平台开通创作者收益功能,确保你的内容能够产生收益。4.ChatGPT等工具:ChatGPT是一个强大的人工智能语言模型,它可以用来辅助你进行内容的创作,只是需要魔法上网。5.剪映软件:剪映是一个非常容易上手的视频编辑软件,可以对视频进行去重,添加音乐、图片、特效、音频,还可以一键成片,功能强大。6.视频发布平台:除了今日头条外,你还可以将内容发布到其他具有分成计划的平台上,如公众号、百家号、视频号等。为了方便操作,我为大家提供了一款可以一键同步分发所有平台的软件,轻松实现矩阵操作。四、项目实操在完成了准备工作之后,我们就可以开始AI撸头条项目的实操了。以下是具体的操作步骤:1、利用爆文库洗稿:我为大家准备了文稿库,每周一、三、六更新,从中挑选出适合的内容。通过AI指令进行洗稿,确保内容既符合原创要求,又具有爆款潜力。2、添加爆款标题:一个好的标题能够吸引更多的读者点击阅读。你可以利用AI生成爆款标题,或者参考其他成功案例进行创作。3、添加音频提升权重:使用剪映软件为你的文章添加音频,这不仅可以提升文章的权重,还能增加流量。确保音频内容与文章主题相符,声音清晰。4、一键批量发布:使用一键自动分发软件,将你的内容同时分发到各个平台。这样既能节省时间,又能确保内容在多个平台上获得曝光和收益。总的来说,AI撸头条项目是一个简单无脑、收益可观的副业选择。它充分利用了人工智能技术的优势,让你在轻松愉快的氛围中实现财富的增值。好啦,今天的内容就分享到这里,希望对你有所帮助。 查看全部

在数字经济的浪潮中,越来越多的人开始寻找适合自己的副业,希望通过互联网实现财富的增值。

今天,我要向大家介绍一个既适合新手小白,又适合想要在互联网上大展拳脚的创业者们的副业项目——AI撸头条。

这个项目凭借其独特的优势,让你在短短3天内就能起号,实现一键分发,简单无脑地赚取收益。

一、项目介绍

AI撸头条项目是一个利用人工智能技术,进行内容创作与分发的副业项目。它适合那些没有在互联网上赚过钱,或者想要通过互联网赚取额外收入的人群。

项目的操作难度极低,只需要复制粘贴,借助AI创作原创爆款文章,然后发布到头条等平台,有流量就有收益。

二、项目优势

AI撸头条项目的优势主要体现在以下几个方面:

1.零粉丝即有收益:无需担心粉丝数量少而影响收益,只要你的内容有流量,就能获得收益。

2.长久稳定,不违规:项目遵循平台规则,不触碰任何违规内容,保证收益的长久稳定。

3、适用人群广泛:无论你是上班族、大学生、宝妈还是互联网新手,都可以轻松上手,实现在家创业的梦想。

4、无需资金投入:项目启动成本低,无需大量资金投入,让你轻松开启副业之旅。

5、高效省时:每天只需花费半小时的时间,就能完成内容的创作与分发,实现高效收益。<o:p></o:p>

6、批量多平台操作:通过批量多平台矩阵操作,你可以放大收益,实现收益最大化。<o:p></o:p>

三、准备工作

在开始AI撸头条项目之前,你需要做好以下准备工作:

1.一部手机:通过数据上网,确保一机一卡一网一号。通过抖音账号可直接注册一个今日头条的账号,为后续的内容发布做准备。

2.一台电脑:电脑的配置不需要太高,只要能够运行剪映等视频编辑软件即可。这将有助于你进行内容的后期处理和音频的添加。

3.开通创作者收益:在今日头条等平台开通创作者收益功能,确保你的内容能够产生收益。

4.ChatGPT等工具:ChatGPT是一个强大的人工智能语言模型,它可以用来辅助你进行内容的创作,只是需要魔法上网。

5.剪映软件:剪映是一个非常容易上手的视频编辑软件,可以对视频进行去重,添加音乐、图片、特效、音频,还可以一键成片,功能强大。

6.视频发布平台:除了今日头条外,你还可以将内容发布到其他具有分成计划的平台上,如公众号、百家号、视频号等。

为了方便操作,我为大家提供了一款可以一键同步分发所有平台的软件,轻松实现矩阵操作。

四、项目实操

在完成了准备工作之后,我们就可以开始AI撸头条项目的实操了。以下是具体的操作步骤:

1、利用爆文库洗稿:我为大家准备了文稿库,每周一、三、六更新,从中挑选出适合的内容。通过AI指令进行洗稿,确保内容既符合原创要求,又具有爆款潜力。

2、添加爆款标题:一个好的标题能够吸引更多的读者点击阅读。你可以利用AI生成爆款标题,或者参考其他成功案例进行创作。

3、添加音频提升权重:使用剪映软件为你的文章添加音频,这不仅可以提升文章的权重,还能增加流量。确保音频内容与文章主题相符,声音清晰。

4、一键批量发布:使用一键自动分发软件,将你的内容同时分发到各个平台。这样既能节省时间,又能确保内容在多个平台上获得曝光和收益。

总的来说,AI撸头条项目是一个简单无脑、收益可观的副业选择。它充分利用了人工智能技术的优势,让你在轻松愉快的氛围中实现财富的增值。

好啦,今天的内容就分享到这里,希望对你有所帮助。

AI写真项目拆解,手把手教学新手教程,ComfyUI版

Overseas 发表了文章 • 2024-03-22 10:23 • 来自相关话题

一、分步制作根据写真的SOP教程,蒙版变装的方法分为了四部分:1、制作蒙版2、SD基础设置3、ControlNet设置4、修图1、制作蒙版根据教程中显示,制作蒙版是把脸部蒙版精准抠出,我们需要通过分割算法把脸部自动抠出,这里用到可以分割一切的seg(segment anything)比葫芦画瓢,于是,小姐姐的脸完美扣出来了:但在后期所有步骤连成后,发现遮罩边缘部分衔接不是太好,查了部分资料,发现是遮罩边缘太锋利导致,于是此处流程仍需要对蒙版边缘做羽化处理,核心节点就有,但试了一下,边缘依然比较清晰,发现核心节点feather mask是对整个图进行羽化,这不是我们想要的,我们只想对脸部进行羽化,这里用的是FeatheredMask节点。通过FeatheredMask节点完美实现对边缘的羽化处理,如下图可以看到边缘明显不那么锐利:到这里,第一步制作蒙版基本就达到我们想要的效果了。2、SD基础设置玩过ComfyUI的同学,相信这一步应该非常熟练的还原教程。加载对应的大模型和lora,这里主要lora要和大模型相互匹配哦,通过lora模型的说明上可以看到使用什么大模型,如下图,冰雪奇缘这里用的麦橘V7:这里属于基础部分,我就直接放流程图了,参数调节根据lora模型要求填写即可:但是!这里依然有有一些细节需要注意,如果我们选择的适用于webui的提示词和参数配置的lora模型,我们需要用webui的提示词权重插值的方法,否则出的图和lora模型的表现有一定的差距。啥意思呢,讲人话,就是目前大部分lora模型给出的效果图以及提示词都是从webui上得出得结论,但并不一定适用于comfyui,两种方式对提示词编码时的权重插值是有差异的,这也是经常有小伙伴通过ComfyUI还原WebUI时经常发现不能完美还原的一个非常非常重要的原因。因此为了保证完美还原,这里又引入了一个节点,这个节点允许我们把权重插值方法改为A1111,也就是WebUI的提词权重插值方式,如下图:根据上面接上,我们把之前的流程再重新修改,于是如下图:可以看出两张图是有明显差别的,第一次的图明显锐化比较严重,第二次就好很多了。到这里,SD基础设置中的前半部分就ok了,后边就是对蒙版内容和现在的采样器进行结合,教程中是重绘非蒙版内容,并且对蒙版区域采用潜空间噪声设置,因此这里需要在潜空间添加噪声以达到比较好的效果,对应ComfyUI可以用设置Latent噪波遮罩,并把图像编码传给采样器一同处理,这里就可以把空latent删除掉啦:如上图,我们生成测试一下,发现遮罩部分完美把脸部迁移了,背景也重绘了,目前达到我们的效果。剩下的就交给ControlNet来处理吧。3、ControlNet设置在ControlNet设置的教程里,主要用了openpose和lineart来控制人物的姿态和脸型,且用lineart控制脸部结构时需要手动把多余部分擦出掉。这部分我想了好久,发现目前没有好的方式实现,但深入思考后,能够发现擦这部分的作用其实是防止衣服和背景的多余线条影响重绘得内容,那我用稍微欠一点的预处理器是不是能行呢,最终用HED模糊线预处理器感觉还凑活,生成的图像并没有太多线条,应该可以用:然后加上openpose试一下:把两个ControlNet串联后接入到采样器就可以啦,先看下生成效果:看效果感觉用HED还凑活,那就继续。4、修图修图主要是对脸部边缘部分进行修复,使其融合的更自然。教程里用的图生图的局部重绘,这里我们不想用手动去涂抹,ControlNet中有个inpaint预处理器啊,这个玩意也是干这个事得,而且比局部重绘的融合度会稍好一些,我们只需要让其对蒙版和原图的衔接部位进行重绘即可,控制好幅度应该可行。于是,ControlNet中仍然需要再串联一层inpaint:如上图,把inpaint串联上去,我们再看下效果吧:看起来比之前效果确实要好不少。到这里,整个还原就结束了,为了更清晰的划分不同模块,并做下后期放大,后面篇幅增加了放大功能。二、后期优化原图质量越好,生成的图也会越好,但大部分可能原图像素比较低,这里可以通过工作流直接组合放大功能。这里我只用了SD放大,大家可以参考上面的文章,把图像放大到合适的大小哦。可以看到图像被放大后还是很清晰的,并且经过重采样后,融合度可以说是完美。但经过重采样的放大的图像会和原图略有区别,就和美颜后一样,这个可以通过调节降噪幅度自行调节到自己想要的程度。(ps: 效果是不是类似于插件instantid换脸法呢,嘿嘿!当然通过instantid换脸通过comfyui是比较容易做到的,属于比较基础的部分啦,小伙伴感兴趣的可以自己去实验吧)为了方便查看,我对节点做了少许整理,并对刚才的分布制作单独分组,方便大家分块学习。下面的两个图片和一个Json文件选取一个导入comfyui中即可展示全部流程了。 查看全部

一、分步制作

根据写真的SOP教程,蒙版变装的方法分为了四部分:

1、制作蒙版2、SD基础设置3、ControlNet设置4、修图

1、制作蒙版

根据教程中显示,制作蒙版是把脸部蒙版精准抠出,我们需要通过分割算法把脸部自动抠出,这里用到可以分割一切的seg(segment anything)

比葫芦画瓢,于是,小姐姐的脸完美扣出来了:

但在后期所有步骤连成后,发现遮罩边缘部分衔接不是太好,查了部分资料,发现是遮罩边缘太锋利导致,于是此处流程仍需要对蒙版边缘做羽化处理,核心节点就有,但试了一下,边缘依然比较清晰,发现核心节点feather mask是对整个图进行羽化,这不是我们想要的,我们只想对脸部进行羽化,这里用的是FeatheredMask节点。

通过FeatheredMask节点完美实现对边缘的羽化处理,如下图可以看到边缘明显不那么锐利:

到这里,第一步制作蒙版基本就达到我们想要的效果了。

2、SD基础设置

玩过ComfyUI的同学,相信这一步应该非常熟练的还原教程。

加载对应的大模型和lora,这里主要lora要和大模型相互匹配哦,通过lora模型的说明上可以看到使用什么大模型,如下图,冰雪奇缘这里用的麦橘V7:

这里属于基础部分,我就直接放流程图了,参数调节根据lora模型要求填写即可:

但是!这里依然有有一些细节需要注意,如果我们选择的适用于webui的提示词和参数配置的lora模型,我们需要用webui的提示词权重插值的方法,否则出的图和lora模型的表现有一定的差距。

啥意思呢,讲人话,就是目前大部分lora模型给出的效果图以及提示词都是从webui上得出得结论,但并不一定适用于comfyui,两种方式对提示词编码时的权重插值是有差异的,这也是经常有小伙伴通过ComfyUI还原WebUI时经常发现不能完美还原的一个非常非常重要的原因。

因此为了保证完美还原,这里又引入了一个节点,这个节点允许我们把权重插值方法改为A1111,也就是WebUI的提词权重插值方式,如下图:

根据上面接上,我们把之前的流程再重新修改,于是如下图:

可以看出两张图是有明显差别的,第一次的图明显锐化比较严重,第二次就好很多了。

到这里,SD基础设置中的前半部分就ok了,后边就是对蒙版内容和现在的采样器进行结合,教程中是重绘非蒙版内容,并且对蒙版区域采用潜空间噪声设置,因此这里需要在潜空间添加噪声以达到比较好的效果,对应ComfyUI可以用设置Latent噪波遮罩,并把图像编码传给采样器一同处理,这里就可以把空latent删除掉啦:

如上图,我们生成测试一下,发现遮罩部分完美把脸部迁移了,背景也重绘了,目前达到我们的效果。

剩下的就交给ControlNet来处理吧。

3、ControlNet设置

在ControlNet设置的教程里,主要用了openpose和lineart来控制人物的姿态和脸型,且用lineart控制脸部结构时需要手动把多余部分擦出掉。

这部分我想了好久,发现目前没有好的方式实现,但深入思考后,能够发现擦这部分的作用其实是防止衣服和背景的多余线条影响重绘得内容,那我用稍微欠一点的预处理器是不是能行呢,最终用HED模糊线预处理器感觉还凑活,生成的图像并没有太多线条,应该可以用:

然后加上openpose试一下:

把两个ControlNet串联后接入到采样器就可以啦,先看下生成效果:

看效果感觉用HED还凑活,那就继续。

4、修图

修图主要是对脸部边缘部分进行修复,使其融合的更自然。

教程里用的图生图的局部重绘,这里我们不想用手动去涂抹,ControlNet中有个inpaint预处理器啊,这个玩意也是干这个事得,而且比局部重绘的融合度会稍好一些,我们只需要让其对蒙版和原图的衔接部位进行重绘即可,控制好幅度应该可行。

于是,ControlNet中仍然需要再串联一层inpaint:

如上图,把inpaint串联上去,我们再看下效果吧:

看起来比之前效果确实要好不少。

到这里,整个还原就结束了,为了更清晰的划分不同模块,并做下后期放大,后面篇幅增加了放大功能。

二、后期优化

原图质量越好,生成的图也会越好,但大部分可能原图像素比较低,这里可以通过工作流直接组合放大功能。

这里我只用了SD放大,大家可以参考上面的文章,把图像放大到合适的大小哦。

可以看到图像被放大后还是很清晰的,并且经过重采样后,融合度可以说是完美。

但经过重采样的放大的图像会和原图略有区别,就和美颜后一样,这个可以通过调节降噪幅度自行调节到自己想要的程度。(ps: 效果是不是类似于插件instantid换脸法呢,嘿嘿!当然通过instantid换脸通过comfyui是比较容易做到的,属于比较基础的部分啦,小伙伴感兴趣的可以自己去实验吧)

为了方便查看,我对节点做了少许整理,并对刚才的分布制作单独分组,方便大家分块学习。

下面的两个图片和一个Json文件选取一个导入comfyui中即可展示全部流程了。

谷歌打击的过期域名(老域名)滥用是什么?

newsman 发表了文章 • 2024-03-22 09:53 • 来自相关话题

过期域名滥用是谷歌近期推出的垃圾内容政策中重点打击的对象之一, 今天聊聊过期域名滥用是指什么, 有什么用, 以及我们现在还能不能用.首先说能不能用的问题, 这个应该是可以继续购买使用的, 毕竟, 域名资源是有限的, 不可能人人建网站都只能用新的域名, 而且有些老域名品牌名起的不错.ai.com, 这个世界上最值钱的域名之一, 不是在微软, 谷歌, 马斯克之间转了好几手吗.好的域名转移到合适的网站内容上, 也是资源的优质配置, 合情合理.而且, 谷歌自己说了, 打击的是abuse, 而不是use.有传言说, 谷歌会推出新的算法过滤掉老域名过去积累的权重和链接资源.我觉得应该也会是这样.回到过期域名滥用上.过期域名也叫老域名, 顾名思义, 就是之前注册使用过, 积累了一批外链和流量资源, 后面因为各种原因, 网站不再运营, 忘记续费, 取消指向或转移了的域名.这些资源如果是新站需要一定时间的积累, 因此有些人就会专门去买卖这些老域名, 收购的人就能利用老域名的资源来快速拉动当前网站的表现.**过期域名滥用的几种方式:**快速推动新建站点权重和流量构建PBN销售外301重定向给现有网站导流和提升权重, 以前卖/做外链的一种方式我用过的方式我买过做301重定向的过期域名, 年租形式, 而且当时是能起到作用的.过期域名起作用的地方过期域名最起作用的地方就是它积累的外链如果我们想正规的去做, 哪里可以买到过期域名?域名注册商, 像godaddy, namecheap它们都有相应的过期域名购买版块和功能, 不过通常价格不透明, 或标示的都非常昂贵.域名交易平台, GoDaddy Auctions、NameJet等.过期域名查找工具:Spamzilla和Domain Hunter Gatherer.如何验证过期域名能不能买网络搜索该域名或品牌名, 看看有没有黑历史.调查该域名的外链, 通过semrush分析这个域名的外链历史记录.在 archive.org 上查看这个网站过去的样子, 确保它是一个正规运营的网站. 查看全部

过期域名滥用是谷歌近期推出的垃圾内容政策中重点打击的对象之一, 今天聊聊过期域名滥用是指什么, 有什么用, 以及我们现在还能不能用.

首先说能不能用的问题, 这个应该是可以继续购买使用的, 毕竟, 域名资源是有限的, 不可能人人建网站都只能用新的域名, 而且有些老域名品牌名起的不错.

ai.com, 这个世界上最值钱的域名之一, 不是在微软, 谷歌, 马斯克之间转了好几手吗.

好的域名转移到合适的网站内容上, 也是资源的优质配置, 合情合理.

而且, 谷歌自己说了, 打击的是abuse, 而不是use.

有传言说, 谷歌会推出新的算法过滤掉老域名过去积累的权重和链接资源.

我觉得应该也会是这样.

回到过期域名滥用上.

过期域名也叫老域名, 顾名思义, 就是之前注册使用过, 积累了一批外链和流量资源, 后面因为各种原因, 网站不再运营, 忘记续费, 取消指向或转移了的域名.

这些资源如果是新站需要一定时间的积累, 因此有些人就会专门去买卖这些老域名, 收购的人就能利用老域名的资源来快速拉动当前网站的表现.

**过期域名滥用的几种方式:
**

快速推动新建站点权重和流量

构建PBN销售外

301重定向给现有网站导流和提升权重, 以前卖/做外链的一种方式

我用过的方式

我买过做301重定向的过期域名, 年租形式, 而且当时是能起到作用的.

过期域名起作用的地方

过期域名最起作用的地方就是它积累的外链

如果我们想正规的去做, 哪里可以买到过期域名?

域名注册商, 像godaddy, namecheap它们都有相应的过期域名购买版块和功能, 不过通常价格不透明, 或标示的都非常昂贵.

域名交易平台, GoDaddy Auctions、NameJet等.

过期域名查找工具:

Spamzilla和Domain Hunter Gatherer.

如何验证过期域名能不能买

网络搜索该域名或品牌名, 看看有没有黑历史.

调查该域名的外链, 通过semrush分析这个域名的外链历史记录.

在 archive.org 上查看这个网站过去的样子, 确保它是一个正规运营的网站.

WordPress网站的维护问题

newsman 发表了文章 • 2024-03-22 09:22 • 来自相关话题

今天简单分享一下WordPress网站的维护问题, 以及我会使用的一些方案.WordPress网站维护是指定期对WordPress网站进行更新、备份、安全性检查、性能优化等一系列操作的过程。这些维护工作旨在确保WordPress网站的稳定运行,提高用户体验,防止安全风险WordPress发展到现在, 后台控制面板控制功能, 服务器方的技术支持, 第三方功能软件等都很完善,整体稳定性也较之前有了极大提升.但它毕竟是一个复杂的软件系统, 因为各种原因, 偶尔出现问题的可能性仍存在.对比我刚开始用WP的时候, 面板, web服务器, 数据库, Wordpress等CMS, 都要用命令行去安装和控制, 出了问题很容易抓瞎, 现在碰到的问题已经少了很多和好解决的多.对于很多刚接触WordPress的小伙伴, 推荐几个可以帮助防患于未然的方法:挑选靠谱的服务器托管商像我长期使用的Cloudways和SiteGround, 网站出现的常见问题, 都有官方的support文档提供搜索查询, 实在找不到, 还有24小时在线的技术支持帮助解决.很多人碰到网站出现了技术问题, 都喜欢跑到群里问别人, 可能别人都没碰到过, 不如直接去服务器那边找在线客服, 他们态度都很好, 且基本都能帮助解决.安装和使用子主题WordPress子主题是在WordPress主题的基础上创建的一个新主题,用于对原主题进行定制和扩展,而不会影响原主题的更新和功能。子主题可以继承原主题的样式和功能,同时可以对其进行修改和定制,从而实现个性化的设计和功能需求。有的主题直接提供子主题供安装, 也有通多第三方工具和插件来实现的方法, 可以自行搜索了解.做好备份备份就是把网站复制一份, 放在服务器或其他地方, 当前网站出现问题的时候, 可以用备份的数据来还原网站.网站备份有好几种方式, 都不复杂, 自行搜索了解.安装Code Snippet插件Code Snippet插件是一种用于WordPress网站的插件,它允许用户在网站中添加、管理和运行自定义的代码片段,如PHP代码、JavaScript代码、CSS样式等。通过Code Snippet插件,用户可以轻松地在不修改主题文件的情况下添加自定义代码,实现特定功能或修改网站的外观和行为。和上面安装使用子主题的目的一致, 也是为了调整网站功能和样式, 又不用更改网站原始的主题文件, 最大限度的保证核心功能的稳定.安装 Health Check & Troubleshooting 插件Health Check & Troubleshooting插件是一款用于WordPress网站的工具插件,旨在帮助用户诊断和解决网站运行中的常见问题。这个插件提供了一系列功能,包括健康检查、故障排除和性能优化,让用户能够更方便地管理和维护他们的WordPress网站。安装安全插件WordPress安全插件是用于增强和维护WordPress网站安全性的工具,可以帮助用户防止恶意攻击、保护网站数据、监控异常活动等。我最常用的是WordFence, 我建站必装的插件之一, 且长期是付费用户.缓存和数据库清理缓存和数据库清理插件是用于优化网站性能、加快页面加载速度以及减少数据库负担的工具。我一直使用的是WP Rocket, 必装插件之一.保持主题和插件更新及时更新主题和插件至最新版本,以确保所有功能正常运行并修复已知的安全漏洞。 查看全部

今天简单分享一下WordPress网站的维护问题, 以及我会使用的一些方案.

WordPress网站维护是指定期对WordPress网站进行更新、备份、安全性检查、性能优化等一系列操作的过程。这些维护工作旨在确保WordPress网站的稳定运行,提高用户体验,防止安全风险

WordPress发展到现在, 后台控制面板控制功能, 服务器方的技术支持, 第三方功能软件等都很完善,整体稳定性也较之前有了极大提升.

但它毕竟是一个复杂的软件系统, 因为各种原因, 偶尔出现问题的可能性仍存在.

对比我刚开始用WP的时候, 面板, web服务器, 数据库, Wordpress等CMS, 都要用命令行去安装和控制, 出了问题很容易抓瞎, 

现在碰到的问题已经少了很多和好解决的多.

对于很多刚接触WordPress的小伙伴, 推荐几个可以帮助防患于未然的方法:

挑选靠谱的服务器托管商

像我长期使用的Cloudways和SiteGround, 网站出现的常见问题, 都有官方的support文档提供搜索查询, 实在找不到, 还有24小时在线的技术支持帮助解决.

很多人碰到网站出现了技术问题, 都喜欢跑到群里问别人, 可能别人都没碰到过, 不如直接去服务器那边找在线客服, 他们态度都很好, 且基本都能帮助解决.

安装和使用子主题

WordPress子主题是在WordPress主题的基础上创建的一个新主题,用于对原主题进行定制和扩展,而不会影响原主题的更新和功能。

子主题可以继承原主题的样式和功能,同时可以对其进行修改和定制,从而实现个性化的设计和功能需求。

有的主题直接提供子主题供安装, 也有通多第三方工具和插件来实现的方法, 可以自行搜索了解.

做好备份

备份就是把网站复制一份, 放在服务器或其他地方, 当前网站出现问题的时候, 可以用备份的数据来还原网站.

网站备份有好几种方式, 都不复杂, 自行搜索了解.

安装Code Snippet插件

Code Snippet插件是一种用于WordPress网站的插件,它允许用户在网站中添加、管理和运行自定义的代码片段,如PHP代码、JavaScript代码、CSS样式等。

通过Code Snippet插件,用户可以轻松地在不修改主题文件的情况下添加自定义代码,实现特定功能或修改网站的外观和行为。

和上面安装使用子主题的目的一致, 也是为了调整网站功能和样式, 又不用更改网站原始的主题文件, 最大限度的保证核心功能的稳定.

安装 Health Check & Troubleshooting 插件

Health Check & Troubleshooting插件是一款用于WordPress网站的工具插件,旨在帮助用户诊断和解决网站运行中的常见问题。

这个插件提供了一系列功能,包括健康检查、故障排除和性能优化,让用户能够更方便地管理和维护他们的WordPress网站。

安装安全插件

WordPress安全插件是用于增强和维护WordPress网站安全性的工具,可以帮助用户防止恶意攻击、保护网站数据、监控异常活动等。

我最常用的是WordFence, 我建站必装的插件之一, 且长期是付费用户.

缓存和数据库清理

缓存和数据库清理插件是用于优化网站性能、加快页面加载速度以及减少数据库负担的工具。

我一直使用的是WP Rocket, 必装插件之一.

保持主题和插件更新

及时更新主题和插件至最新版本,以确保所有功能正常运行并修复已知的安全漏洞。

AI写真变现项目,新书小白也能轻松上手的保姆级教程(建议收藏)

newsman 发表了文章 • 2024-03-22 09:19 • 来自相关话题

在介绍这个项目之前要先让你看看AI写真项目的作品成品,觉得不错有市场,有人愿意买单,你再继续往下看,否则划走就行。案例效果展示不止是小孩,成年女生的也可以,以往如果要拍出一套写真,要布景,妆造,拍摄,修图等等一套流程,而现在用AI,只需要2分钟就可以出来:白衣天使和黑暗女王,海皇都可以,可以说只有你想不到的,没有她做不到:除了女生之外,针对宝妈的小孩AI写真也是重中之重:这个是小孩的原图,然后我们可以做成龙年写真,或者这样很帅的机甲风,小小魔法师等变现机会分析生活赋能说实话,学会这项技能自己用或者在朋友圈炫一下已经很值了。如果你是学生,帮自己、或者同学、女朋友、家人做一组这样的AI写真,无论是生日礼物,还是拿来泡妞搏女神一笑,还是就做完发朋友圈装逼,都会获得很高的点赞量。如果你是女孩子或者宝妈,帮自己和自己的孩子,或者好闺蜜,朋友,同事做一套AI写真,这是多好的一件事情。熟悉我的朋友都知道,通常来说我只会推荐我认为真正有价值的项目,AI写真就是一个除了变现以外还非常有价值的项目,再怎么样学会了这样一项技能后,都能帮自己在日常生活中用起来,这个就是我们普通人通过运用AI帮助自己的生活变得更好的例子。副业变现第二个价值就是变现,AI写真目前在市面上需求还远远没有被满足,是一个很好的入场机会,现在这套技术几乎是市面上最具竞争力的,不仅可以做到质量很高,而且学习成本不高。目前市面上那些要做得很好的,都要本身有比较强的PS技术来调整,这一项目做到了让用户不需要学习PS就能做出90分的效果。为什么AI写真现在是一个很好的变现项目?判断一个项目是否可行,一定是从需求开始分析如果是一些大的项目,你需要自己去做MVP测试需求是否真实?如果是比较小的项目,通常只需要去找到异常值就好了。比如之前赛博机车的时候,别人一条内容的点赞只有1000,但评论却有2000多,同时评论区里的评论绝大多数都是这种有制作意愿的需求:你再去想需求的群体是谁?是机车一族,他们本就是喜欢这些酷炫的东西,并愿意为之付费。所以AI赛博机车图就正好符合这类人群需求,所以整个变现合理性一说出来,你能感觉到是通的。那现在来看看AI写真项目:你有一天刷小红书的时候,发现了下面的异常值:一个480赞的内容,有157条评论,且更为重要的是,评论区都是需求,且都是已经明说要付费的需求。这里的写真有女生自己想做的AI写真,也有宝妈想给宝宝做的AI写真,无一例外,女生、宝妈,都是非常有付费能力的群体,尤其是在小红书这样的平台上,更愿意为自己或者孩子付费。同时写真这个产品的属性就意味着价格不会太低,外面自己去写真馆拍一套写真都要几百了,做一个AI写真,一张大几十也很合理。希望你能通过这个项目真正赚到钱,无论是第一桶金也好,还是找到自己的副业方向都很值。链接成长首先自己的AI技术,SD也好,MJ也好,如果你之前一直没学会,你跟着教程和社群完整的操作实践下来,这块的技能就补上了。同时你还会学会互联网项目的玩法,知道怎么做内容,怎么引流私域变现,积累这块的能力,以及你可以在群里和各路大神交流,互相学习、深度链接。适合人群①有执行力,愿意主动克服困难②电脑设备有足够的配置支持,如果配置不够也愿意用云平台操作③有准备好的小红书账号、抖音账号以及微信号,支持公域做内容电脑配置使用SD对电脑配置有一定的要求,为了后续大家能够更加顺利的使用SD,我们可以先检查一下自己的电脑配置。首先,我们电脑分为Mac系统和Win系统,其中Win系统的显卡又分为N卡和A卡这里我们Win系统的N卡,是最适合玩SD的,无论是最新的插件还是功能更新,N卡都是最快最适配的。如果是Mac系统或者A卡的情况下,使用sd会比较容易出现报错,或者缺少某个功能,即便是Win系统的N卡,我们还要考虑电脑运行内存,和显卡内存的大小:电脑运行内存推荐8GB以上显卡的内存,也就是显存,需要在8GB以上总结一下,就是Win系统N卡,运行内存8GB以上,显存8GB以上,可以在自己电脑下载软件。Mac系统、A卡、以及电脑配置不太行的,就可以选择云平台,云电脑,相当于租用别人更高配置的电脑来使用SD检查电脑配置操作流程①首先鼠标右键点击桌面底部任务栏,打开任务管理器②看到性能里面的内存,后面这个数字就是我们电脑的运行内存,也就是图片中划线的数字这个内存如果显示的是8GB,那就说明你的电脑刚好达到使用SD的标准③点击GPU,先看右上角的第一个单词如果是“NVIDIA”就代表是N卡如果是AMD就是A卡接着看到下面专用GPU内存,后面的数字就是我们电脑的显存显存需要在8GB以上,用SD出图才会比较顺畅大家就按照自己电脑的实际情况,选择是在自己电脑本地下载软件,还是租用云平台。 查看全部

在介绍这个项目之前要先让你看看AI写真项目的作品成品,觉得不错有市场,有人愿意买单,你再继续往下看,否则划走就行。

案例效果展示

不止是小孩,成年女生的也可以,以往如果要拍出一套写真,要布景,妆造,拍摄,修图等等一套流程,而现在用AI,只需要2分钟就可以出来:

白衣天使和黑暗女王,海皇都可以,可以说只有你想不到的,没有她做不到:

除了女生之外,针对宝妈的小孩AI写真也是重中之重:

这个是小孩的原图,然后我们可以做成龙年写真,或者这样很帅的机甲风,小小魔法师等

变现机会分析

生活赋能

说实话,学会这项技能自己用或者在朋友圈炫一下已经很值了。

如果你是学生,帮自己、或者同学、女朋友、家人做一组这样的AI写真,无论是生日礼物,还是拿来泡妞搏女神一笑,还是就做完发朋友圈装逼,都会获得很高的点赞量。

如果你是女孩子或者宝妈,帮自己和自己的孩子,或者好闺蜜,朋友,同事做一套AI写真,这是多好的一件事情。

熟悉我的朋友都知道,通常来说我只会推荐我认为真正有价值的项目,AI写真就是一个除了变现以外还非常有价值的项目,再怎么样学会了这样一项技能后,都能帮自己在日常生活中用起来,这个就是我们普通人通过运用AI帮助自己的生活变得更好的例子。

副业变现

第二个价值就是变现,AI写真目前在市面上需求还远远没有被满足,是一个很好的入场机会,现在这套技术几乎是市面上最具竞争力的,不仅可以做到质量很高,而且学习成本不高。

目前市面上那些要做得很好的,都要本身有比较强的PS技术来调整,这一项目做到了让用户不需要学习PS就能做出90分的效果。

为什么AI写真现在是一个很好的变现项目?

判断一个项目是否可行,一定是从需求开始分析

如果是一些大的项目,你需要自己去做MVP测试需求是否真实?

如果是比较小的项目,通常只需要去找到异常值就好了。

比如之前赛博机车的时候,别人一条内容的点赞只有1000,但评论却有2000多,同时评论区里的评论绝大多数都是这种有制作意愿的需求:

你再去想需求的群体是谁?是机车一族,他们本就是喜欢这些酷炫的东西,并愿意为之付费。

所以AI赛博机车图就正好符合这类人群需求,所以整个变现合理性一说出来,你能感觉到是通的。

那现在来看看AI写真项目:

你有一天刷小红书的时候,发现了下面的异常值:

一个480赞的内容,有157条评论,且更为重要的是,评论区都是需求,且都是已经明说要付费的需求。

这里的写真有女生自己想做的AI写真,也有宝妈想给宝宝做的AI写真,无一例外,女生、宝妈,都是非常有付费能力的群体,尤其是在小红书这样的平台上,更愿意为自己或者孩子付费。

同时写真这个产品的属性就意味着价格不会太低,外面自己去写真馆拍一套写真都要几百了,做一个AI写真,一张大几十也很合理。

希望你能通过这个项目真正赚到钱,无论是第一桶金也好,还是找到自己的副业方向都很值。

链接成长

首先自己的AI技术,SD也好,MJ也好,如果你之前一直没学会,你跟着教程和社群完整的操作实践下来,这块的技能就补上了。

同时你还会学会互联网项目的玩法,知道怎么做内容,怎么引流私域变现,积累这块的能力,以及你可以在群里和各路大神交流,互相学习、深度链接。

适合人群

①有执行力,愿意主动克服困难

②电脑设备有足够的配置支持,如果配置不够也愿意用云平台操作

③有准备好的小红书账号、抖音账号以及微信号,支持公域做内容

电脑配置

使用SD对电脑配置有一定的要求,为了后续大家能够更加顺利的使用SD,我们可以先检查一下自己的电脑配置。

首先,我们电脑分为Mac系统和Win系统,其中Win系统的显卡又分为N卡和A卡

这里我们Win系统的N卡,是最适合玩SD的,无论是最新的插件还是功能更新,N卡都是最快最适配的。

如果是Mac系统或者A卡的情况下,使用sd会比较容易出现报错,或者缺少某个功能,即便是Win系统的N卡,我们还要考虑电脑运行内存,和显卡内存的大小:

电脑运行内存推荐8GB以上

显卡的内存,也就是显存,需要在8GB以上

总结一下,就是Win系统N卡,运行内存8GB以上,显存8GB以上,可以在自己电脑下载软件。

Mac系统、A卡、以及电脑配置不太行的,就可以选择云平台,云电脑,相当于租用别人更高配置的电脑来使用SD

检查电脑配置操作流程

①首先鼠标右键点击桌面底部任务栏,打开任务管理器

②看到性能里面的内存,后面这个数字就是我们电脑的运行内存,也就是图片中划线的数字

这个内存如果显示的是8GB,那就说明你的电脑刚好达到使用SD的标准

③点击GPU,先看右上角的第一个单词

如果是“NVIDIA”就代表是N卡

如果是AMD就是A卡

接着看到下面专用GPU内存,后面的数字就是我们电脑的显存

显存需要在8GB以上,用SD出图才会比较顺畅

大家就按照自己电脑的实际情况,选择是在自己电脑本地下载软件,还是租用云平台。

苹果手机如何通过系统"文件APP"保存视频?

newsman 发表了文章 • 2023-12-25 18:23 • 来自相关话题

直接保存视频到苹果手机里, 免费, 不花钱。下面以我保存视频号视频为例来说一下流程:1、 首先要获取到视频的真实地址。  至于怎么获取, 可能是从某地方复制过来的。然后在苹果手机的浏览器里,粘贴上面的链接, 确定后打开视频, 然后把视频全屏关掉。2、 看上图标注的地方, 点击后分享, 然后选择 “存储到文件”, 就保存到苹果自带的 “文件”APP里了, 要记住保存的路径, 在微信里可以直接找到此文件。3、 在苹果手机的微信里发给朋友,见下图4、  根据刚才保存的路径, 选择文件后, 就可以发给朋友了。   查看全部

直接保存视频到苹果手机里, 免费, 不花钱。下面以我保存视频号视频为例来说一下流程:

1、 首先要获取到视频的真实地址。  至于怎么获取, 可能是从某地方复制过来的。然后在苹果手机的浏览器里,粘贴上面的链接, 确定后打开视频, 然后把视频全屏关掉。

2、 看上图标注的地方, 点击后分享, 然后选择 “存储到文件”, 就保存到苹果自带的 “文件”APP里了, 要记住保存的路径, 在微信里可以直接找到此文件。

3、 在苹果手机的微信里发给朋友,见下图

4、  根据刚才保存的路径, 选择文件后, 就可以发给朋友了。  

Google 全新 AI 模型「Gemini」推出,30 项测试都赢过 GPT-4v,比专家还强

newsman 发表了文章 • 2023-12-25 18:03 • 来自相关话题

Google 的 Bard AI 机器人过去曾使用 LaMDA 系列的语言模型,后来改为 PaLM2,如今正式宣布推出自家的语言模型 Gemini,使用 TPU v4 和 v5e 芯片进行训练,强调多模、多样化的解析能力以及运行效率,甚至在多项测试中赢过 OpenAI 的 GPT-4 模型。Google 自家原生 AI 模型,多项测试赢过 GPT-4vGemini 是 Google 推出的「原生」AI 模型,可以处理包含代码、文本、声音、图片、影片这些不同形式的内容,而且因为 Google 的数据库中有着巨量的内容,是训练 Gemini 很棒的资源。Google 甚至表示 Gemini 可以直接「看懂」图片,而不是像过去使用 OCR 的方式扫描图片然后再辨识上面的文本这种方式来分析图片。在 Google 的影片中,拿了两张图片做比较,Gemini 可以回答右边图片中的汽车会跑的比较快,因为符合空气力学的关系,但你可以注意到,图片中并没有任何的文本,如果使用传统 OCR 解析图片的方式,就无法判断出这些内容。Google 展示的内容中,甚至还直接画了一只鸭子,而 Gemini 也可以很快地理解出用户话的内容是什么。Gemini 也能够解析代码、C++、Java 等常用编程语言,甚至是爬虫都可以,不只分析,也能够按照你要的需求、指定的语言生成代码。Gemini 的运行速度也相当快,在一个午休的时间就可以阅读完 20 万份的论文,并且从用户要求的关键字、条件去查找相关的数据,找出 250 份符合资格的论文以及我们要找的数据在哪里,并且整理成一份清单。如果拿来和 OpenAI 的 GPT-4v 和 Gemini 做比较,全部 32 项测试中,有 30 项测试是由 Gemini 胜过了 GPT-4v,而且在 MMLU 大规模多任务语言理解的测试中,包含了历史、法律、医学、数学….等 57 个科目中,Gemini 都有达到 90% 的水准,甚至超越了人类专家的表现。Gemini 也有适合手机使用的版本,Pixel 8 Pro 优先体验Gemini 共有 3 种不同大小的模型版本,分为 Ultra、Pro、Nano,其中的 Nano 版本最小,甚至可以直接安装到手机上使用,Google 也表示 Nano 版本就针对行动设备所打造的,旗下 Pixel 8 Pro 也会优先开放使用。其中最大型的 Gemini Ultra 也就是上面所说,在 32 项测试中赢过 GPT-4v 其中 30 项的大型版本,预计明年推出,但在此之前将会先提供给部分用户、开发者以及企业用户。而中型的 Pro 版本则是现在就可以使用,部分使用英文语系的用户在使用 Bard 的时候,就会自动用上 Gemini 模型,12/13  Google Cloud 的 Vertex AI、AI Studio 上也会释放出相关的 API。 查看全部

Google 的 Bard AI 机器人过去曾使用 LaMDA 系列的语言模型,后来改为 PaLM2,如今正式宣布推出自家的语言模型 Gemini,使用 TPU v4 和 v5e 芯片进行训练,强调多模、多样化的解析能力以及运行效率,甚至在多项测试中赢过 OpenAI 的 GPT-4 模型。

Google 自家原生 AI 模型,多项测试赢过 GPT-4v

Gemini 是 Google 推出的「原生」AI 模型,可以处理包含代码、文本、声音、图片、影片这些不同形式的内容,而且因为 Google 的数据库中有着巨量的内容,是训练 Gemini 很棒的资源。

Google 甚至表示 Gemini 可以直接「看懂」图片,而不是像过去使用 OCR 的方式扫描图片然后再辨识上面的文本这种方式来分析图片。

在 Google 的影片中,拿了两张图片做比较,Gemini 可以回答右边图片中的汽车会跑的比较快,因为符合空气力学的关系,但你可以注意到,图片中并没有任何的文本,如果使用传统 OCR 解析图片的方式,就无法判断出这些内容。

Google 展示的内容中,甚至还直接画了一只鸭子,而 Gemini 也可以很快地理解出用户话的内容是什么。

AI Google Gemini ChatGPT GPT-4 GPT-4v

Gemini 也能够解析代码、C++、Java 等常用编程语言,甚至是爬虫都可以,不只分析,也能够按照你要的需求、指定的语言生成代码。

Gemini 的运行速度也相当快,在一个午休的时间就可以阅读完 20 万份的论文,并且从用户要求的关键字、条件去查找相关的数据,找出 250 份符合资格的论文以及我们要找的数据在哪里,并且整理成一份清单。

如果拿来和 OpenAI 的 GPT-4v 和 Gemini 做比较,全部 32 项测试中,有 30 项测试是由 Gemini 胜过了 GPT-4v,而且在 MMLU 大规模多任务语言理解的测试中,包含了历史、法律、医学、数学….等 57 个科目中,Gemini 都有达到 90% 的水准,甚至超越了人类专家的表现。

Gemini 也有适合手机使用的版本,Pixel 8 Pro 优先体验

Gemini 共有 3 种不同大小的模型版本,分为 Ultra、Pro、Nano,其中的 Nano 版本最小,甚至可以直接安装到手机上使用,Google 也表示 Nano 版本就针对行动设备所打造的,旗下 Pixel 8 Pro 也会优先开放使用。

其中最大型的 Gemini Ultra 也就是上面所说,在 32 项测试中赢过 GPT-4v 其中 30 项的大型版本,预计明年推出,但在此之前将会先提供给部分用户、开发者以及企业用户。

而中型的 Pro 版本则是现在就可以使用,部分使用英文语系的用户在使用 Bard 的时候,就会自动用上 Gemini 模型,12/13  Google Cloud 的 Vertex AI、AI Studio 上也会释放出相关的 API。