今日主角:Mistral Large 模型以及如何尝鲜 | AI 快讯20240228

今日主角:Mistral Large 模型以及如何尝鲜  | AI 快讯20240228
- Mistral AI发布最新旗舰语言模型Mistral Large
- 如何免费尝鲜 Mistral Large
- 微软与Mistral建立多年合作伙伴关系
- 我们是否都应该在大脑中植入芯片

Mistral AI发布最新旗舰语言模型Mistral Large

原文链接:Mistral Large

Mistral AI最近发布了其最新且最先进的语言模型Mistral Large,这是一款具备顶尖推理能力的旗舰模型,通过la Plateforme提供,也是首个通过Azure分发的模型。

Mistral Large在多语言推理任务上展现出卓越性能,包括文本理解、转换和代码生成,使其成为继GPT-4后,通过API通用可用的世界第二大模型。该模型天生流利于英语、法语、西班牙语、德语和意大利语,能够精确回忆大型文档中的信息,且具备精确的指令遵循能力。

与Microsoft Azure的合作,进一步扩展了Mistral Large的应用范围,包括应用开发和技术栈现代化。此外,Mistral AI还推出了针对低延迟工作负载优化的Mistral Small模型,提供性能与成本的优化选择。Mistral Large的推出,为AI领域带来了新的可能性和应用前景。

如何免费尝鲜 Mistral Large

号称仅次于 GPT-4 的大模型,支持高级推理、函数调用、JSON 模式等,Mistral Large 一发布自然就吸引了众多的眼光,而且,Mistral AI 来自欧洲,它是一家法国人工智能初创公司,由来自Google的DeepMind和Meta Platforms Inc.的前研究人员创立。

虽然 Mistral AI 支持语言列表中没有中文,但是他实际上是认识中文的。如果想尝鲜 Mistral Large,有以下几种办法:

官网对话界面 LeChat

Au Large
Mistral Large is our flagship model, with top-tier reasoning capacities. It is also available on Azure.

点击以上链接进入官网,点击右上角 LeChat 按钮或者直接通过网址 https://chat.mistral.ai/ 即可进入。虽然注册过程显示是加入等待列表,但是会很快。我昨天注册,今天再上来看就可以用了。

通过 Poe 使用

Poe - Explore
Poe lets you ask questions, get instant answers, and have back-and-forth conversations with AI. Gives access to GPT-4, gpt-3.5-turbo, Claude from Anthropic, and a variety of other bots.

Poe 集成模型的动作向来都很快,进入之后在 Bot 列表中选择 Mistral-Large 就可以了。

本期「AI 快讯」由 Axton 与 AI 自动化 和 GPTs 共同协作完成。想要使用 AI 提升效率👇
❣️
掌握「AI 提示工程」与「AI 自动化」,就掌握了 AI 未来的两大核心能力!点击加入 Axton 的『 AI 精英学院』,请别再错过这次 AI 浪潮!

微软与Mistral建立多年合作伙伴关系

原文链接:Microsoft partners with Mistral in second AI deal beyond OpenAI

微软宣布与法国AI初创公司Mistral建立多年合作伙伴关系,Mistral估值达到20亿欧元(约21亿美元)。这标志着微软继与OpenAI的超过100亿美元投资后,再次在AI领域进行重大投资。合作将看到Mistral的开放和商业语言模型被集成到微软的Azure AI平台上,Mistral成为继OpenAI之后第二个在Azure上提供商业语言模型的公司。

Mistral发布了新的AI模型Mistral Large,旨在与OpenAI的GPT-4模型竞争,该模型将不会开源。此外,Mistral还推出了基于其AI模型的新聊天机器人Le Chat。与微软的合作为Mistral打开了探索更多商业机会的大门。尽管微软与OpenAI的合作中微软获得了非投票观察员席位,但在OpenAI的董事会中没有投票权。此次投资发生在OpenAI经历内部动荡几个月后,展示了微软在AI领域的持续投资和扩张策略。

我们是否都应该在大脑中植入芯片?

原文链接:The big idea: should we all be putting chips in our brains?

Elon Musk的Neuralink公司引领了脑-机接口(BMI)技术的新纪元,该技术通过在大脑中植入探针,不仅可以监测大脑活动,还能通过电刺激改变思考、感受和行为。这项技术在医学上的应用前景广阔,例如为瘫痪患者恢复运动能力、帮助盲人重见光明等。

然而,随着技术发展,其在认知增强方面的应用引发了伦理和社会问题的深思,包括技术的可行性、可能加剧的社会不平等、算法偏见以及对个人隐私的威胁。文章强调,虽然BMI技术的医疗应用相对明确,但其在非医疗领域的应用需要谨慎考虑伦理和社会影响,特别是在追求科技进步时不应忽视这些潜在问题。


✨ 资源分享

好用GPTs

我的自用 GPTs 分享 → https://www.axtonliu.com/the-world-best-gpt-gpts/

好用工具推荐:

免费 Notion 账号 → https://affiliate.notion.so/axton
Notion AI → https://affiliate.notion.so/axtonliuai
超好用的自动化工具 Make → https://www.make.com/en/register?pc=axton
YouTube 频道必备工具:TubeBuddy → https://www.tubebuddy.com/axton
高性价比图片视频素材库:Envato → https://1.envato.market/axton

是的,以上是联盟链接,你通过这些连接注册或购买这些工具不会多花一分钱,但是我能得到一点微弱的好处,感谢对我创作的支持。

感谢阅读!如果你喜欢这次分享的内容,请点个👍(或者点个👎)让我知道,同时请分享给你的一个朋友。也欢迎你去我的YouTube频道 『 回到Axton 』看我的视频内容,咱们一起好奇地看世界!

保持健康,保持快乐!

Axton

Twitter | YouTube | Newsletter | AI精英学院

Read more

AI 智能体工作流:用 Dify 打造本地、开源长文翻译神器

AI 智能体工作流:用 Dify 打造本地、开源长文翻译神器

今天我们来完成一个既有挑战性又有启发性的任务:我们来使用开源的 AI 开发平台 Dify 创建一个高质量的 AI 翻译助手。同时我们可以学习一种可以应用于不同平台的通用的方法。 虽然现在的 AI 翻译比传统的机器翻译提升了很多,但是依然不够令人满意。这就是为什么我们今天要学习一种新的方法来提升翻译的质量。这种方法就是 AI 界大神吴恩达老师最新开源的反思工作流。简单来说它就是一种让 AI 对自己的输出结果进行思考并进一步改进的方法。 反思工作流它的具体步骤实际上就是三步法:先让一个 AI 进行初始翻译打一个草稿,然后再让第二个 AI 去挑毛病,然后再让第三个 AI 对草稿进行最终的优化,形成最后的翻译结果。这就相当于是一个团队作业,三个臭皮匠胜过诸葛亮。这个过程不仅能够提高翻译的准确性,还可以让翻译更加符合目标语言的表达习惯。 在上期智图派,Coze 复刻吴恩达开源 AI 翻译神器 | 「智图派」 当中我使用 Coze 平台来实现过这个翻译的工作流,今天我们将使用另外一个 AI 开发平台 Dify 来再次实现这个工作流。我们可以通过这次实例来学习到如何把同一套思想同一套工作流在不

lock-1 By Axton
Coze 复刻吴恩达开源 AI 翻译神器 | 「智图派」

Coze 复刻吴恩达开源 AI 翻译神器 | 「智图派」

AI 最大的应用场景之一,就是翻译。虽然说现在的 AI 翻译比以前的机器翻译好了很多,但是常常还是不够完美。不过现在呢,有一种超强的方法可以显著提升 AI 翻译的水准,这就是 AI 界大神,吴恩达 Andrew Ng 教授最新开源的「反思工作流」 它利用prompt engineering,让AI不仅能翻译,还能"思考"如何改进翻译!这意味着,无论你要翻译的文档有多专业、多复杂,都能得到一个高度定制化的优质翻译。我们可以先看一下翻译效果。 吴恩达老师的反思翻译核心思路 吴恩达老师的翻译工作流可以归纳为两个核心要点: 第一,采用"初始翻译-反思-优化"的三步迭代流程,不断改进翻译质量。首先使用一个 AI 进行初始的翻译,然后让另一个 AI 对初始的翻译结果进行思考和评判,找出可以改进的地方,最后,由第三个

lock-1 By Axton
Jina Reader API 的四种用法 | 「智图派」

Jina Reader API 的四种用法 | 「智图派」

构建知识库,或者分析各种文章数据,是大家使用 AI 很重要的一个应用场景,因此我们常常会需要用到爬虫去爬取某个网站上的内容,现在,Jina 推出了一款非常简单好用的获取网页内容的工具,你只要把网址给它,它就能把网页内容整理成很适合大语言模型使用的格式,简直是构建知识库的利器。今天我就给大家介绍四种用法。分别包括在自动化工作流中使用以及在 AI 智能体中使用。 Jina Reader API 的网址是 读取器 API,你可以直接输入你需要爬取内容的网址 URL 在这边进行测试,输入之后直接点击按钮「获取内容」,就可以在右边得到结果了。 而他的用法也很简单,就是把你需要爬取内容的网页的 URL 写在 https://r.jina.ai 的后面就可以了。 什么是 Reader API Reader 是将任何URL转换为LLM友好的输入,只需简单添加前缀 https://r.jina.ai/ 无需付费即可获得改进后的适用于智能体或 RAG 系统的输出。

lock-1 By Axton
Coze 工作流获取 Tweets 详解 | 「智图派」

Coze 工作流获取 Tweets 详解 | 「智图派」

Coze是一个可以不用代码来搭建AI聊天机器人的平台。我在这期视频当中已经详细地讲解了Coze的各种功能,以及如何用到GPT-4 Turbo的模型。感兴趣的朋友可以回看一下。 自从 Twitter 被马斯克买了之后,如果你想从 Twitter 网站的外面来获取推文信息,也就是用 Twitter API,就需要每个月充值100美元了。但是 Coze 却很大方地让你可以免费地用部分 Twitter API 的功能了。今天我就先给大家演示一个可以批量获取多个 Twitter 作者的推文的工作流,把这个工作流嵌入到你的 AI 聊天机器人里面。比如我这里加了两个 Twitter 账号,我的和马斯克的,这样就可以一次性地获取到我们两个人的推文了。 今天我首先给大家演示一下在 Coze 上可以用到的 Twitter API 的功能,然后再演示一下批量获取推文的工作流,最后我们再聊一聊 Coze 的局限性。 Plugins 的基本功能 getUsers 首先第一个 "get users"

lock-1 By Axton