URL
type
status
date
slug
summary
tags
category
icon
password
AIDaily 047/100
每天都能接收到无数条与AI、科技、艺术、经济相关的信息。
但是感觉自己就像那只掰玉米的熊,掰了一路,最后出来发现只剩下手里的两根玉米🌽。
今年希望能够以Newsletter的形式,给自己掰下来的玉米们找个背篓。
人们会被自己热爱的事物改变,而没有人因为给予而贫穷。
Vol.047
by Rocket
探索·AI产品
📢 GPTs 向所有用户开放
OpenAI 宣布,GPTs(生成式预训练模型)现在向所有用户开放,这意味着更多的人可以体验和利用这些先进的 AI 技术。
这一决定是 OpenAI 致力于让 AI 技术更加普及和可访问的一部分。随着 GPTs 的开放,用户可以期待以下几点:
- 更广泛的应用:GPTs 的开放使得各种规模的企业和个人都能够利用这些模型来增强他们的产品、服务和创意工作。
- 创新的机遇:开发者和创业者现在有机会探索新的应用场景,推动创新。
- 学习和实验:研究人员和学生可以利用这些模型进行学习和实验,进一步推动 AI 领域的知识发展。
- 社区的增长:随着更多用户的加入,围绕 GPTs 的社区和生态系统将会得到扩展,促进知识共享和协作。
OpenAI 通过这一举措,不仅为用户带来了便利,也为整个 AI 社区的发展和进步提供了动力。随着技术的不断进步和应用的不断扩展,我们可以期待 GPTs 在未来的潜力和可能性。
💻 谷歌为 Chromebook Plus 笔记本电脑注入 AI 功能
谷歌推出了一系列新的 AI 功能,旨在提升其 Chromebook Plus 笔记本电脑的生产力、创造力和协作能力。
关键点:
- Gemini 助手集成:谷歌的 Gemini 助手直接集成到 Chromebook Plus 主屏幕,方便用户快速访问 AI 工具。
- "帮我写"功能:该功能为所有文本输入字段提供 AI 支持,包括建议、更改语气和重写文本。
- Google 相册魔术编辑器:提供先进的 AI 驱动图像编辑功能,直接在 Chromebook Plus 上使用。
- AI 壁纸和视频通话背景:提供新的自定义选项,增强用户体验。
重要性:
- AI 普及:谷歌的预算友好型笔记本电脑在 AI 功能上并未落后,预示着未来计算机将普遍具备高级 AI 功能,不受价格限制。
谷歌的这一举措显示了 AI 技术正迅速普及到各种价位的设备中,使得更多用户能够享受到 AI 带来的便利和创新体验。通过将 AI 功能集成到 Chromebook Plus,谷歌不仅提升了产品的吸引力,也为用户带来了实质性的效率提升和个性化选项。
探索·AI大模型
🚀 Mistral 推出首个以代码为中心的模型:Codestral
法国人工智能初创公司 Mistral 刚刚发布了 Codestral,这是该公司首个专注于软件开发的代码模型,它在多个主要基准测试中优于其他编码特定竞争对手。
关键点:
- 参数规模:Codestral 是一个 22 亿参数的开放权重模型,专门用于编码任务。
- 多语言支持:该模型接受过超过 80 种不同编程语言的训练。
- 性能优势:在 HumanEval 和 RepoBench 等顶级基准测试中,Codestral 击败了如 CodeLlama 70B 和 Deepseek Coder 33B 等以代码为中心的竞争对手。
- 可用性:该模型可在 Hugging Face 和 Mistral 的 Le Chat 平台上以非商业许可使用。
重要性:
- 行业影响:人工智能已经彻底改变了程序员的工作流程,Codestral 这样令人印象深刻的开放版本将进一步推动这一变革。
- 技术普及:Codestral 的推出将使更多的开发者和团队能够使用先进的 AI 工具,提高开发效率和质量。
- 竞争地位:Codestral 的成功发布增强了 Mistral 在全球 AI 领域的竞争力,展示了该公司与世界顶级 AI 公司竞争的实力。
Codestral 的推出不仅是 Mistral 的一个重要里程碑,也是整个软件开发领域技术进步的一个标志。随着 AI 技术的不断成熟和应用,我们期待看到更多创新工具的出现,为软件开发带来更多的可能性。
🚀 LMSYS 发布谷歌 Gemini 1.5 模型最新性能排名
LMSYS 发布了谷歌最新 Gemini 1.5 模型的性能测试结果,其中 Pro/Advanced 版本在排行榜上排名第二,仅次于 GPT-4o,而 Flash 版本则紧随 GPT-4。
这一结果表明,谷歌的 Gemini 1.5 模型在性能上取得了显著进步,特别是在 Pro/Advanced 和 Flash 两个版本上,它们在各种基准测试中的表现已经接近或超过了现有的领先模型。
Gemini 1.5 Pro/Advanced 版本以其强大的性能,为需要处理复杂任务和高负载应用的用户提供了一个可靠的选择。而 Gemini 1.5 Flash 版本则以其快速响应和高效运行,适合对速度有更高要求的场景。
谷歌在 AI 领域的持续创新和进步,通过 Gemini 1.5 模型的性能提升,进一步巩固了其在行业内的竞争力。这些模型的优异表现,也预示着未来 AI 技术将在更多领域发挥关键作用,推动各行各业的数字化转型和智能化升级。
探索·AI大事件
🔧 苹果计划为 Siri 进行重大 AI 更新,允许用户通过语音控制应用功能
据彭博社周四报道,苹果正计划对其虚拟助手 Siri 进行重大更新,该更新将使用户能够通过语音控制 iPhone 上特定应用的功能。据报道,经过彻底改造的 Siri 将在明年推出。
这次更新将标志着 Siri 自 2011 年推出以来的最大变化之一,旨在提高其在智能助手领域的竞争力,并响应用户对更个性化和控制力的需求。通过语音控制应用功能,Siri 将能够执行更复杂的任务,提供更丰富的用户体验。
苹果一直在努力改进 Siri 的性能和功能,以保持其在 AI 助手市场的领先地位。这次更新可能包括更先进的自然语言处理能力、更好的上下文理解以及与第三方应用和服务的更深入集成。
此外,更新后的 Siri 还可能带来更强大的个性化设置,使用户能够根据自己的偏好定制 Siri 的行为。这将使 Siri 成为一个更智能、更有用的个人助手,能够更好地满足用户的个性化需求。
苹果对 Siri 的这次重大更新,反映了公司对人工智能技术的持续投入和创新,以及对提升用户体验的承诺。随着 Siri 的不断进步,我们可以期待它在未来成为更加强大和多才多艺的智能助手。
🚀 OpenAI 开始训练 GPT-4 继任者并成立安全保障委员会
OpenAI 网站上的一篇博客文章透露,该公司已经开始训练备受期待的 GPT-4 继任者,这将是其在通往通用人工智能(AGI)道路上的新能力水平。
关键点:
- 新模型训练:尽管新模型(可能命名为 GPT-5)还有很长的路要走,但预计将经过数月的训练和微调。
- 性能提升:与最近发布的 GPT-4o 相比,下一代模型有望获得巨大的性能提升。
- 多步骤问题解决:分析人士认为新模型将能够思考多步骤问题,甚至做出影响现实世界的决策。
- 安全保障委员会:新成立的委员会将花费 90 天审查 OpenAI 的安全和安保漏洞,并向董事会及公众报告其建议。
- 委员会组成:委员会由 OpenAI 高管组成,包括 Sam Altman,这引发了一些怀疑论者的担忧。
- 独立监管需求:批评者认为,应该由独立的监管机构来确保 OpenAI 将安全放在首位。
- 安全团队变动:OpenAI 本月早些时候解散了其“超级对齐”团队,引发了安全标准的担忧。前团队联合负责人 Jan Leike 加入竞争对手 Anthropic。
OpenAI 的这些举措显示了其在推进 AI 技术发展的同时,也在积极构建安全保障措施。然而,如何平衡技术创新与安全保障,确保 AI 技术的健康发展,仍是业界需要深入探讨的问题。
🌟 OpenAI 开始训练下一代 AI 模型并成立安全委员会
OpenAI 宣布成立了一个新的安全和安保委员会,以监督其下一代前沿 AI 模型的开发,该公司还透露最近已经开始了这一训练工作。
详情:
- 委员会领导:新委员会由首席执行官 Sam Altman 领导,董事会成员 Bret Taylor、Adam D'Angelo 和 Nicole Seligman 参与。
- 评估与公开:该小组将在未来 90 天内评估安全和安保流程,并计划公开分享采纳的建议。
- 新模型能力:OpenAI 表示新模型将“在通往 AGI 的道路上将我们的能力提升到一个新的水平”。
重要性:
- 信任问题:由于新的安全小组完全由 Altman 的支持者组成,这可能不会让那些对 OpenAI 目前领导层持怀疑态度的人感到安心。
- 谣言与猜测:关于新模型的含糊评论可能会引发各种猜测,许多人可能会将其解读为 GPT-5 即将发布,且下一代系统已经在训练中。
这一消息可能会在 AI 社区和业界引起广泛的关注和讨论,特别是在 OpenAI 最近面临安全和伦理方面的争议背景下。同时,这也表明 OpenAI 正在积极推进其 AI 技术的发展,并致力于提高其安全性和透明度。
🤝 前 OpenAI 安全高管 Jan Leike 加入竞争对手 Anthropic
前 OpenAI 高管兼 AI 安全负责人 Jan Leike 宣布他将加入竞争对手 Anthropic,领导一支新的专注于安全和安保的超级对齐团队。
详情:
- 辞职与团队解散:Leike 于 5 月中旬与 Ilya Sutskever 一同从 OpenAI 辞职,随后 OpenAI 解散了超对齐安全团队。
- 新团队焦点:Leike 透露,在 Anthropic,他的新团队将专注于“可扩展的监督、从弱到强的泛化和自动对齐研究”。
- 对 OpenAI 的批评:Leike 此前曾表示 OpenAI 的安全文化已经让位于“闪亮产品”。
重要性:
- 迅速找到新职位:Leike 很快在 OpenAI 的主要竞争对手之一找到了新的 AI 安全职位。
- 增强 Anthropic 信誉:这一举动增强了 Anthropic 作为更注重安全开发的公司的信誉。
- 吸引更多安全专家:Leike 的加入可能会吸引其他主要的 AI 安全专家加入 Anthropic,特别是那些可能对 OpenAI 的安全文化持怀疑态度的人士。
Leike 的这一举动不仅反映了他对 OpenAI 当前安全文化的看法,也可能预示着 AI 安全领域的人才流动和竞争态势的变化。随着 AI 技术的快速发展,安全和伦理问题越来越受到重视,Leike 在 Anthropic 的新角色可能会对行业产生重要影响。
探索·AI开源