AI快讯OpenAI草莓模型两周内发布OpenAI高管转投MetaLLM幻觉并非总是有害

🔧 Anthropic推出Workspaces功能,优化Claude管理
🔍 反思调优项目陷争议,开发者道歉并承诺透明调查
🍌 AI研究者香蕉推文走红,Karpathy提醒警惕
🔍 OpenPipeAI创始人: Reflection-70B模型性能无法复现
🔀 OpenAI前高管加盟Meta AI,将致力于Llama开发
🚀 SambaNova推出超快AI平台,运行大模型速度提升10倍
📜 110余顶级AI公司员工联名支持加州SB 1047法案
🌍 Google AI发布NeuralGCM: 大气模拟效率提升10万倍
🧠 牛津学者提出'超极化'概念解释AI创造力局限
✂️ Gradio推出Object Cutter: AI精准背景移除工具
🤖 Claude 3.5 Sonnet性能争议: 用户感知与实际情况的差异
🚀 Arcee AI发布SuperNova模型系列及开源工具
🔢 AI研究者探讨不可计算实数的随机选择问题
🎙️ Deepgram和Groq联办语音AI代理构建研讨会,聚焦20亿美元市场
🌐 互联网成熟度: LLM发展的关键前提
①👉Anthropic推出Workspaces功能,优化Claude管理
Anthropic宣布为其Console添加Workspaces功能,旨在简化Claude AI助手的多部署管理流程。
Workspaces为用户提供以下核心功能:
轻松管理多个Claude部署
设置自定义支出或速率限制
对API密钥进行分组
按项目追踪使用情况
通过用户角色控制访问权限
Anthropic发布了一段视频演示Workspaces的使用界面【见阅读原文】,展示了其直观的操作方式和功能布局。
更多详细信息可访问: https://anthropic.com/news/workspaces
②👉反思调优项目陷争议,开发者道歉并承诺透明调查
Matt Shumer和Sahil Chaudhary就近期宣布的反思调优项目引发的争议发表声明,承认项目存在问题并向社区道歉。
Matt Shumer表示,他过早宣布了这个项目,并为此感到抱歉。他承认基于当时掌握的信息做出了发布决定,现在有团队正在努力了解发生了什么,并将在查明真相后决定如何继续。
Sahil Chaudhary则详细阐述了两个正在调查的关键问题:
否认使用其他提供商的模型作为API服务,承诺将提供证据并解释为何出现了使用不同分词器或完全跳过「Claude」等词的现象。
承认此前与Matt分享的基准测试分数目前无法复现,正在调查原始分数是否准确或是由于污染/配置错误导致的结果。
两位开发者均表示,将进行全面的事后分析,并与社区分享调查结果,以提高透明度并重建信任。他们承认让社区失望,但仍然相信这种方法的潜力。
③👉AI研究者香蕉推文走红,Karpathy提醒警惕
一位机器学习研究者发布的赞美香蕉推文意外走红,引发了对社交媒体内容传播的思考。
该研究者在推文中详细列举了香蕉的多项优点,包括:
无需切割,方便食用
有益心脏健康
促进消化健康
提供能量
富含纤维
这条看似普通的推文获得了出乎意料的高度关注,远超过该研究者在机器学习领域的专业内容。
对此,知名AI研究者Andrej Karpathy做出了回应。Karpathy提醒道:「不要让这种现象对你产生强化学习人类反馈(RLHF)的效果,这种梯度(方向)不会带来好的结果。」
Karpathy的评论引发了对社交媒体算法和内容创作者行为的思考。在追求流量和关注的压力下,创作者可能会倾向于产出更多类似的病毒式内容,而非坚持自己的专业领域。
这一现象也反映了社交媒体算法在内容推荐和用户行为引导方面的强大影响力,以及由此带来的潜在问题。
④👉OpenPipeAI创始人:Reflection-70B模型性能无法复现
OpenPipeAI创始人Kyle Corbitt发布了对Reflection-70B模型的调查结果。该模型此前声称在多项基准测试中超越了Claude 3.5和GPT-4。
调查的主要发现包括:
即使使用原始代码,也无法复现最初声称的基准测试结果。模型表现与Llama 3.1相似。
尚未得到解释的是,社区中有强烈证据表明API端点可能封装了Claude模型。
经过调查,Corbitt认为可能从未存在过一个能达到声称基准的模型。
Corbitt表示,目前尚不清楚这些性能数据的来源,他希望模型开发者能够进一步解释这一情况的发生。
这一调查结果引发了对AI研究诚信和可复现性的关注。在快速发展的AI领域,准确报告研究结果和模型性能至关重要。
⑤👉OpenAI前高管加盟Meta AI,将致力于Llama开发
Arvind Neelakantan宣布加入Meta AI团队。他在过去4.5年在OpenAI工作期间,参与了多个重要项目的开发,包括embeddings、GPT-3和GPT-4、API以及ChatGPT。
Neelakantan表示,在OpenAI的工作经历是他职业生涯的亮点。现在,他将在Meta AI专注于下一代Llama模型的开发,并致力于为开发者生态系统和数十亿用户带来影响。
Meta AI官方账号对Neelakantan的加入表示欢迎,并期待他为开源AI生态系统带来积极影响。
Neelakantan还提到,他期待与Meta AI团队的多位成员合作,包括Manohar Paluri、Ahmad Al-Dahle和Edunov等。
这一人才流动显示了大型科技公司在AI领域的激烈竞争,以及他们对开源AI模型开发的持续投入。
⑥👉SambaNova推出超快AI平台,运行大模型速度提升10倍
SambaNova Systems宣布推出全球最快的AI平台SambaNova Cloud,该平台在运行大型语言模型方面展现出惊人的性能。
具体性能数据如下:
Llama 3.1 405B模型:每秒处理132个token,全精度运行
Llama 3.1 70B模型:每秒处理570个token
整体推理速度比GPU快10倍
SambaNova表示,开发者现在可以通过他们的云平台开始使用这一「快速AI」技术。

SambaNova还发布了一段视频演示【见阅读原文】,展示了其平台的运行效果。
该公司邀请开发者通过cloud.sambanova.ai开始体验这一高性能AI平台。
⑦👉110余顶级AI公司员工联名支持加州SB 1047法案
110多名顶级AI公司的员工和校友发表公开信,支持被称为"世界最具争议AI法案"的加州SB 1047法案。其中包括30多名正在反对该法案的公司的现任员工。
该法案目前正由加州州长纽森审议,他需要在9月30日前决定是否签署。公开信于今日早些时候发布,是这场围绕SB 1047法案的历史性争议中最新的戏剧性发展。

公开信由多位在AI前沿技术领域工作的知名人士签署,包括Jan Leike和Chelsea Finn等。信中警告了近期AI模型可能带来的风险,并认为要求前沿AI开发商采取合理措施防范这些风险是"可行且适当的"。

反对者曾声称SB 1047法案未得到专家支持,但这封公开信的发布似乎反驳了这一说法。信中指出:
「作为在AI领域工作的专业人士,我们认为SB 1047法案是朝着正确方向迈出的重要一步。该法案要求AI公司采取合理措施来防范可能对个人或社会造成重大伤害的AI系统风险。」
完整的公开信内容可在https://calltolead.org/网站上查看。

⑧👉Google AI发布NeuralGCM:大气模拟效率提升10万倍
Google AI推出了一种突破性的混合AI模型NeuralGCM,该模型在模拟地球大气方面取得了显著突破。
与目前最先进的X-SHiELD模型相比,NeuralGCM在计算效率上实现了惊人的提升。传统模拟一年的地球大气需要耗费大量时间和计算资源,而NeuralGCM的计算效率提高了 10万倍 。
这一创新技术为气候研究和天气预报等领域带来了新的可能性。NeuralGCM的高效性使得长期和大规模的大气模拟变得更加可行,有望加速相关科学研究的进展。
Google AI发布了一段视频 【见阅读原文】 ,展示了NeuralGCM模型的工作原理和优势。
有关NeuralGCM的详细信息,可以访问Google AI提供的链接:https://goo.gle/4egSGK2
⑨👉牛津学者提出'超极化'概念解释AI创造力局限

牛津大学高级研究员Toby Ord发布了一篇新论文,提出了「超极化」(hyperpolation)的概念,用于解释当前生成式AI系统在创造性任务中的局限性。
Ord指出,现有AI系统擅长在训练数据之间进行插值,甚至可以在已知方向上进行外推。然而,它们似乎无法突破训练数据所在的子空间,难以在绘画、诗歌、音乐或思想领域找到超越前人的新位置。
「超极化」是一种从有限数据点集合中进行泛化的方法,与插值和外推并列。插值关注已知例子之间的内容,外推探讨超出已知范围的内容,而超极化则探索无法用现有例子定义的方向。
Ord通过多个例子说明了超极化的概念:
在二维平面上,所有已知数据点位于同一直线上,超极化则探索该直线之外的区域。
给定一条曲线,推测它可能是某个二维曲面的切片。
从单帧图像预测未来的画面变化。
论文还讨论了超极化与创造力、AI和进化的关系。Ord认为,超极化能力是创造力的关键组成部分,也可能是当前AI系统在创造性任务中面临挑战的原因之一。
论文题为「Interpolation, Extrapolation, Hyperpolation: Generalising into new dimensions」,可在arXiv上获取:https://arxiv.org/pdf/2409.05513

⑩👉Gradio推出Object Cutter:AI精准背景移除工具
Gradio推出了一款名为Object Cutter的新工具,该工具能够为图像中的任何物体创建高质量的HD背景移除效果。
Object Cutter的主要特点是可以通过文本提示或边界框来识别并分割图像中的目标对象。这种灵活的输入方式使得用户能够精确地指定需要处理的物体,从而实现更准确的背景移除。
该工具由Refiners提供技术支持,目前已在Hugging Face平台上发布。用户可以通过以下链接访问并体验Object Cutter的在线演示:
https://huggingface.co/spaces/finegrain/finegrain-object-cutter
Object Cutter的发布展示了AI在图像处理领域的最新进展,为设计师、摄影师和普通用户提供了一个强大而便捷的背景移除解决方案。
⑪👉Claude 3.5 Sonnet性能争议:用户感知与实际情况的差异
Claude 3.5 Sonnet模型的性能近期引发了一些争议。有用户抱怨该模型比发布时表现更差,但实际情况可能并非如此。
据了解,Anthropic团队多次表示他们并未更改生产环境中的模型。这种感知上的差异可能源于用户期望的无意识提高。
一些用户在使用同一模型数周或数月后会感到厌倦,开始认为公司正在破坏模型性能。他们的期望在某种程度上以不自觉的方式上升,导致主观感受与实际情况产生偏差。
值得注意的是,尽管存在这些争议,Claude模型的表现仍然受到认可。对此现象进行评论的人士表示,Claude的性能依然出色,Anthropic团队值得称赞。
这一事件反映出AI模型用户体验的复杂性,以及用户期望管理在AI产品开发中的重要性。
⑫👉Arcee AI发布SuperNova模型系列及开源工具
Arcee AI公司今日宣布发布多项新产品和开源工具,包括Llama-3.1-SuperNova模型、EvolKit pipeline、Llama-3.1-SuperNova-Lite模型和一个指令跟随数据集。
Llama-3.1-SuperNova是一个基于Llama-3.1-70B-Instruct模型,通过离线蒸馏Llama-3.1-405B-Instruct而来的新模型。该模型在指令跟随和数学方面表现出色,可在supernova.arcee.ai网站上体验。

EvolKit pipeline是一个受WizardLM AutoEvol论文启发的强大工具,用于创建复杂数据集。该工具现已在GitHub上开源,采用MIT许可证。
Llama-3.1-SuperNova-Lite是SuperNova的8B变体,采用类似于全尺寸SuperNova模型的方法训练而成。该模型在指令跟随方面表现出色,已在Hugging Face上发布。

此外,Arcee AI还发布了一个由EvolKit生成的20k子集数据集,这是一个强大的指令跟随数据集,可用于教导模型遵循提示。
Arcee AI的Lucas Atkins表示,这些成果是公司多个研究项目汇聚的结果,并对团队成员和Meta AI发布的Llama-3.1系列模型表示感谢。
⑬👉AI研究者探讨不可计算实数的随机选择问题
Ryan Moulton和Dan Roy等AI研究者就随机选择不可计算实数的概率问题展开了讨论。
Moulton提出反驳观点,认为无法随机选择不可计算数,因此随机选择一个不可计算数的概率为零。他表示,只有当有人能够完成选择过程并展示一个不可计算实数时,才会相信这一说法。
Moulton还质疑不可计算实数的存在性,要求有人能够展示一个实例。他通过一张图片进一步阐述了自己的观点。

Dan Roy则提出了不同看法。他指出,如果能获得真正的随机比特,那么理论上是可以随机选择不可计算实数的。Roy认为问题的关键在于是否存在无限供应的随机比特。他倾向于从博弈论的角度来理解概率的基础,并质疑单个随机比特的存在性。
这场讨论反映了AI和计算理论领域对于不可计算性和随机性的深入探讨,涉及了数学基础、计算理论和概率论等多个方面。
⑭👉Deepgram和Groq联办语音AI代理构建研讨会,聚焦20亿美元市场
Deepgram和Groq将于9月20日联合举办一场在线研讨会,旨在教授开发者如何构建具有语音功能的端到端AI代理。此次活动凸显了语音技术在AI领域的重要性,预计到2030年,语音技术市场规模将突破200亿美元。
研讨会的主要内容包括:
如何处理对话中的中断
如何预测语音结束以改善对话质量
如何通过流水线并行化优化性能
如何降低延迟以实现实时响应
Santiago在推文中提到,许多用户仍在为ChatGPT支付20美元费用,主要是因为其承诺的语音功能。他强调,对于那些尝试过语音界面的人来说,语音技术的重要性不言而喻。
Santiago还特别推荐了Deepgram,称其为语音技术领域最佳供应商之一。研讨会使用优惠码"SVP"可享受20%的折扣。
感兴趣的开发者可通过以下链接报名参加:https://dpgr.am/aiagentwrkshp
⑮👉互联网成熟度:LLM发展的关键前提
Ethan Mollick指出,一个成熟且去中心化的互联网是大型语言模型(LLM)发展的重要前提条件。
过去几十年,人类集体努力将文字数字化的过程为LLM奠定了基础。这一过程包括诸如谷歌图书扫描项目等重大数字化工程,以及互联网用户日常创造的海量在线内容。
这一观点突显了互联网发展与AI技术进步之间的密切关系,也强调了数据积累对于推动AI创新的重要性。
👇
👇
👇
受篇幅限制,下述 35条 快讯可点击 阅读原文 查看详情。
🤖 Hugging Face Hub 新增高效 LLM 推理引擎 vLLM
🤖 LangChain推出免费AI代理开发课程
👁️ 视觉语言模型OCR能力评测: Qwen2-vl-7b表现最佳
🤖 Neural MP: AI驱动的通用机器人运动规划系统
🛠️ FastHTML: 快速红队测试LLM的新应用
🏎️ AI研究者提出5万美元GPT-2训练速度竞赛构想
📊 技术博主学术影响力惊人,h指数达59
🤖 AI专家分享前沿技术在多领域的应用
🤖 Klarna 用 AI 开发的技术栈取代 Salesforce 和 Workday
🤖 Outlines和FastHTML联手生成无限假证言页面
🔬 PyTorch年会聚焦ML系统与编译器进展
🤖 AI研究者: 一个bug可能是突破性训练方法
🩻 MIT开发ScribblePrompt: AI助力快速标注医学图像
🧮 探讨Kolmogorov复杂度与信息熵的关系
🤖 Eric Jang长视频访谈: 探讨AI机器人研究
🤖 AI专家: LLM幻觉并非总是有害
🚀 NVIDIA AI赋能全球企业提升效率
🤖 LLM模型性能接近尽管训练不同
📉 凸函数优化: 梯度下降的有效性探讨
🚀 Mervin Praison 分享无服务器 RAG 应用开发技术栈
🧠 AI研究者Dan Roy分享教学心得: 少准备促进逻辑思维
🍓 OpenAI新模型'Strawberry'或将两周内发布
🤖 Cohere亮相Oracle CloudWorld展示企业AI解决方案
🤫 GleanAI推出'无声对话'功能: 理解非语言交流
🦙 LlamaIndex创始人深度解析Agentic RAG技术
🚀 dstack助力Google Cloud TPU上的LLM微调与部署
🎙️ Cohere For AI举办高效AI模型讨论会
🚀 Hugging Face推出TEI: 在Google Cloud上快速部署文本嵌入模型
🐯 UWaterloo TIGER-lab发布LLM能力提升研究成果
⚡ 1比特全量化训练技术突破: 训练速度提升5倍
🗣️ Mila研究所举办生成式AI与NLP研讨会
🏆 新奖励模型登顶RewardBench,研究者呼吁多框架支持
🤖 Weights & Biases 邀请参加 ML 建模系统记录在线活动
🏅 Berkeley AI教授获马克斯·普朗克-洪堡奖章
🇲🇽 拉丁美洲AI社区聚会将在墨西哥城举行
版权声明:
作者:shadowrocket
链接:https://www.shadowrocket8.top/188.html
来源:Shadowrocket官网
文章版权归作者所有,未经允许请勿转载。


共有 0 条评论