2023 年,阿里妈妈首次提出了 AIGB(AI-Generated Bidding)Bidding 模型训练新范式(参阅:阿里妈妈生成式出价模型(AIGB)详解)。
Auto Byte
专注未来出行及智能汽车科技
微信扫一扫获取更多资讯
Science AI
关注人工智能与其他前沿技术、基础学科的交叉研究与融合发展
微信扫一扫获取更多资讯
Week 48 · Ilya 「Scaling What」的答案会是程序性知识吗?
11.29本周,艾伦研究院 「完全开源」TÜLU 3 模型及后训练详情;亚马逊向 Anthropic 追加投资 40 亿美元。
Week 47 · RL「误人」?LeCun 在技术路线上又有何战略摇摆?
11.22本周, NEO 推出可自主学习的 AI 工程师,Kaggle 表现优于 o1;月之暗面推出 k0-math 推理模型以及 Kimi 探索版功能。
Week 46 · AI 竞赛进入推理阶段:扩展测试时间计算是万能的吗?Scaling What 成为关键
11.16本周,外媒曝 OpenAI 调整技术策略引热议;MIT 和哈佛分别发文探讨 Scaling Law 局限与改进机会。
Week 45 · 「压缩即智能」,成就 LLM 的 Transformer 未必是终极解?
11.08本周,零一万物宣布战略转向 toB 市场;知乎、昆仑万维、夸克均推出AI搜索功能。
Week 44 · 从文本到屏幕:「Project Jarvis」们能实现 AGI 吗?
11.01本周,OpenAI 推出 ChatGPT Search;MIT 新作发现 LLM 可能具有类似人脑的分层结构。
Week 43 · 微调失格?持续反向传播算法将解锁新的训练范式吗?
10.25本周,Yoshua Bengio 团队提出强化学习新策略;Anthropic 升级版 Claude 3.5 Sonnet 解锁「计算机使用」能力。
Ilya 「Scaling What」的答案会是程序性知识吗?
11.29在 AI 领域中,「Scaling Law是否撞墙」是当下的热议话题。其中, Ilya Sutskever 在最近的访谈中表示「Scaling the right thing matters more now than ever。」在这一趋势下,有许多工作开始探究推理推理层的 Scaling Law。但 UCL 和 Cohere 的新作发现,影响模型推理能力的「thing」也可能是预训练中的程序性知识。
「瞄准」o1 模型:国内大模型厂商们的技术思路有何不同?
11.29近期,国内多家大厂、AI 创企纷纷发布类 o1 推理模型,部分模型称效果大幅超越 OpenAI 的 o1-preview 等。各家的推理模型在技术思路有何异同?模型实测效果如何?
吴恩达主题演讲:AI 作为通用目的技术正在重塑各个领域
11.29斯坦福大学教授、Landing AI 创始人吴恩达近期在 BUILD 2024 上发表了主题演讲,分享了关于其对于人工智能领域未来趋势的看法,以及再次强调了智能体工作流(Agentic Workflow )的重要性。
RL「误人」?LeCun 在技术路线上又有何战略摇摆?
11.22Andrey Karpathy 近日有关「悔做 RL」的言论引起许多关注,而他在后悔的同时对 Yann LeCun 从一开始就不看好强化学习的态度始终正确的说法引发了 AI 社区对另一件事的兴趣,即「LeCun 的 AI 战略是否出现过摇摆?」
Sora 发布大半年后,主流视频生成模型们是否已实现超越?
11.22在 Sora 发布后的近 9 个月时间里,MiniMax-Video-01、Kling 1.5 等视频生成模型陆续发布,不少表示已经达到了 Sora 级别。
2025 IT 优先事项报告:在产线中集成 AI 是保持竞争力的关键
11.22近日,软件资产管理公司 Flexera 发布《2025 IT 优先事项报告》(以下简称为「报告」)。该报告对来自美国、英国等地区 800 名 IT 领导者进行了调查,重点关注 IT 决策者如何制定 2025 年的优先事项。
2023 年,阿里妈妈首次提出了 AIGB(AI-Generated Bidding)Bidding 模型训练新范式(参阅:阿里妈妈生成式出价模型(AIGB)详解)。
亚马逊云科技上演了一场生成式 AI 能力的「王者归来」。
几个小时前,著名 AI 研究者、OpenAI 创始成员之一 Andrej Karpathy 发布了一篇备受关注的长推文,其中分享了注意力机制背后一些或许少有人知的故事。
近几年在生成式 AI 技术和商业创新飞速发展的背景下,创建高质量且低成本的生成式 AI 应用在业界仍有相当难度,主要原因在于缺乏系统化的调试和优化方法。
最近几天,ChatGPT 惊现神秘 Bug,当被问及「David Mayer」这个名字时,它拒绝回答问题。
英国伦敦 InstaDeep 的研究人员提出了在 DNA 序列上进行预训练的基础模型,称为 Nucleotide Transformer;其参数范围从 5000 万到 25 亿,并整合了来自 3,202 个人类基因组和 850 个不同物种基因组的信息。
刚刚,人工智能顶会 NeurIPS 公布了今年的最佳论文(包括 Best Paper 和 Best Paper Runner-up,大会注册者可以看到)。
在今日举行的坦克500“一定红”发布会上,最强泛越野坦克500 Hi4-Z正式开启预售,预售价37.98万元。
高难度武打视频,也能「手拿把掐」。
扩散模型和最优传输之间到底存在怎样的联系?对很多人来说还是一个未解之谜。
今日,腾讯宣布旗下的混元视频生成大模型(HunYuan-Video )对外开源,模型参数量 130 亿,可供企业与个人开发者免费使用。
评估和评价长期以来一直是人工智能 (AI) 和自然语言处理 (NLP) 中的关键挑战。
最热文章