2025年9月

最近,哈佛医学院公布了一项名为 PDGrapher 的新型人工智能模型。这项研究表明,该模型能够分析细胞内部基因、蛋白质和信号通路之间的联系,从而找到有效的治疗组合,帮助恢复病变细胞的健康状态。这一创新有可能在药物研发方面产生深远的影响。

202307181418295015_2.jpg

图源备注:图片由AI生成,图片授权服务商Midjourney

传统的药物发现方法通常是逐个针对某种蛋白质进行研究,例如在癌症治疗中使用的激酶抑制剂。这类药物通过阻止特定蛋白质的活动来防止癌细胞扩散。然而,当疾病涉及多个信号通路和基因的相互作用时,这种方法往往显得捉襟见肘。研究的高级作者 Marinka Zitnik 将传统药物发现比作 “尝试数百道菜肴以找到完美的味道”,而 PDGrapher 则像是一位 “大厨”,能够准确理解所需的菜品,并知道如何将各种成分组合在一起以达到理想的效果。

研究团队使用了一组包含病变细胞的数据库,经过治疗前后的数据训练,让 PDGrapher 能够识别哪些基因能够将细胞从病态转变为健康状态。在此基础上,模型被应用于11种不同癌症的19个数据集,进行各种治疗选项的预测。结果表明,PDGrapher 不仅能够准确预测已知有效的药物靶点,还能识别出其他具有临床证据支持的新靶点。与其他类似工具相比,PDGrapher 在正确治疗靶点的排名上提高了35%,速度也快了25倍。

研究者们指出,PDGrapher 在优化药物发现方面具有多种可能性,它能够识别出多种可逆转疾病的靶点。这一能力有望加快研究进程,提升研究效率,并减少复杂疾病(如癌症)逃避药物治疗的情况。目前,研究团队还在利用 PDGrapher 来应对帕金森和阿尔茨海默等脑部疾病。

尽管 AI 在医疗领域的应用尚处于初期阶段,但其发展势头明显。去年,AI 模型的某些特性帮助斯坦福大学的研究人员以远超基础计算速度的方式发现新药物。同时,研究表明,用户对 AI 聊天机器人的依赖性过强,可能导致获取的医疗建议不够准确,因此无法替代专业医疗人员的信息。PDGrapher 现已通过 Github 开放给公众使用。

谷歌近期对外包公司 GlobalLogic 的承包商进行了裁员,超过200名员工因工薪和工作条件问题被解雇。这一行动引发了员工的不满和抗议,他们指出长期以来的低薪与恶劣的工作环境,导致这一冲突不断升级。

这些被裁的承包商主要负责谷歌的 AI 产品的评估和改进工作,包括新推出的 Gemini 聊天机器人及其 AI 概述功能。这些员工通常通过对 AI 生成的内容进行评估和编辑,来提升产品的表现。然而,裁员的发生让他们感到措手不及,许多人在被告知裁员时并未得到充分的解释和预警。

谷歌,google

其中一位名叫安德鲁・劳宗(Andrew Lauzon)的前员工表示,他于2024年3月加入 GlobalLogic,工作内容包括对 AI 输出进行评估及模型输入提示的制定。他对突如其来的裁员感到震惊,并对未来的工作感到不安。

在继续工作的员工中,许多人也表达了对未来的不确定性。他们担心公司正在计划用 AI 自动化评估,从而取代人类的工作岗位。同时,尽管公司在招聘新员工,但却在减少现有员工的数量。这种情况尤其在德克萨斯州的奥斯汀办事处尤为明显,许多员工被要求重返办公室工作,给那些无法承担通勤费用或身体状况不佳的员工带来了额外压力。

许多承包商表示,自己的薪水偏低,工作条件也不理想,导致士气下降。尽管许多员工拥有硕士或博士学位,但他们的薪酬与工作强度和复杂性不成正比。在努力组织工会以争取更好待遇的过程中,部分员工甚至遭遇了报复,部分员工向国家劳动关系委员会(NLRB)提出了投诉。

谷歌的发言人回应称,GlobalLogic 及其子承包商负责员工的雇佣和工作条件,谷歌将对供应商进行审核。尽管如此,员工们仍感受到工作环境的压迫,社交空间受到限制,使得工作压力加大。

此次事件揭示了谷歌及其外包公司在工作条件上的矛盾,也反映了许多 AI 承包工人面临的共同挑战与斗争。

OpenAI近日正式发布GPT-5-Codex,这是一款基于GPT-5进一步优化的版本,专为代理式编码(agentic coding)量身定制。该模型标志着AI从辅助工具向自主“编程伙伴”的重大跃进,将极大提升软件开发效率。根据最新信息整理,该发布于2025年9月15日迅速引发全球科技圈热议,开发者反馈显示其在复杂任务处理上表现出色,已成为Codex平台流量主力。

模型核心升级:动态思考与自主执行

GPT-5-Codex的核心创新在于其动态“思考”机制,能够根据任务复杂度灵活调整处理时间。对于简单查询或小型任务,它可快速响应,仅需几秒钟;而在处理大型重构或复杂编码时,可自主迭代长达7小时以上,直至完成实施并修复测试失败。该模型结合了互动式开发协作与持久独立执行两大能力,训练重点聚焦真实软件工程场景,如代码审查、环境设置和前端理解。

6389360938590832951258953.png

在基准测试中,GPT-5-Codex在SWE-bench Verified(代理式编码能力评估)上超越标准GPT-5,在大型仓库代码重构任务中得分高达74.5%。此外,它在代码审查方面显著改进,能提交更少错误注释,并添加更多高影响力的反馈,帮助开发者捕捉关键bug,甚至在人类审查前处理数百个问题。测试显示,对于简单任务,其令牌消耗减少94%,从而实现更高效的资源利用。

多平台集成:无缝融入开发者生态

该模型已全面集成到Codex生态中,支持多种使用场景:Codex CLI(命令行工具)、IDE扩展、Web界面、移动端应用,以及GitHub代码审查功能。开发者可通过ChatGPT Plus、Pro或Business计划访问,Plus/Edu/Business用户每周可进行几场专注编码会话,而Pro用户则支持全工作周的多项目处理。Codex CLI现已更新至0.35.0版本,支持会话恢复功能(codex resume),并提供低/中/高推理努力级别选择。

OpenAI强调,GPT-5-Codex并非取代人类审查,而是作为额外审核工具,提升整体代码质量。安全措施包括沙箱执行、权限模式和审计日志,确保可信部署。API访问即将开放,进一步扩展其在Cursor、VSCode和GitHub Copilot等产品中的应用。

开发者反馈与市场影响

最新反馈显示,GPT-5-Codex在实际使用中表现出色,许多开发者报告开发周期缩短60%,代码生成速度大幅提升,且更好地理解业务逻辑上下文,避免过度工程化问题。它被誉为“从自动补全到代理完成”的转变,能从零构建完整应用,并在重构中保持最小改动。该模型的推出也强化了OpenAI在AI编码代理市场的竞争力,与Anthropic的Claude Code等产品展开激烈角逐。

未来展望:AI编码新时代

随着GPT-5-Codex的发布,OpenAI正加速向AGI(通用人工智能)方向推进,尤其在物理世界和机器人领域的应用。该模型的优化不仅提升了编码效率,还为企业如Cisco、Duolingo和Ramp等提供了可靠的AI“队友”。

官方介绍:https://openai.com/index/introducing-upgrades-to-codex/

近日,人工智能公司 Anthropic 在其官方博客上发布了一份重磅指南《Writing effective tools for LLM agents—using LLM agents》。这份指南详细阐述了如何利用 Model Context Protocol(MCP)为大语言模型(LLM)代理(Agent)设计高效工具,提供了一个系统化的 “原型 - 评估 - 协作” 三步迭代流程,旨在帮助开发者更好地构建和优化工具。

在指南中,Anthropic 强调了五大设计原则,帮助开发者在创建工具时规避常见的误区。首先,选择工具时需谨慎,确保它们能够与 Agent 的上下文和策略相匹配。其次,清晰的命名空间是不可或缺的,它可以帮助用户更好地理解工具的功能。第三,返回的信息应该具备更丰富的上下文,以便于 Agent 做出更准确的决策。此外,优化返回信息的 Token 效率也是提高工具性能的关键所在。最后,通过提示工程(Prompt Engineering)来提升工具说明的质量,确保用户在使用时能够获得最佳体验。

值得一提的是,文中提到的诸多结论,均是通过 Anthropic 的 Claude Code 进行反复分析与评估后得出的,显示了其强大的数据处理能力和智能化水平。为防止模型过拟合,Anthropic 还特别保留了测试集。未来,随着 MCP 协议及底层 LLM 的升级,Anthropic 计划让工具的能力能够与 Agent 同步演进,确保其在快速发展的 AI 领域始终处于领先地位。

此外,Anthropic 还同步开源了工具评估的 Cookbook,为开发者提供了更多实用的资源和参考。这些努力不仅为 AI 开发者提供了更好的工具支持,也推动了整个行业在大语言模型领域的创新与发展。

近日,Anthropic 官方博客发布了一份详尽的指南,题为《Writing effective tools for LLM agents—using LLM agents》。该指南旨在帮助开发者利用 Model Context Protocol(MCP)为 LLM Agent 设计高效的工具。文中提出了 “原型 - 评估 - 协作” 三步迭代流程,并总结了五大设计原则,以确保工具的有效性和可用性。

6389355478337662744405529.png

首先,指南强调了在选择工具时需要谨慎。开发者应认真考虑工具的选择,以确保其能够有效地服务于 LLM Agent 的需求。其次,指南建议保持清晰的命名空间,确保不同工具和功能之间的名称不产生混淆,以便开发者可以快速理解和使用。

另外,工具的上下文返回值也需要更加有意义。指南指出,开发者应该优化工具返回的信息,使其更具信息量和上下文相关性,从而提升 LLM Agent 的工作效率。此外,返回信息的 Token 效率也需被重视,以降低数据传输的成本,提高处理速度。最后,指南提出通过提示工程来提升工具说明的质量,使得使用者能更清晰地理解工具的功能和用法。

文中还提到,许多结论是由 Claude Code 经过反复分析脚本、重构工具描述与模式后自动得出的,确保了分析的科学性和准确性。为防止过拟合,Anthropic 还通过保留测试集进行评估。同时,Anthropic 还开源了工具评估的 Cookbook,并预告未来 MCP 协议与底层 LLM 升级时,工具的能力也将随之演进。

指南:https://www.anthropic.com/engineering/writing-tools-for-agents

据testingcatalog报道,近日,xAI 正式推出了 Grok4Fast,这是一款全新的模型,用户可以通过 Grok 网页版的模型选择器来访问。为了体验这一新功能,用户需要在订阅设置中启用一个新的早期访问模式切换按钮。Grok4Fast 最大的亮点在于其速度,用户反馈称该模型的响应速度比标准的 Grok4快了多达10倍。这一版本的主要特点是优化了快速响应,尽量减少在复杂任务上的处理时间。

6389328808373181298045383.png

例如,当被要求创建一个机器人 SVG 时,Grok4Fast 会提供相对简单的输出,这表明该模型更注重速度,而非作品的复杂性。这种设计理念特别适合那些希望对简单查询或工具使用获得即时结果的用户,比如生成简单代码、自动化任务或获取事实答案等。

然而,这一模型在创意或高度细致的请求中表现出的限制则显而易见,在追求快速交付的过程中,深度和细节的表现有所牺牲。这种权衡符合当前人工智能产品战略的广泛趋势,像 xAI 这样的提供商正在努力根据速度、准确性或创造力来细分产品,以满足不同的使用需求。

Grok4Fast 的推出标志着该模型在之前名为 Sonoma 的 Arena 测试阶段后,终于进入了更广泛的发布阶段。目前,Grok4Fast 被标记为早期访问,未来可能会扩展到免费用户,取代已经逐渐老化的 Grok3。这将为免费用户带来显著的能力和速度提升,尤其是在模型与工具集成的可靠性方面得到了改善。

此外,xAI 还在 Grok 网页版推出了专门的更新日志部分,为用户提供关于持续更新的透明信息,这一举措符合该公司的迭代和用户反馈驱动的发展模式。随着 Grok4Fast 即将登陆移动应用,其快速且实用的设计理念可能很快就会成为广大用户的默认体验。

Cursor 是一款基于人工智能的编程平台,最近宣布对其 Tab 模型进行了升级。Tab 模型是为开发者提供自动补全建议的系统。此次升级显著减少了低质量建议的数量,提高了建议的准确性。具体来说,新的 Tab 模型相比于之前的版本,建议数量减少了21%,而接受率提高了28%。

6389354539123032348248140.png

Cursor 在其博客中表示,实现高接受率不仅仅是让模型变得更智能,还需要懂得何时提供建议、何时不提供。为了应对这一挑战,Cursor 考虑了训练一个单独的模型,用于预测某个建议是否会被接受。该公司引用了一项2022年的研究,指出这种方法在 GitHub Copilot 中取得了成功。研究中采用了逻辑回归过滤器,分析编程语言、最近的接受历史和训练字符等特征,将那些得分较低的建议隐藏起来。

然而,Cursor 认为这种解决方案虽然可以预测用户接受建议的概率,但希望有一个更通用的机制,能够重用 Tab 模型学到的强大代码表示。Cursor 希望通过改变 Tab 模型的结构,避免在最初就产生低质量建议,而不是后续再进行过滤。

因此,Cursor 采用了策略梯度方法,这是一种强化学习的方法。当用户接受建议时,模型会得到奖励;当建议被拒绝时,模型会受到惩罚;而在选择保持沉默时则不会得到任何反馈。此方法需要 “在线” 数据,即从当前使用的模型收集的反馈。Cursor 通过每天多次向用户部署新的检查点,并迅速基于新交互对模型进行再训练,来解决这一问题。

Cursor 表示,当前从部署检查点到收集数据的过程仅需1.5到2小时,这在 AI 行业中已经算是较快,但仍有进一步加速的空间。该公司的 Tab 模型每天处理超过4亿个请求,Cursor 希望这一改进能够提升开发者的编码体验,并计划在未来进一步开发这些方法。

在线强化学习是该领域最令人兴奋的方向之一,一位在 OpenAI 从事后训练的工程师在社交媒体上对此表示赞赏,称 Cursor 似乎是第一个成功在大规模上实施该技术的公司。

不久前,Cursor 的母公司 Anysphere 宣布融资9亿美元,估值达99亿美元,并推出了一项月费200美元的 “超值” 计划,承诺提供20倍于20美元月费 “专业版” 的使用量。此外,Cursor 还在同月进行了平台更新,新增了自动代码审查、记忆功能和一键设置模型上下文协议服务器的功能。

划重点:

🌟 Cursor 的 Tab 模型升级后,建议数量减少21%,接受率提升28%。

🤖 采用实时强化学习方法,模型可根据用户反馈自我调整。

💰 Cursor 母公司 Anysphere 融资9亿美元,推出新计划与功能提升。

近日,开源项目DeepMCPAgent正式亮相,该框架提供即插即用式的动态MCP工具发现功能,支持开发者基于LangChain和LangGraph快速构建生产级MCP驱动代理。该项目强调模型无关性,用户可自带任意LLM模型,实现高效集成与部署。AIBase整理最新Twitter和网络信息,揭示这一开源创新如何重塑AI代理生态,推动从原型到生产的无缝转型。

框架核心:动态MCP工具发现与即插即用设计

DeepMCPAgent的核心在于其对Model Context Protocol(MCP)的深度支持。MCP作为Anthropic推出的开源协议,标准化了应用程序向语言模型提供工具和上下文的方式。该框架通过HTTP/SSE传输实现动态工具发现,避免了传统代理硬编码工具的繁琐过程。开发者只需连接MCP服务器,即可自动获取JSON-Schema工具规范,并转换为类型安全的LangChain工具。

6389354453931425708330471.png
具体而言,框架采用零手动工具布线(Zero manual tool wiring)机制,支持多服务器集成。安装时,若可选的DeepAgents组件已启用,则使用深度代理循环处理复杂任务;否则回退到LangGraph的ReAct代理,确保鲁棒性。该设计特别适用于需要实时工具适配的场景,如多代理协作或外部API调用。

技术亮点:兼容主流模型与LangChain/LangGraph生态

DeepMCPAgent与LangChain和LangGraph的无缝集成是其最大亮点。LangGraph作为低级编排框架,支持构建状态化、长运行代理,而DeepMCPAgent则通过langchain-mcp-adapters库桥接MCP工具,使代理能从数百个MCP服务器中拉取资源。支持的LLM包括OpenAI、Anthropic、Ollama和Groq等主流模型,用户可通过字符串提供者ID或LangChain实例指定模型。

框架还强调类型安全:从JSON-Schema经Pydantic验证后转化为LangChain BaseTool,确保工具调用过程严格且高效。外部API集成支持自定义头部和认证,CLI和Python API双重接口进一步简化部署。安装命令简单:pip install "deepmcpagent[deep]",许可采用Apache2.0,当前处于Beta阶段,于2025年8月30日PyPI发布。

性能与应用:从原型到生产级代理的加速器

在实际应用中,DeepMCPAgent显著提升了代理的灵活性和可扩展性。Twitter社区反馈显示,该框架适用于构建多代理聊天机器人、研究代理或文档检索工具。例如,可结合LangGraph的监督架构协调子代理,支持Ollama本地集成,实现高品质报告生成或网页抓取验证。

开源生态中,类似项目如LangChain的MCP适配器已集成数百工具服务器,DeepMCPAgent进一步扩展了这一能力。开发者可轻松创建ReAct代理,处理数学计算、天气查询或3D建模等任务。相比传统方法,该框架减少了自定义代码需求,支持流式HTTP传输,使代理在VS Code、Claude Desktop等环境中即用。

开源影响:推动AI代理民主化与生态繁荣

DeepMCPAgent的发布标志着MCP协议在开源社区的快速普及。GitHub仓库显示,该项目已吸引开发者关注,支持从本地测试到云端部署的完整流程。结合LangGraph Platform的MCP端点暴露功能,代理可作为工具重用,适用于团队协作和产品迭代。

这一创新不仅降低了AI代理开发的门槛,还强化了LangChain生态的竞争力。未来,随着MCP服务器生态的扩张,DeepMCPAgent有望在多模态任务和Agentic工作流中发挥更大作用,避免单一框架垄断,促进AI从实验室向实际应用的民主化。

项目地址:https://github.com/cryxnet/deepmcpagent

据知情人士透露,苹果公司人工智能与搜索业务的资深主管罗比·沃克(Robby Walker)将于下月离职。沃克的离开再次引发了外界对苹果在人工智能领域发展前景的担忧,也加剧了市场对其能否成功转型的疑虑。

沃克曾是苹果 AI 部门的核心人物之一,直接向公司人工智能主管约翰·詹南德雷亚(John Giannandrea)汇报。他长期负责苹果的语音助手 Siri,但在该产品多次更新延期后,Siri 的管理权于今年初被转交给软件主管克雷格·费德里吉(Craig Federighi)。此后,沃克领导了“答案、信息和知识”团队,致力于开发一款与 Perplexity 和 ChatGPT 竞争的 AI 驱动搜索系统,该系统计划于明年推出。

沃克的离职延续了苹果 AI 部门的人才流失潮。此前,苹果前基础模型团队负责人庞若鸣和搜索高管 Frank Chu 已跳槽至 Meta,并带走了大批研究人员。

分析人士指出,这一系列人事变动凸显出苹果在人工智能转型中的不确定性。随着谷歌、微软等竞争对手在 AI 领域取得显著进展,苹果的人才流失可能会削弱其在未来 AI 市场的竞争力,加深了市场对其能否追赶上行业步伐的担忧。

根据美国科技媒体《The Information》的报道,人工智能公司 OpenAI 正在寻求调整与其主要投资者微软之间的财务协议。这一调整的主要目的是希望能够保留更多的收入,以应对其日益增长的计算开销。

消息来源表示,OpenAI 已经向部分投资者透露,计划将微软目前获得的收入分成比例,从当前略低于20% 的水平,逐步降低至2030年的8% 左右。根据原始协议,微软在2030年时将会获得20% 的分成。因此,若这一新的计划得以实施,OpenAI 将能够为自身带来超过500亿美元的额外收入,这笔资金将为公司在 AI 模型训练和扩展中提供宝贵的 “弹药”。

作为协议调整的一部分,微软将获得重新组织后 OpenAI 实体的三分之一股份,而剩余股份则归属于 OpenAI 的非营利组织。不过,值得注意的是,微软在 OpenAI 的董事会中仍然不会拥有席位。

此外,OpenAI 与微软之间还在就通用人工智能(AGI)的潜在应用、服务器费用及相关合同条款进行深入谈判。尚不清楚这是否已经体现在两家公司近期达成的非约束性协议中。

此次收入分成比例的调整,标志着 OpenAI 在追求自我可持续发展方面迈出了重要一步,同时也反映了其在与微软的合作中重新审视双方的财务关系。

划重点:

🌟 OpenAI 计划将与微软的收入分成比例从20% 降低至8%,以应对高昂的计算开销。

💰 此次调整预计将为 OpenAI 带来超过500亿美元的额外收入,支持其 AI 模型的训练和扩展。

🤝 微软将获得新协议下 OpenAI 实体的三分之一股份,但不在董事会中占有席位。

科技巨头与传统媒体之间的战争正在升级。谷歌刚刚遭遇一场可能改变AI行业格局的重磅诉讼,这次站出来挑战的是美国知名媒体集团Penske Media Corporation,旗下拥有《滚石》、《公告牌》、《综艺》、《好莱坞报道者》等一众顶级出版物。

这场诉讼的焦点直指谷歌备受争议的AI概览功能。Penske指控谷歌非法使用新闻出版商的内容来创建AI摘要,严重损害了出版商的商业利益。更令人震惊的是,诉讼文件显示这不是简单的版权纠纷,而是一场关于数字媒体生存权的生死较量。

Penske Media首席执行官Jay Penske在声明中表达了强烈不满:作为全球领先的出版商,我们有责任保护PMC一流记者和获奖新闻报道作为真相源泉的地位。更重要的是,我们有责任主动为数字媒体的未来而战,维护其完整性,而这一切都受到谷歌当前行为的威胁。

201811151621147122_90.jpg

自去年推出AI概览功能以来,谷歌就陷入了一个尴尬的悖论:它需要依赖出版商提供的优质内容来训练AI模型并生成准确摘要,但同时这项功能却在威胁着这些内容提供者的生存根基。

这起诉讼的指控更加严厉,直接点名谷歌利用其垄断地位强迫PMC等出版商允许谷歌在AI概览中重新发布他们的内容,并将这些内容用于训练AI模型。诉讼文件中描述了一个令人不安的商业勒索场景:谷歌将搜索索引服务与AI内容使用绑定在一起,出版商要么全盘接受,要么彻底退出谷歌搜索,而后者无疑是毁灭性的选择。

谷歌发言人José Castañeda试图为公司辩护,声称AI概览让谷歌搜索变得更有用,并为内容发现创造了新机会。他强调谷歌每天为全网站点带来数十亿次点击,AI概览还能将流量引导到更多样化的网站。面对诉讼,谷歌表示将为这些毫无根据的指控进行辩护。

然而,Penske的诉讼揭示了一个更深层的问题。传统的网络生态基于一个简单的交换原则:出版商允许谷歌抓取内容,换取搜索流量。但现在谷歌正在单方面改变这个游戏规则,要求出版商不仅提供内容用于搜索索引,还要同意将内容用于可能损害自身利益的其他用途。

更令出版商担忧的是真实的商业损失。Penske声称自从谷歌推出AI概览以来,来自谷歌搜索的点击量显著下降。这意味着广告收入的减少,订阅和联盟收入的威胁,因为这些收入流依赖于用户实际访问PMC网站。

这起诉讼的时机也颇为微妙。就在不久前,联邦法官裁定谷歌在维持在线搜索垄断方面行为违法,但并未下令拆分其业务,部分原因是AI领域竞争的加剧。现在Penske的诉讼为这场反垄断斗争增添了新的维度。

当人工智能开始重塑信息获取方式,当算法学会了内容创作的艺术,传统媒体与科技巨头之间的博弈正变得前所未有地激烈。这不仅是一场关于版权的法律争议,更是一场决定数字媒体未来命运的关键战役。谷歌能否在保持技术创新的同时维护内容生态的平衡,这个问题的答案将深刻影响整个互联网的未来格局。

刚刚成立三年的初创公司Micro1凭借其独特的人才招募模式,在这个竞争白热化的赛道中杀出重围,成功获得3500万美元A轮融资,公司估值一举达到5亿美元。

这轮融资由前推特CEO Dick Costolo和前COO Adam Bain共同创立的风投公司01Advisors领投,为这家年轻的公司注入了强劲的发展动力。更令人瞩目的是,Micro1的掌舵人Ali Ansari年仅24岁,却已经在AI数据服务领域展现出了超越年龄的商业洞察力。

Micro1的崛起恰逢AI数据市场的关键转折点。当Scale AI因与Meta的140亿美元投资关系而遭到OpenAI和谷歌等主要AI实验室的抵制时,整个行业突然出现了巨大的服务空白。虽然Scale AI否认与Meta分享机密信息,但AI实验室们显然不愿冒险,纷纷寻找新的合作伙伴。
202308161653582995_0.jpg

图源备注:图片由AI生成,图片授权服务商Midjourney

Micro1正是在这个关键时刻抓住了机遇。Ansari透露,公司目前正在与包括微软在内的顶级AI实验室以及多家财富100强企业合作。更令人印象深刻的是,Micro1的年度经常性收入已从2025年初的700万美元飙升至5000万美元,增长速度令人瞠目。

虽然与年收入超过4.5亿美元的Mercor和据报道2024年收入达12亿美元的Surge相比仍有差距,但Micro1在AI实验室中的快速采用率显示出强劲的增长势头。

Micro1的核心竞争优势在于其对市场需求变化的敏锐洞察。Ansari指出,AI实验室的需求已经从简单的数据标注转向需要领域专家提供的高质量数据标注。现在的AI模型训练需要资深软件工程师、医生、专业作家等专业人士的参与,而招募这些高端人才成为了最大的挑战。

为了解决这个难题,Micro1开发了AI招聘官Zara,这个智能系统能够面试和审查申请成为公司承包商的候选人。令人惊叹的是,Zara已经成功招募了数千名专家,其中包括来自斯坦福和哈佛的教授。公司计划每周新增数百名这样的专业人才。

前推特COO Adam Bain在加入Micro1董事会时表示:模型学习的唯一途径现在就是通过全新的人类数据。Micro1处于为所有前沿实验室提供这些数据的核心位置,同时以我从未见过的速度前进。这句话精准地概括了Micro1在AI生态系统中的关键地位。

市场的需求还在继续演进。许多AI实验室现在对开发虚拟工作空间环境产生了浓厚兴趣,这些环境可以用于在模拟任务上训练AI代理。敏锐的Ansari已经开始在这个新兴领域布局,准备推出相关服务来满足这一需求。

对于像Micro1这样的初创公司而言,幸运的是AI实验室通常会与多个训练数据提供商合作。这个行业的特性决定了任何一家公司都难以独自满足AI实验室的所有数据需求,这为市场上的多家企业提供了充足的发展空间。

当人工智能模型变得越来越复杂,当算法对高质量数据的渴求越来越强烈,像Micro1这样专注于人才招募和数据质量的公司正在成为AI革命中不可或缺的幕后英雄。这个由24岁CEO领导的团队,正在用创新的方式重新定义AI训练数据的供应链,为整个人工智能行业的发展提供着源源不断的智慧养分。

随着科技的迅猛发展,人工智能(AI)已成为当今社会的重要组成部分。为了培养学生的 AI 意识和应用能力,北京市教育部门在新学期全面推出人工智能通识课程,目前已有1400多所中小学参与其中。该课程涵盖了小学至高中的各个学段,旨在帮助学生从基本了解 AI 到合理使用 AI,再到创新应用 AI。

202311231146402911_4.jpg

图源备注:图片由AI生成,图片授权服务商Midjourney

根据课程安排,每学年学生将至少接受8课时的人工智能教育。这些课程内容包括人工智能意识与思维能力的培养、应用与创新能力的提升,以及伦理与社会责任的教育。通过这样的课程设置,学生不仅能够学习到如何使用人工智能工具,还能理解其在社会中的影响,培养起对科技发展的责任感。

各个学段的课程目标也有所不同,设计上将逐步引导学生深入学习。课程将通过项目实践的方式进行,帮助学生锻炼创新思维和解决问题的能力。例如,小学生可能会接触图形化编程和 AI 制作绘本等课程,而高年级的学生则可能进行更为复杂的机器学习初体验。

学校在实施人工智能课程时,可以选择独立设置,也可以与信息科技、通用技术、科学、综合实践活动等课程相融合,确保课程内容的丰富性和连贯性。这种一体化的设计可以有效避免课程内容的重复,让学生在多方面的学习中提升他们的综合素质。

划重点:

🌟 北京已有1400多所中小学开设人工智能通识课程,每学年不少于8课时。

🧠 课程内容涵盖 AI 意识、应用能力与伦理责任,培养学生全面素质。

🔧 课程可独立设置或与其他科目融合,注重一体化设计,避免重复交叉。

近来,越来越多的人开始尝试用人工智能(AI)来进行投资,甚至是未成年人也开始 “尝鲜”。17岁的高中生内森・史密斯(Nathan Smith)最近便是这样一位大胆的尝试者。受到不断刷屏的广告启发,他决定用几百美元进行一场 “人机对决”,看看 AI 是否真的能在股市中获利。

这场实验的起点是2025年6月,史密斯选择了两款 AI 模型 ——GPT-4o 和 DeepSeek,来帮助他选择股票和进行交易。他给这两个 AI 下达了相同的指令:以100美元的资金在美国上市的市值低于3亿美金的微型股中进行投资。随着实验的展开,结果却出乎意料。

6389352389794906756156274.png

在初始阶段,DeepSeek 选择了将资金全部投入市场,但没过多久便出现了18.06% 的亏损。而 GPT-4o 则显得更加谨慎,初期收益率达到了惊人的6.72%。这种差异背后,主要是由于两款 AI 模型所使用的信息更新频率不同。GPT-4o 具备实时数据获取能力,而 DeepSeek 只能依赖过时的数据。

随着时间推移,GPT-4o 的表现更是持续上扬,经过两个月的投资,它的组合累计上涨了25.2%,远超同期标普500指数的4.5%。其中一笔成功的操作甚至让 GPT-4o 的投资收益在短短一周内增长了超过10%。史密斯对这款 AI 的表现感到惊喜,同时也意识到,这些实验并不构成真正的投资建议,因为它的规模和时间都相对有限。

值得注意的是,AI 炒股并非个案。许多研究表明,ChatGPT 在判断股票吸引力和回报率方面具备一定的预测能力,这为今后的投资策略提供了新的思路。然而,史密斯也提醒大家,尽管实验显示了可喜的成绩,但投资仍需谨慎,切忌盲目跟风。

字节跳动的智能创作团队与清华大学联合推出了一款名为 HuMo 的开源框架,旨在推动人体视频生成(HCVG,Human-Centric Video Generation)领域的进步。HuMo 框架具备强大的多模态输入处理能力,可以同时利用文本、图像和音频三种信息,协同生成高质量视频。

HuMo 的名称 “Human-Modal” 恰如其分地反映了其聚焦人类及其活动的理念。这个框架的成功之处在于它构建了一个高质量的数据集,并创新性地采用了渐进式训练方法。这种训练方式使得 HuMo 能够在各项子任务中超过现有的专业化方法,生成清晰度高达480P 和720P 的视频,最长可达97帧,以25帧每秒的速度输出可控的人物视频。

6389329391645504602057009.png

框架的核心优势在于其创新的数据处理流程、灵活的推理策略以及渐进式的多模态训练方式。这些技术的结合,不仅提高了生成视频的质量,还提升了处理速度,使得 HuMo 在实际应用中表现得更加出色。

对于开发者和研究人员来说,HuMo 不仅是一种新的工具,更是一种灵活的解决方案,能够满足不同场景下的需求。项目的开源地址也让更多的人可以参与到这项技术的研究与应用中,为未来的多模态视频生成探索新的可能。

论文地址:https://arxiv.org/pdf/2509.08519