微软自己做了俩AI模型,开始跟OpenAI直接竞争
微软在8月29号发布了两个自己研发的AI模型。一个叫MAI-1-preview,是通用模型。另一个叫MAI-Voice-1,是做语音的。
这说明微软不想只依赖OpenAI了,要自己搞核心技术。很多人觉得,这标志着微软和OpenAI从合作变成了直接竞争。
MAI-1-preview这个模型,主要用来回答日常问题。它是在大概1.5万个英伟达H100 GPU上训练的。微软说,之后会把它用到Copilot的一些功能里去测试。
另一个语音模型MAI-Voice-1也很有意思。它生成语音很快,一秒钟就能生成一分钟的音频。而且,它已经用在了Copilot Daily这些功能里。
巧的是,OpenAI在同一天也发了个新的语音模型。这让大家更觉得,这两家公司现在是对手了。
Netflix定了规矩:拍片可以用AI,但必须说清楚
Netflix在8月28号公布了公司内部用AI的规矩。
核心态度是:可以用,但要透明、负责。具体是这么要求的:所有用了AI的地方,都得说出来。但是,不是所有情况都需要法务部批准,只有在一些高风险的地方,比如动了演员的表演,才需要专门批准。
他们还定了五条原则,其中两条很重要:
第一,AI做的东西不能抄袭,也不能模仿某个真人的样子。
第二,不能没经过同意就用AI替代演员的表演,或者干工会保护范围内的工作。
Netflix的联席CEO举了个例子。他们在一个叫《The Eternaut》的剧里,用AI做了一个楼倒塌的动画。他说,用AI做这个,比传统方法快了十倍。
OpenAI更新了Codex,程序员在命令行里也能用AI了
程序员经常用一个黑乎乎的窗口来工作,那个叫命令行(CLI)。
在里面做事很快,但需要记住很多复杂的命令。
OpenAI最近更新了它的编程AI“Codex”,做了一个可以直接在命令行里用的工具。
这个东西用起来很简单,就是把你想做的事,用嘴说出来,打成字就行。
AI会帮你把这句话翻译成电脑能懂的命令。
举几个例子:
你可以在命令行里输入:“把这个文件夹里所有大于10MB的图片都找出来”。
AI就会自动生成 find . -type f -size +10M -name “*.jpg” 这样的命令。你不用自己去想怎么写。
或者你遇到一段报错信息,看不懂,直接把它丢给AI,问它“这是啥意思?怎么修?”
AI就会给你解释,还可能直接告诉你修复代码。
这样一来,程序员就不用老是去网上查这些命令怎么写了。
尤其是一些不常用的、很长的命令,有个AI帮忙会方便很多。
这说明AI正在进入程序员最核心的工作区,而不只是在代码编辑器里帮忙补全代码。
腾讯做了个AI,能给没声音的视频配上音效
在AI做视频越来越厉害,画面都很好看。
但是,这些视频都是哑巴,没声音。
腾讯最近就做了个东西来解决这个问题,叫Hunyuan Video-Foley。
它的工作原理是这样的:
AI先“看”一遍视频。
它会识别出视频里有什么东西,在做什么动作。
然后,它会自动生成对应的声音。
举个例子:
如果视频里有个人在沙滩上走路,AI就会配上“沙沙”的脚步声。
如果一个杯子掉地上碎了,AI就会配上玻璃破碎的声音。
它甚至能分辨出下的是小雨还是暴雨,然后配上不同的雨声。
这个东西很有用。
以前给视频配音效是个麻烦活,得找专门的音效师,或者在素材库里找半天。
现在用这个AI,点一下按钮就可能搞定了。
这对做短视频、做广告的人来说,能省下很多时间和成本。
也让AI生成的视频离直接能用又近了一步。
英伟达的增长慢下来了,现在想直接卖AI服务器给大公司
英伟达最近发了财报,钱还是赚了很多,但增长速度明显慢下来了。
具体来说,第二季度营收467亿美元,同比增长了56%。这个数字听着不错,但是,上个季度增长率是69%,去年同期是122%。所以,之前那种爆炸式增长的阶段可能过去了。主要原因是那些最大的客户,比如亚马逊、谷歌这些云服务公司,买芯片的速度没那么猛了。
不过,CEO黄仁勋不太担心。他说,接下来的机会在两个地方:开源AI和企业市场。
现在很多公司都在用开源模型,比如Llama,来搭建自己的AI。这些公司也需要买芯片,这就成了英伟达的新市场。
而且,英伟达现在想直接把AI服务器卖给各种大公司,而不只是卖芯片给云服务商。他们推出了一个叫RTX Pro的服务器,可以直接部署在普通公司的机房里。像迪士尼、现代汽车、SAP这些公司都已经开始用了。英伟达觉得,这个新业务能做到几十亿美元的规模。
简单说,英伟达的策略变了。以前是给几个“大户”提供顶级装备,现在是想给成千上万个普通公司提供“AI建厂工具包”。
马斯克的xAI开源了Grok 2.5,Meta也和Midjourney合作了
8月底,AI圈又有两个大新闻。
先是马斯克的公司xAI,把它家的大模型Grok 2.5给开源了。
开源就是把源代码公开,谁都能用,也能改。他们想让大家一起来帮着改进这个模型。
而且xAI还说了,更厉害的Grok 3也快来了。这明显是在跟OpenAI和谷歌抢市场。
另一个新闻是Meta,就是Facebook和Instagram的公司。
他们跟Midjourney合作了。Midjourney是那个做AI画画很厉害的工具。
合作之后,Meta会把Midjourney的技术用到自己的App里。
比如,你以后可能可以直接在Instagram里,用文字生成质量很高的图片。
Meta想通过这个合作,让自己的社交产品更好玩,内容也更丰富。这算是巨头之间的强强联合。
中国AI应用真不少:a16z新榜单,手机App快占一半
美国一个有名的投资公司叫a16z,它定期会发布一个全球最火的100个AI应用的榜单。最新的榜单出来了,能看到中国的AI应用表现很好。
在手机App这边,统计了排名前50的应用,里面有22个都是中国的,差不多占了一半。
举几个例子:美图公司就有5个App上榜,就是我们熟悉的美图秀秀、Wink这些修图剪视频的工具。字节跳动的聊天机器人“豆包”和它的海外版Cici也上榜了。
在网页应用这边,前50名里有11个是中国的。阿里的“夸克”、月之暗面的“Kimi”都排得挺靠前。有个叫DeepSeek的国产模型,甚至排到了第三名,只在ChatGPT和谷歌Gemini后面。
a16z分析说,这可能是因为中国用户多,市场大,而且像ChatGPT这些国外的App在中国用不了,这就给了国产应用很好的发展机会。
Anthropic发报告说,坏人已经把AI当武器使了
做Claude大模型的公司Anthropic发了一份报告,讲了他们发现坏人是怎么用AI做坏事的。这事挺严肃的。
报告里说了三个大趋势:
第一,AI现在能自己动手干坏事了。以前,AI最多就是给黑客出出主意。现在,黑客能让AI自己去执行一套完整的攻击,AI成了一个可以自动攻击的“武器”。
第二,做坏事的门槛低了很多。以前想写个勒索病毒,你得是个很厉害的程序员。现在,一个懂点代码的人,让AI帮忙就能写出来。
第三,犯罪团伙把AI用到了每个环节。从找哪个目标更好下手,到分析偷来的数据,再到用AI生成假身份骗人,AI成了他们的“全能员工”。
报告还举了个真实例子。一个叫“Vibe hacking”的团伙,用AI帮他们从医院、政府机构等17个地方偷了数据。他们不加密数据,而是威胁说要把数据公开,以此来勒索钱财。
Anthropic把这些事说出来,是想告诉大家AI滥用的风险有多大,希望整个行业能一起想办法应对。
IBM和NASA搞了个AI,专门“盯”着太阳,预报太空天气
IBM和NASA联手做了一个叫“Surya”的AI模型。它的工作就是看太阳,然后预测太阳什么时候会“发脾气”。
太阳“发脾气”可不是小事,这叫“太空天气”,比如太阳耀斑。它会影响地球,后果可能很严重。
举几个例子,它能搞坏天上的卫星,让GPS导航失灵,甚至可能导致大面积停电。对于去太空的宇航员来说,辐射风险也很大。有保险公司估算过,一次严重的太阳风暴,可能会给全球经济带来170亿美元的损失。
所以,能提前预报就很重要。
这个Surya模型就是干这个的。它是怎么工作的呢?研究人员用NASA拍的大量高清太阳照片来训练它。它学会了从这些照片里找出太阳活动异常的迹象,然后发出预警。
而且,IBM和NASA还把这个模型开源了。就是说,所有人都能在Hugging Face网站上下载它和训练数据。这样,全世界的科学家都可以用它来研究,或者在它的基础上做出更好的模型。
欧盟的AI法案开始实行了,管得还挺严
欧盟那个讨论了很久的《人工智能法案》终于生效了。
这是全球第一个全面管AI的强制性法规。
它的主要思路是按风险给AI分类。分成四等:风险高到不能接受的、高风险的、有限风险的、和风险很小的。
什么是“不能接受的”?比如用AI给普通人打分的系统,这个直接就禁了。
什么是“高风险”?比如用在自动驾驶、医疗诊断、找工作面试里的AI。这些就必须遵守很多规矩。比如,训练数据来源要干净、出问题能有人工介入、整个系统要足够安全。
而且,像OpenAI的GPT、谷歌的Gemini这种大模型,被管得更严。
它们需要自己评估风险,定期交报告。如果用AI生成了假图片或假视频(Deepfake),也必须清楚地标出来,告诉别人这是AI做的。
简单说,以后谁想在欧洲做AI生意,都得按这个规矩来。