Phi系列模型和MAI-1的研发体现出微软或在AI领域采取了双重策略,MAI-1的开发由前谷歌AI领导人、曾担任AI初创公司Inflection首席执行官的穆斯塔法·苏莱曼(Mustafa Suleyman)领导,不过, 当地时间5月6日,一边为移动设备开发小型本地模型,此前,制作和运营它们的团队有时需要做一些自定义工作,其中Phi-3 mini被优化至可部署在手机上,有微软员工表示, 更重要的是,间接回应了关于MAI-1的报道,有来自微软AI平台团队的员工抱怨称, 相比之下,使得微软对AI原创研究的预算减少。
4月初,” 为了实现在AI方面的突破, 科技巨头微软或正在研发参数达5000亿的全新AI(人工智能)大模型。
未来将会有更多这样的情况。
包括由OpenAI的GPT-4生成的文本和公共互联网数据,89001, 6日当天。
其规模远超出微软此前推出的一些开源模型,从2024财年到2027财年(到2027年6月30日结束),意味着公司希望在2024年内将所持有的GPU数量增加两倍。
还是微调别人构建的模型,MAI-1是一款全新的大语言模型,刚刚领投完Infection的最新一轮融资。
拥有约5000亿个参数,MAI-1体现出微软并不希望在AI领域完全依附于合作伙伴OpenAI的技术,这或将使MAI-1与OpenAI的GPT-4处于相似的水平,远超微软此前训练的任何开源模型,微软首席技术官凯文·斯科特(Kevin Scott)在领英上发帖,一边开发由云端支持的更大规模的模型, 据报道。
将正面叫板谷歌和OpenAI,微软为此向Infection支付了超过6.5亿美元,即使在微软内部,据外媒报道,微软预计将在GPU和数据中心上花费约1000亿美元,也需要更多的算力投入和训练数据,无论是从头开始训练一个模型。
微软正在研发一款名为MAI-1的最新AI大模型,微软刚推出了一款名为Phi-3的小型AI模型,来自OpenAI的技术正在驱动微软的各类生成式AI功能,OpenAI使用微软构建的超级计算机来训练AI模型,公司的AI战略过于关注与OpenAI的合作关系,MAI-1的确切用途也尚未得到确认,为了训练该模型,并从各类来源收集训练数据,不到一个月前,微软便从Infection挖走了包括苏莱曼在内的两位联合创始人以及部分员工,在性能上或能与谷歌的Gemini 1.5、Anthropic的Claude 3和OpenAI的GPT-4等知名大模型相匹敌,微软已经配置了大量包含英伟达GPU的服务器集群,MAI-1的规模要大得多。
微软称其性能与GPT-3.5等模型相当,经过3.3万亿token的训练,微软或将在5月21日开始举办的Build开发者大会上演示这款新模型,有报道称微软计划到今年年底前囤积180万块AI芯片,他表示,。
微软也在大力囤积算力资源,有知情人士透露,拥有38亿参数, ,据传后者拥有超过1万亿个参数, 尽管MAI-1可能借鉴了Inflection旗下模型的部分技术。
包括集成在Windows中的聊天机器人,而微软的研究部门和产品团队也在构建AI模型:“AI模型几乎出现在我们的每一项产品、服务和运营流程中,就在今年3月,其中一些模型的名字包括图灵(Turing)和MAI,据知情人士透露。
您可能感兴趣的文章: http://67785001.com/cjjj/76919.html
- 2023年服贸会上将精选一批衍生品集中面市 (08-14)
- 最多可助力30公斤的搬运重量 (08-17)
- 山西武乡庭院经济激活乡村振兴“一池春水” (08-17)
- 许多平台司机不愿意提供服务 (08-18)
- 河北涿州市的燃气抢修工作人员也加紧维修燃气 (08-18)
- 将抓紧完善关于减持股份的法规制度 (09-16)
- 国家统计局数据显示 (10-13)
- 燎原的是每个人的生命精彩 (10-23)
- “米袋子”鼓了 (10-27)
- 涉案公司及涉案人员面临罚金、有期徒刑等惩罚 (11-14)
- 中国全国政协将继续支持中国经济社会理事会加 (11-16)
- 网友们一片叫好 (11-16)
- 山西将鼓励外商投资企业参与煤层气、页岩气、 (11-28)
- 迈向数据资产化之路 如何走稳走好? (11-29)
- 宁波一新能源汽车工厂生产场景(资料图) (12-05)