微软被曝正自研AI大模型:5000亿个参数,与谷歌和OpenAI竞争

2024-05-07 15:46:03 no.XX Studio

▓GG扑克中文版下载▓GGPoker[—ggn178.com—]为亚洲最具备实力的一间国际扑克竞技赛事平台,提供一个正规安全有保障的扑克游戏环境,加入立即玩与GGPoker全球玩家一起同乐“吉金铸史:青铜器里的古代中国”展览在三星堆博物馆开展

  

 

  

  中新网香港赛马会举办冠军赛马日总投注额逾15亿港元

  科技巨头微软或正在研发参数达5000亿的全新AI(人工智能)大模型%%,将正面叫板谷歌和OpenAI#@*。

  当地时间5月6日%#**#,据外媒报道%*#*@,微软正在研发一款名为MAI-1的最新AI大模型*#@#,其规模远超出微软此前推出的一些开源模型#*,在性能上或能与谷歌的Gemini 1.5、Anthropic的Claude 3和OpenAI的GPT-4等知名大模型相匹敌@*。微软或将在5月21日开始举办的Build开发者大会上演示这款新模型*%%@%。

  据报道**,MAI-1的开发由前谷歌AI领导人、曾担任AI初创公司Inflection首席执行官的穆斯塔法苏莱曼(Mustafa Suleyman)领导#%@*。就在今年3月@@%,刚刚领投完Infection的最新一轮融资#%@*,微软便从Infection挖走了包括苏莱曼在内的两位联合创始人以及部分员工%##。有知情人士透露@@,微软为此向Infection支付了超过6.5亿美元%%*。

  尽管MAI-1可能借鉴了Inflection旗下模型的部分技术**,有微软员工表示@#*@%,MAI-1是一款全新的大语言模型#%,拥有约5000亿个参数@*@%,远超微软此前训练的任何开源模型##。不到一个月前@%@#*,微软刚推出了一款名为Phi-3的小型AI模型%@%*%,其中Phi-3 mini被优化至可部署在手机上%**@,拥有38亿参数#*@%,经过3.3万亿token的训练#*%,微软称其性能与GPT-3.5等模型相当#@#。

  相比之下#@,MAI-1的规模要大得多*#%,也需要更多的算力投入和训练数据***。为了训练该模型#%%*#,微软已经配置了大量包含英伟达GPU的服务器集群*@,并从各类来源收集训练数据%#,包括由OpenAI的GPT-4生成的文本和公共互联网数据%@**%。这或将使MAI-1与OpenAI的GPT-4处于相似的水平@*,据传后者拥有超过1万亿个参数#@。

  Phi系列模型和MAI-1的研发体现出微软或在AI领域采取了双重策略@#@,一边为移动设备开发小型本地模型*%@#%,一边开发由云端支持的更大规模的模型@**#@。不过***%,即使在微软内部%*%%%,MAI-1的确切用途也尚未得到确认*###@。

  更重要的是*@,MAI-1体现出微软并不希望在AI领域完全依附于合作伙伴OpenAI的技术*@@%%。来自OpenAI的技术正在驱动微软的各类生成式AI功能**%,包括集成在Windows中的聊天机器人**##。此前@%#@,有来自微软AI平台团队的员工抱怨称@@@,公司的AI战略过于关注与OpenAI的合作关系*@@#*,使得微软对AI原创研究的预算减少%@#。

  6日当天#@*%,微软首席技术官凯文斯科特(Kevin Scott)在领英上发帖**%*@,间接回应了关于MAI-1的报道@*。他表示%%**,OpenAI使用微软构建的超级计算机来训练AI模型@@#*%,而微软的研究部门和产品团队也在构建AI模型:“AI模型几乎出现在我们的每一项产品、服务和运营流程中@%,制作和运营它们的团队有时需要做一些自定义工作%#@*@,无论是从头开始训练一个模型%#,还是微调别人构建的模型%*@。未来将会有更多这样的情况*#,其中一些模型的名字包括图灵(Turing)和MAI@#%%%。”

  为了实现在AI方面的突破#%**,微软也在大力囤积算力资源@*%%。4月初*##,有报道称微软计划到今年年底前囤积180万块AI芯片*###,意味着公司希望在2024年内将所持有的GPU数量增加两倍%@。据知情人士透露#%***,从2024财年到2027财年(到2027年6月30日结束)#@*#,微软预计将在GPU和数据中心上花费约1000亿美元#@#*。

  澎湃新闻记者 胡含嫣

【编辑:曹子健】

GG扑克中文版下载

 


相关推荐

最新更新

Copyrights © 2023 琴艺谱 粤ICP备18029198号-1|新闻资讯