谷歌发布革命性AI模型Gemini 1.5 处理能力飙升


来源:纵横网 浏览量(2.3w) 2024-02-18 03:15:32

纵横网讯  谷歌近日推出AI模型——Gemini 1.5,该模型基于谷歌在基础模型开发和基础设施上的深入研究与创新,尤其是通过全新的专家混合(MoE)架构,显著提升了Gemini 1.5的训练和服务效率。

谷歌发布革命性AI模型Gemini 1.5  处理能力飙升_https://www.izongheng.net_互联网_第1张

图源 | pixabay.com

作为Gemini 1.5的早期测试版,新推出的Gemini 1.5 Pro是一款中型多模态模型,其优化针对多种任务,性能与谷歌迄今为止最大的模型1.0 Ultra相当。更值得一提的是,它在长上下文理解方面取得了突破性的进展。

Gemini 1.5 Pro配备了前所未有的128,000个token上下文窗口。然而,令人振奋的是,从现在开始,少数精选的开发人员和企业客户将有机会通过AI Studio和Vertex AI的私人预览版,在高达100万个token的上下文窗口中率先体验这一功能。谷歌还针对延迟、计算需求和用户体验进行了一系列优化。

“上下文学习(in-context learning)”是Gemini 1.5的另一大亮点,它意味着模型能够从长提示中快速学习新技能,而无需进行额外的微调。在MTOB(Translation from One Book)基准测试中,Gemini 1.5展示了其从从未见过的信息中学习的惊人能力。例如,当给定卡拉芒语(全球使用人数不足200人的语言)的语法手册时,它能够学习将英语翻译成卡拉芒语,其翻译水平与专业翻译者不相上下。

通过一系列前沿的机器学习创新,谷歌成功将Gemini 1.5 Pro的上下文窗口容量提升至远超Gemini 1.0最初的32,000个token。现在,这款大型模型能够在生产环境中轻松处理高达100万个token的信息量。

这意味着Gemini 1.5 Pro能够一次性处理巨量数据,包括1小时的视频、11小时的音频、超过30,000行代码或超过700,000个单词的代码库。谷歌的研究团队甚至成功测试了处理多达1000万个token的情况。

鉴于Gemini 1.5 Pro的长上下文窗口在大型模型中属首创,谷歌正积极开发新的评估和基准来全面测试其新颖功能,并探索其在各个领域的无限潜力。







THE END

版权声明:未经纵横网授权,严禁转载或镜像,违者必究。
特别提醒:如果文章内容、图片、视频出现侵权问题,请与本站联系撤下相关作品。
风险提示:纵横网呈现的所有信息仅作为学习分享,不构成投资建议,一切投资操作信息不能作为投资依据。本网站所报道的文章资料、图片、数据等信息来源于互联网,仅供参考使用,相关侵权责任由信息来源第三方承担。
本文地址: