

最近的一系列人工智能进展表明,各公司都在竞相发布更强大的 AI 模型,并努力避免出现任何失误。例如,Meta 公司正致力于开发更强大的 AI 技术,以期在该领域取得领先地位。
值得一提的是,谷歌最近发布了两款新的 Gemini 模型,分别是 Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002,这两款模型都具有出色的性能。
这些新型号在处理语言任务时表现出色,能够理解、总结和翻译文本,并生成代码。据报道,在 MMLU-Pro 基准测试中,它们的准确率提高了 7%,在视频理解方面的准确率提高了 20%。如果您正在寻找能够处理复杂语言任务的人工智能,那么这些模型可能非常适合您。
在图像识别方面,据称新的 Gemini 1.5 Pro 在各种视觉任务(包括视频和图像描述)上的表现分别提高了 64% 和 52%。这表明 Gemini 在处理视觉信息方面取得了显著的进步。
从本质上讲,Gemini 1.5 Flash 和 Pro 之间的区别在于,Flash 在提供卓越性能的同时,所需的计算资源更少。它可以同时处理多达 2000 个 token,而 Pro 可以处理多达 1000 个 token。这种差异使得各种规模的公司都能更轻松地使用。
与此同时,Meta 公司也在积极开发 Llama 3.2,这是其开源 AI 模型的最新版本。据说这些模型在推理和解决难题方面有了显著的改进。这些型号的参数范围从 110 亿到 900 亿不等,涵盖了各种尺寸,使其适用于各种应用。
Meta 认为这些新的模型代表了在通用性和专业化之间取得平衡的关键一步。随着越来越多的 AI 模型变得更容易访问,公司可以利用这些模型在各个领域进行创新。
此外,DeepMind 还发布了一种名为 AlphaChip 的新型定制芯片。这款芯片是为 2020 年开发的 AI 工作负载而设计的,旨在提高效率。据称,AlphaChip 在性能方面优于当时的图形处理器 (TPU),实现了所谓的“专家级别芯片设计”。
值得一提的是,AlphaChip 的硬件设计已在 GitHub 上开源。这种做法使得开发人员可以访问该技术,并围绕其进行创新。此外,联发科也在评估将其设计整合到未来的芯片中。
要点总结:
📌 谷歌的 Gemini 模型在语言理解方面取得了显著的进步。
🧠 Meta 发布了 Llama 3.2,这是一种具有增强推理能力的开源模型。
💡 DeepMind 的 AlphaChip 展示了定制硬件如何提高 AI 性能。