

据The Information报道,TikTok可能正在探索使用多达2000个图形处理器(GPU),以训练OpenAI风格的人工智能模型。目前,尚不清楚TikTok是否已经获得了训练大型语言模型所需的大量GPU,或者是否能够按时获得。
据知情人士透露,早在今年3月,TikTok就开始与OpenAI的员工讨论,了解构建和维护大型语言模型所需的资源。报道称,训练人工智能模型可能需要超过10万个GPU在一段时间内运行。
目前,尚不清楚TikTok是否计划专门使用OpenAI的模型来增强其应用程序中的人工智能功能。一种可能性是,TikTok将利用现成的模型(LLM),以便在应用程序中实现更高级的人工智能功能。
此前有报道称,TikTok正在招聘研究科学家,致力于“构建和应用”OpenAI风格的AI模型。与此同时,该公司还在积极寻找能够帮助评估与OpenAI和其他公司开发的AI模型相关的风险的人才。值得注意的是,该公司可能会使用OpenAI的模型,或者仅仅是在研究其他公司所取得的进展。
与此同时,OpenAI也在积极探索TikTok的替代方案,并试图了解用户如何在平台上花费时间。该公司最近发布了一项研究,重点介绍了使用“零样本能力”来增强视觉语言模型的潜力。
考虑到OpenAI的算力需求,TikTok使用了相当一部分GPU,这反映了“算力”对于支持ChatGPT等大型模型的关键作用。该公司可能会继续寻求获得更多资源。根据之前的报告显示,到2024年底,TikTok预计将把Azure GPU集群利用率提高到29%至31%。根据瑞银分析师的预测,到2025年底,Azure GPU的收入可能增长28%至29%。
快讯中提到的AI工具
© 版权声明:
文章版权归作者所有,未经允许请勿转载。
本文地址:https://aidh.net/kuaixun/kd5u6d77暂无评论...