微软Florence-2视觉基础模型发布,可在浏览器本地运行

9个月前发布AI俱乐部
3 0 0
微软Florence-2视觉基础模型发布,可在浏览器本地运行的封面图

近日,备受瞩目的开源图像模型Florence-2已成功移植至Transformers.js平台,这一举措使得该模型能够在WebGPU环境中实现完全本地化的运行,性能显著提升。这意味着又一项AI技术得以在浏览器端高效应用。

值得一提的是,该模型体积约为340MB,只需一次性加载,便可在本地运行,无需频繁请求服务器,从而极大地提高了响应速度和效率。与此同时,开发者无需深入了解复杂的底层API,即可轻松利用该模型进行开发。此外,该模型还支持离线运行,进一步提升了使用的便捷性。

Florence-2的卓越性能得益于Transformers.js以及ONNX Runtime Web等先进技术的加持。这一整合不仅简化了模型部署流程,还使得广大的开发者能够更便捷地在其AI应用中集成图像识别能力,从而推动了AI技术的普及。

若您对代码实现及模型配置感兴趣,Florence-2的ONNX模型现已在Hugging Face Hub上公开。您可以通过访问https://huggingface.co/models?library=transformers.js&other=florence2 获取相关信息。同时,您还可以在GitHub上找到相关的示例代码,具体地址为https://github.com/xenova/transformers.js/tree/v3/examples/florence2-webgpu,这些资源将帮助您更深入地了解和应用该技术。

总而言之,Florence-2的这一移植为在Web端实现高性能AI图像模型开辟了新的可能性。我们期待在不久的将来,能够看到更多基于Web的图像处理应用涌现,为用户带来更加智能和便捷的体验。

快讯中提到的AI工具

Hugging Face
Hugging Face

机器学习和人工智能技术的平台

© 版权声明:
本文地址:https://aidh.net/kuaixun/n4ig1nkp

暂无评论

none
暂无评论...