到2027年,生成式AI引发的数据泄露事件将超过40%

2个月前发布AI俱乐部
11 0 0
到2027年,生成式AI引发的数据泄露事件将超过40%的封面图

Gartner预测,到2027年,将有40%的企业应用通过生成式人工智能(GenAI)技术构建。随着GenAI能力的日益成熟,企业将能够更高效地开展各类活动,从而显著提升业务价值。然而,若想在企业环境中有效利用GenAI,就必须解决由此带来的信任、风险和安全挑战。

Gartner的杰出分析师Joerg Fritsch指出,GenAI的潜力在于它能够实现前所未有的自动化水平,从而彻底改变知识型工作。他还强调:“为了充分利用GenAI,企业需要关注安全性和风险管理,特别是通过API集成和外部数据连接。有效的风险管理能够确保GenAI技术在创新应用的同时,不会对企业造成不利影响。”

在当今竞争激烈的商业环境中,企业领导者越来越重视对人工智能(AI)技术的负责任应用。Gartner的分析师们认为,这已成为企业取得成功的关键因素。为了确保人工智能项目能够带来积极成果,企业需要主动识别并应对与AI模型相关的潜在风险。Fritsch进一步表示:“有效管理人工智能项目的外部风险,对于确保企业能够安全可靠地扩展人工智能的应用至关重要。”

对于那些希望在人工智能领域实现规模化和差异化的企业来说,构建信任至关重要。Gartner预测,到2027年,实施人工智能风险管理的企业,其人工智能项目的成功率将提高一倍。为了更好地管理生成式人工智能应用的风险,企业需要采取多方面的措施。

为了确保人工智能应用的安全可靠,Gartner建议企业积极采用人工智能信任、风险和安全管理(TRiSM)框架。通过该框架,企业可以全面管理人工智能模型的风险、保障数据安全,并实现合规运营。Gartner预测,到2026年,应用AI TRiSM的企业将能够将人工智能决策的准确性提高50%,从而在实现业务目标的同时,有效降低潜在风险。

主要发现:

📌 预计40%的企业将通过生成式AI技术构建应用。

🔑 有效管理AI风险,对企业至关重要。

📈 实施AI TRiSM框架,提升AI决策的准确性和业务价值。

© 版权声明:
本文地址:https://aidh.net/kuaixun/2e3bsgn4

暂无评论

none
暂无评论...