

近日,一个名为“emirking”的用户在知名黑客论坛BreachForums上发帖声称,其已获取了超过2000条OpenAI ChatGPT用户的敏感信息,并暗示可能会泄露更多数据。这一事件引发了人们对于人工智能应用安全性的担忧。据Malwarebytes Labs分析,此次事件可能与OpenAI及相关第三方应用程序的数据泄露有关。
相关信息:关于AI绘画,请参阅Midjourney。
据Malwarebytes的最新调查,emirking在论坛上发布的帖子表明,他声称拥有大量OpenAI用户的登录凭证。该黑客表示:“我掌握了超过2000个OpenAI用户的详细信息,这仅仅是冰山一角。”据分析,emirking可能早在2025年1月就已入侵系统,获取了部分用户的账户信息,并可能试图访问未公开的内部数据或窃取与模型训练相关的信息。
Malwarebytes目前正在深入调查此事,以确定此次数据泄露的具体范围。初步调查显示,此次事件可能涉及到大量用户的个人信息,包括但不限于用户名、密码和电子邮件地址。此外,还可能存在其他敏感信息泄露的风险,例如OpenAI API密钥等。
针对此次泄露事件,用户应立即采取行动,保护自己的账户安全。例如,及时更改密码,启用双重验证,并定期检查账户活动是否存在异常。同时,避免点击不明链接或下载可疑文件,以防范钓鱼攻击。
为了更好地保护用户数据,Malwarebytes建议OpenAI采取以下措施:
1. 加强账户安全措施。
2. 实施多因素身份验证(MFA)。
3. 定期审查账户权限,确保只有授权人员才能访问敏感数据。
4. 及时发现并修复ChatGPT中可能存在的安全漏洞。
目前,Malwarebytes Labs正在密切关注事态发展,并将持续发布有关ChatGPT安全风险的最新信息。同时,建议用户加强安全意识,采取必要的防护措施。
安全建议:
务必警惕BreachForums上泄露的OpenAI ChatGPT用户信息,密切关注账户安全。
加强账户安全防护,定期更改密码,启用双重验证,并检查账户活动记录。
OpenAI应立即采取行动,加强账户安全措施,并修复潜在的安全漏洞。