OpenAI揭露多中国团体恶意用ChatGPT,安全风险骤升

OpenAI最新披露的中国团体利用ChatGPT进行恶意活动,警示AI安全治理亟待升级,全球网络安全形势更加复杂严峻。

事件时间

  • 事件发生时间:2025年春季至6月初
  • 报道时间:2025年6月5日

事件概述

2025年6月,OpenAI通过其安全监测系统发现,越来越多来自中国境内的组织利用ChatGPT智能对话工具开展恶意活动。具体包括批量生成钓鱼邮件、自动化诈骗脚本、制造虚假信息,以及生成恶意代码等违法违规内容。自2024年底起,OpenAI加强了对用户行为的异常监控,2025年春季系统频繁检测出源自中国大陆的异常调用,表现为批量且高频率利用ChatGPT接口从事恶意用途。6月初,OpenAI官方确认此情况,并通过路透社发布相关报道,呼吁全球加强AI安全监管和跨国合作防范滥用风险。

行业影响

此次事件凸显了AI技术在全球网络安全治理中的严峻挑战。恶意利用AI自动化生成钓鱼邮件和虚假信息,极大提升了网络攻击的效率和隐蔽性,威胁升级。OpenAI及其他AI厂商面临更大压力需加强滥用防控和安全投入,可能加剧使用限制和监管成本。同时,事件加深了国际社会对中国网络安全行为的关注,增加技术合作与政策协调摩擦,促使中国加快网络安全法规和AI应用标准的完善。业内专家呼吁国际社会建立更完善的跨国AI治理框架,共同应对AI滥用带来的风险。

信息来源