随着人工智能大模型在各行业的广泛应用,这位“数字助手”在带来便利的同时,也引发了新的安全隐患。国家安全部门近期披露的案例显示,部分机构因不当使用开源AI工具,导致内部数据面临泄露风险。
某单位工作人员在处理内部文件时,违规使用开源AI工具,由于系统默认开启公网访问且未设置密码,导致敏感资料被境外IP非法访问和下载。这一事件暴露出开源框架在网络安全防护方面的薄弱环节。专家指出,开源大模型虽具有免费使用的优势,但其架构、参数和训练数据的公开性,使得数据安全成为首要挑战。
中国网络空间安全协会人工智能安全治理专业委员会委员王媛媛解释,开源大模型是指将模型核心代码、参数和训练数据向公众开放的AI系统。这类模型功能多样,有的擅长逻辑推理,有的精通代码编写,还有的能处理文本或影像数据。例如,用户上传体检报告后,模型可分析身体异常并提供调整建议。然而,这种便利性背后隐藏着数据泄露风险。
专家特别强调,AI工具的存储功能常被用户忽视。所有输入模型的文件、图片等数据都会被系统自动保存,这是其进行分析的基础机制。若企业将机密数据上传至开源平台,相当于主动将信息暴露在潜在威胁之下。开发者因拥有系统权限可查看数据,黑客则可能通过攻击模型漏洞入侵后台,两种途径均可能导致数据泄露。
针对普通网民,专家建议避免在开源AI工具中输入个人敏感信息,如身份证号、银行账户等。企业用户若需使用开源模型训练自有数据,应采取私有化部署方案,将所有数据存储在本地服务器,并配备专业团队维护系统安全。这种方案虽需投入基础设施和人力成本,但能有效阻断数据外流途径。



