国家安全部今天发表文章,提供安全提示。在使用人工智能备课后,高中老师小李能够在五分钟内创建一个包含照片、视频和互动问答的动画且引人入胜的教案。 “以前我要花两个小时备课,但现在我可以节省时间,关注学生的个人情况,定制独特的一对一练习。”独居老人陈爷爷通过孩子送给他的智能音箱找到了新的娱乐方式。 “小智不仅陪我听戏、聊天,当我忘记吃药时,她还会主动提醒我。事实上,我孙子们的生日她都记得。”小王今年29岁,原本是一名文案。由于擅长与AI“对话”,他快速成功转型为一名会说话的工程师。 “关键是要确保说明足够清楚。”从智能客服到人工智能制图员,大模型正在创造以前从未见过的新工作。如今,大规模的人工智能模型正在加速为数千个行业提供动力,推动人们生活的快速变化。他们作为有能力和支持性的“数字合作伙伴”正在加速融入我们的日常生活。然而,技术的进步总是带来新的挑战。随着人工智能变得更加广泛和集成,它也暴露了数据隐私和算法偏差等潜在风险。我们迫切需要构筑安全防线,推动这场深刻的智能化变革,保障更加美好的未来。快速发展背后的“暗礁”是数据隐私与安全之间的模糊界限。一些部门直接使用开源框架构建大规模网络模型,让攻击者在未经授权的情况下无限制地访问内部网络,导致数据泄露和安全风险。据爆料,该单位一名员工在工作中非法使用开源人工智能工具n 处理内部文件。计算机系统默认使用公共网络。由于允许工作访问且未设置密码,因此外部 IP 可以非法访问和下载敏感数据。 ——滥用技术和制造虚假信息。这项利用AI深度学习算法进行自动数据处理,实现图像、音频、视频的智能模拟和篡改的技术,被称为深度造假。如果这项技术被不当或恶意使用,就会给人们的合法权益、社会稳定乃至国家安全带来诸多风险和挑战。国家安全局调查发现,境外某些反华敌对势力利用先进的“深度造假”技术,制作虚假视频并在境内传播,企图误导舆论、制造恐慌,威胁我国国家安全。 ——算法偏差与决策的“黑匣子”。 AI 决策e是根据学习到的数据制作的。如果训练数据本身存在社会偏见或低估等问题,大型模型可能会放大歧视。测试表明,一些人工智能系统地偏向西方观点。当研究人员用中文和英文向人工智能询问相同的历史问题时,发现英文答案故意回避或淡化某些历史事实,或者提供包含不正确历史信息的内容,造成重大误解,而中文答案则相对客观。安全规则:“数字合作伙伴”的3条规则——规则1:明确“活动范围”。启用“最小权限”,网络AI不处理敏感数据,语音AI不采集环境音频,智能助手不存储支付密码,禁用“数据共享”和“云空间”。 ——原则二:检查你的“指纹”。养成定期删除AI聊天记录、更改密码的习惯用于您的人工智能工具,更新您的防病毒软件,并检查您的帐户登录设备。同时,避免下载和使用来源不明的大型模型程序,并且请始终谨慎对待信用卡、银行帐户或其他机密信息的请求。 ——原则三:优化“人机协作”。在向AI提问时,消息中应明确禁止AI过度推理,并要求AI展示其来源或思维过程,对重要信息进行跨平台验证,并合理识别其产生的结果。尤其是在涉及政治、历史、意识形态等话题时,我们必须有独立思考的意识,辩证地看待人工智能的反应,避免陷入“人工智能的一厢情愿”。安全是发展的前提,发展是安全的保证。只有了解该技术并安全地使用它,大型新兴技术才能人工智能模型成为社会进步的积极力量。用户应注意安全,谨慎让大型软件报警。对于敏感数据向境外传输等危害网络安全等问题线索,可通过国家安全局举报热线12339、网络举报平台(www.12339.gov.cn)、国家安全部微信公众号举报举报渠道或直接向当地国家安全局举报。 (央视记者王莉)