享受“智能红利”勿忘保护隐私安全
当前,各种人工智能软件、办公自动化工具密集涌现,人工智能正从“能回答问题”走向“能执行任务”。然而,有用户反映在使用某些App和人工智能工具时,被提示存在信息泄露和高权限运行风险。当智能化应用进入日常生活,用户隐私该如何保护,发展和安全如何统筹?
过去说隐私泄露,人们往往想到平台漏洞或信息贩卖。而在人工智能时代,看似普通的单次数据调用、单个操作,经由信息整合、归纳、推断后,就可能还原出远超用户预期的个人画像。隐私风险不单来自恶意盗取,也可能出现在系统“正常运行”的过程中。
更值得警惕的是,一些产品为制造爆点不断放大自动化能力,弱化了风险提示、边界说明和操作约束。用户看到的是“更聪明”“更省事”,却未必知道背后意味着怎样的数据调取。尤其普通用户与技术提供方之间本就存在明显的信息差,如果平台把复杂风险包裹在便捷体验之中,把本该由产品承担的安全责任转化为用户自行承担的使用风险,那么“智能化红利”就可能演变为新的焦虑源。
处理好发展和安全的关系,要把安全前置到产品设计阶段,落实“最小必要原则”。哪些权限是完成任务所必需的,哪些关键操作必须经过再次确认,都应当在设计之初就讲清楚。涉及文件删除、数据导出、账户调用、支付验证等高风险操作,不能靠一次笼统授权就一路放行,而应建立清晰的分级授权、即时提醒和可撤回机制。
隐私保护不能只寄希望于用户“自己多留个心眼”。人工智能高度专业化、快速迭代,让普通人逐项看懂接口权限、数据流向和模型逻辑并不现实。对于高风险应用,应建立更有针对性的分类分级治理机制,对数据收集、插件接入、自动决策等环节设置更细致的规范要求。企业应增强测试验证能力,完善兼容性评估和安全审查,少一些“先上线再优化”的侥幸。
监管部门应尽快细化相关规则规定,围绕数据收集、权限调用、插件接入、自动决策等关键环节,明确权限与责任;强化安全测评、风险备案,督促企业把分级授权、操作确认等要求落到产品设计中。此外,还应加强风险提示和日常巡查,对诱导过度授权、模糊权限边界、侵害用户权益等行为及时纠偏、依法查处。
安全不是发展的对立面,隐私也不是创新的包袱。只有把用户权益放在更突出的位置,把风险治理嵌入创新过程,人工智能才能在释放红利的同时减少不安、赢得信任,走上健康的发展轨道。(本文来源:经济日报 作者:刘沛恺)
(责任编辑:冯虎)
财经号声明: 本文由入驻中金在线财经号平台的作者撰写,观点仅代表作者本人,不代表中金在线立场。仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。同时提醒网友提高风险意识,请勿私下汇款给自媒体作者,避免造成金钱损失,风险自负。如有文章和图片作品版权及其他问题,请联系本站。
