摘要:北京星也律师事务所高级顾问于泽辉告诉《IT时报》记者,AI眼镜可能会在数据隐私、告知与同意、知识产权、产品责任和算法伦理五个方面带来风险,而行业技术赋能、法律机制保障和厂商设计理念是保障合规的三大基石。首先是数据隐私方面,根据《中华人民共和国个人信息保护法》等
北京星也律师事务所高级顾问于泽辉告诉《IT时报》记者,AI眼镜可能会在数据隐私、告知与同意、知识产权、产品责任和算法伦理五个方面带来风险,而行业技术赋能、法律机制保障和厂商设计理念是保障合规的三大基石。首先是数据隐私方面,根据《中华人民共和国个人信息保护法》等相关法律法规,企业在收集、处理、存储和使用个人信息时,必须遵循最小化原则、告知同意原则,并采取必要的技术和管理措施确保数据安全。这就要求企业在产品的出厂设置时,就应是最高隐私保护级别,且使用过程中,只收集与产品核心功能直接相关且必需的数据。面部、指纹、语音、生理特征等属于敏感个人信息的数据,拍摄采集前必须取得用户的单独同意,并明确告知处理目的、方式和范围。对于公众而言,面对AI眼镜的拍摄都“有权让其停下”。于泽辉建议,AI眼镜厂商一方面应该把“强提示”做成一种设计美学,它可以是镜框上一圈优雅的光晕,或是一种独特的、无法被禁用的声音提示;另一方面可以设置特定手势,如对方举起手掌,AI一旦识别到便立刻停止录制。“AI眼镜的想象力远不止于拍摄,更在于其背后的AI分析能力。如果未来集成人脸识别、情绪分析或身份标签等功能,新的风险便会层出不穷。”于泽辉进一步建议,在算法模型上线前,需建立算法审查机制进行严格的伦理审查和偏见测试,并记录在案;产品设计中,也需提供一个清晰、便捷的开关,允许用户一键关闭所有基于个人信息的个性化推荐和分析功能。排版/ 季嘉颖图片/ IT时报 Meta 东方IC 豆包AI来源/《IT时报》公众号vittimesE N D 来源:爱就对了a
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!