摘要:该女子在某酒店平台预订客房后,在填写点评环节上传了若干照片,其中一张包含了她本人裸露上身的不雅画面。她未发现图中问题,直到有网友留言提醒后才察觉错误,随后尝试联系酒店和平台客服删图,却遭遇权限限制——点评一旦发布,仅支持举报复审,无法立即删除。最终,这张图不仅
据报道,该女子在某酒店平台预订客房后,在填写点评环节上传了若干照片,其中一张包含了她本人裸露上身的不雅画面。
她未发现图中问题,直到有网友留言提醒后才察觉错误,随后尝试联系酒店和平台客服删图,却遭遇权限限制——点评一旦发布,仅支持举报复审,无法立即删除。
最终,这张图不仅未能及时下架,还在社交平台传播,引发热议与二次伤害。
这不是平台第一次出现图文误审问题,但这次不同——当用户自己上传“敏感照片”时,是否有人或某种机制能“喊停”?
AI 图像审核技术早已普及于大平台,用于识别:
裸露部位、人脸特征、儿童隐私、暴力画面等内容;图像中是否出现“高风险区域”(如浴室、卧室);上传瞬间即可实时判断“疑似不雅图”,弹窗提醒:“此图可能包含隐私信息,是否确认公开?”以 Amazon Rekognition、百度内容审核系统、阿里云内容安全为例,这类系统可做到:
0.5秒内判断图像是否涉私、涉黄、涉暴;提供模糊预览+二次确认,防止误操作;针对“用户本人上传”场景,打标签提示“不建议公开”;若用户选择忽略,系统仍会保留风控日志供平台后审查。但很多平台并未将此机制全面部署到点评区、论坛等“次要曝光区”,这也正是问题的根源。
来源:水木长龙探索科学宇宙