»
首页
|
手机数码
|
汽车资讯
|
游戏硬件
|
评测专题
|
手机壁纸
|
海淘值得买
|
度假
|
求职招聘
|
广告联系
» 您尚未登录:请
登录
|
注册
|
标签
|
帮助
|
小黑屋
|
TGFC Lifestyle
»
完全数码讨论区
» 苹果放弃了扫描手机上儿童色情的 CSAM 计划
发新话题
发布投票
发布商品
发布悬赏
发布活动
发布辩论
发布视频
打印
苹果放弃了扫描手机上儿童色情的 CSAM 计划
一只纯猪头
魔王撒旦
帖子
7732
精华
0
积分
18297
激骚
752 度
爱车
主机
相机
手机
注册时间
2009-7-21
发短消息
加为好友
当前离线
1
#
大
中
小
发表于 2022-12-11 10:33
显示全部帖子
posted by wap, platform: iPhone
引用:
原帖由 @你才是受 于 2022-12-8 18:11 发表
你怎么判定练不练?我家的娃一两岁的视频,很多就是小jj到处露出的
苹果这个不是AI识别到儿童裸露就上报
而是已经有一个被判定为儿童色情图片的数据库,只有你手机里的照片被判定为属于这个数据库才会触发上报
但是这个行为有两个关键点
第一这个扫描是不是侵犯隐私,目前肯定是侵犯了,这种隐私并不是每个人都愿意度让的,而且打击儿童色情,是不是必须如此,是有争议的
第二所有系统都不是100%不出错,出错之后就涉及了人类审核,而如何保证在人类审核这个环节,依然具有良好健全的隐私保护以及统一的道德底线,就很难。最简单的例子国内各种弱智审核导致很多正常内容也不能以正常的形式播放。此外苹果也曝光过siri的语音口令在没有经过用户知晓的情况下转给人工处理(虽然其他厂家都这么做),照片包含的信息量更大也更隐私,然后有可能随机会发给别人审核,这种时候恐怕就绝大多数人都不愿意
说到底这个行为与苹果一贯宣传的注重隐私背道而驰
本帖最后由 一只纯猪头 于 2022-12-11 10:36 通过手机版编辑
UID
138808
帖子
7732
精华
0
积分
18297
交易积分
0
阅读权限
40
在线时间
65535 小时
注册时间
2009-7-21
最后登录
2024-8-17
查看详细资料
TOP
控制面板首页
密码修改
积分交易
积分记录
公众用户组
基本概况
版块排行
主题排行
发帖排行
积分排行
交易排行
在线时间
管理团队
管理统计