南通第二机床有限公司

中国平面磨床四大生产基地,专业生产立轴磨床、卧轴磨床、龙门数控磨床

0513-87119922
新闻动态

有偏见和错误?码头中的面部识别技术

发布时间:2019/7/6
  世界各地的警察和安全部队正在测试自动面部识别系统,以此来识别犯罪分子和恐怖分子。但是技术的精确程度以及技术和人工智能(AI)的动力是多么容易成为压迫的工具?
  想象一下,一个可疑的恐怖分子在一个人口稠密的市中心开始自杀任务。如果他引爆炸弹,数百人可能会死亡或受到严重伤害。
  人群中的CCTV扫描面孔捡起他并自动将他的特征与已知恐怖分子数据库或安全服务“感兴趣的人”的数据库上的照片进行比较。
  该系统发出警报,并迅速部署反恐部队前往现场,在他触发爆炸物之前,他们“中和”嫌犯。拯救了数百人的生命。技术节省了一天。
  但是如果面部识别(FR)技术错了呢?这不是一个恐怖分子,只是一个不幸的人看起来很像。一个无辜的生活本来会被扼杀,因为我们对一个错误的系统过于信任。
  如果那个无辜的人是你呢?
  这只是FR提出的道德困境之一,也是支撑它的人工智能。
  训练机器“看” - 识别和区分物体和面部 - 是众所周知的困难。计算机视觉,有时被称为 - 不久之前,很难说松饼和奇瓦瓦之间的区别 - 这项技术的试金石。
  谷歌伦理人工智能团队的计算机科学家兼技术联合负责人蒂姆尼特·格布鲁(Timnit Gebru)表示,面部识别更难以区分男女肤色。皮肤黝黑的女人更容易被误认为男人。
  “大约有1.3亿美国成年人已经进入人脸识别数据库,”她在5月日内瓦举行的人工智能高峰会上表示。“但是原始数据集主要是白人和男性,因此偏向于较深的皮肤类型 - 皮肤类型和性别存在巨大的错误率。”
  加利福尼亚州的旧金山市最近禁止运输和执法机构使用FR来承认其不完善和对公民自由的威胁。但美国和世界其他国家的其他城市正在试用这项技术。
  例如,在英国伦敦南威尔士的警察部队。曼彻斯特和莱斯特一直在测试这项技术让自己和大哥观察等公民自由组织感到震惊,两者都关注系统制造的错误匹配数量。
  这意味着无辜的人被错误地认定为潜在的罪犯。
  “每个人都应该担心偏见,”格布布女士说。“预测性警务是一个高风险的场景。”
  美国黑人占美国监狱人口的37.5%(来源:联邦监狱局),尽管他们只占美国人口的13% - 用这些数据集提供的写得不好的算法可能预测黑人更有可能作案。
  找出这可能对警务和社会政策产生什么影响并不需要天才。
  媒体标题一名男子在反对拍摄后被罚款90英镑
  就在本周,埃塞克斯大学的学者们得出结论认为,伦敦大都会警察审判中的比赛在80%的时间内是错误的,可能导致严重的司法不公和侵犯公民隐私权。
  一名英国男子埃德·布里奇斯(Ed Bridges)在购物时拍摄照片后,对南威尔士警方使用该技术提出了法律质疑,英国信息专员伊丽莎白·德纳姆(Elizabeth Denham)对缺乏法律框架管理表示担忧使用FR。
  但这种担忧并没有阻止科技巨头亚马逊将其Rekognition FR工具出售给美国的警察部队,尽管股东的半心半意叛乱一无所获。
  亚马逊表示,它对客户如何使用其技术不承担任何责任。但是将这种态度与客户关系管理技术公司  Salesforce的态度相比较,后者开发了自己的图像识别工具,称为爱因斯坦视觉。
  “面部识别技术可能适合在监狱中跟踪囚犯或防止帮派暴力,”Salesforce的道德AI实践架构师Kathy Baxter告诉BBC。“但是当警察想要在逮捕人员时使用它们的身体照相机时,我们认为这是不恰当的。
  “我们需要问一下,在某些情况下我们是否应该使用人工智能,面部识别就是一个例子。”
  现在FR也被军方使用,技术供应商声称他们的软件不仅可以识别潜在的敌人,还可以识别可疑行为。
  但红十字国际委员会(红十字委员会)总干事伊夫·达科德对这些事态发展表示严重关切。
  “现在战争是高科技 - 我们拥有自主无人机,自主武器,在战斗人员和非战斗人员之间作出决定。他们的决定是否正确?他们可能会产生大规模杀伤力,”他警告说。
  因此,似乎越来越多的全球共识认为人工智能远非完美,需要调节。
  “将AI留给私营部门并不是一个好主意,因为人工智能可以产生巨大影响,”国际电信联盟电信标准化局局长Chaesub Lee博士总结道。
  “使用好的数据至关重要,但是谁确保数据是好的?谁能确保算法没有偏见?我们需要多利益相关方,多学科的方法。”
  在那之前,FR技术仍然受到怀疑和审查。捷豹路虎宣布推出电动汽车投资