研究团队利用无人机和AI技术识别人群中的暴力行为,但涉及该领域的研究引发道德担忧
2018年06月07日 由 浅浅 发表
592797
0
随着公司和研究人员找到使用机器学习分析实时视频片段的新方法,自动监控将变得越来越普遍。英国和印度科学家的一个新项目显示了该技术的一个可能用途:在配备相机的无人机的帮助下,识别人群中的暴力行为。
研究人员在题为“Eye in the Sky”的论文中描述了他们的系统。它使用一个简单的Parrot AR四轴飞行器(大约200美元),通过移动互联网连接传输视频片段以进行实时分析。一种使用深度学习训练的算法估计视频中人类的姿势,并将它们与研究人员指定为“暴力”的姿势相匹配。就该项目而言,仅包括五个姿势:勒伤,拳打,脚踢,射击,刺伤。
科学家们希望像他们这样的系统能够用来检测公共场所和大型活动中的犯罪行为。
[video width="1280" height="720" mp4="https://www.atyun.com/uploadfile/2018/06/Eye-in-the-Sky_-Real-time-Drone-Surveillance-System-DSS-for-Violent-Individuals-Identification.mp4"][/video]
但是,这项研究面临的困难主要在于其准确性。剑桥大学的首席研究员Amarjot Singh和他的同事们报告说,他们的系统在识别“暴力”姿势时准确率达到了94%,但他们指出,出现在框架内的人越多,准确度就越低(当10个人在场时,精度降到了79%。)
但更重要的是,这些数字并不代表现实世界的用法。为了训练和测试他们的人工智能,研究人员录制了假装互相攻击的志愿者视频剪辑。志愿者以夸张的动作相互攻击。Singh承认,监视系统在现实中表现不一定会这样完美,但他表示他计划在印度的两个即将到来的节日中测试无人机:Technozion和Spring Spree。
在这个领域工作的研究人员经常注意到,分阶段测试和实际使用情况之间存在巨大差异。在后者中,录像通常模糊不清,人群更多,人们的行为更加微妙,更容易被误解。最后一点尤其明显,因为Singh和他的同事没有提供任何有关系统误报率的数字,例如,它将非暴力行为确定为暴力行为的频率。
使用AI来识别身体姿势有很多常见问题,像Facebook这样的大型科技公司发布了有关该主题的重要研究。随着廉价无人机和快速移动互联网的兴起,捕捉和传输实时视频画面比以往更加容易。把这些放在一起创造出复杂的监控并不难。
问题是:这项技术将如何被使用,谁将使用它?说起濒临今年早些时候关于自动监控,这些系统已经成熟,可以由执法者和独裁政府滥用,一些专家对此表示担忧。
ACLU高级政策分析师杰伊斯坦利说,这项技术将对公民社会产生令人不寒而栗的影响,因为人们担心他们会不断受到监控和分析。
研究人工智能的社会影响的研究人员Meredith Whittaker在推文中说,Singh及其同事的论文显示,该领域存在日益严重的道德危机,科学家未能检查他们正在帮助构建的技术的潜在滥用情况。
Singh表示,尽管受到这些批评,它可能会对停止犯罪和恐怖主义产生积极影响。他建议制定新的规定,以免这种技术被滥用,但他承认Whittaker和Stanley所说的令人担忧的情景确实存在,“事物都有其两面性。”