Skip to content

Latest commit

 

History

History
105 lines (61 loc) · 7.15 KB

stop-in-the-name-of-ai-490b1cda26b.md

File metadata and controls

105 lines (61 loc) · 7.15 KB

以艾的名义住手!

原文:https://pub.towardsai.net/stop-in-the-name-of-ai-490b1cda26b?source=collection_archive---------1-----------------------

雅各布·莫奇的照片

一瞥 2019 AI UN 报告| 走向 AI

快速浏览联合国关于执法的人工智能和机器人的报告

每当我提到与人工智能(AI)有关的伦理时,在美国执法部门使用算法的例子就会不断出现。因此,我认为关于这个主题的文章早就应该发表了。也许没有关注大众化和经常讨论的具体案例。相反,我决定先快速浏览一下联合国关于这一主题的报告,并总结一下主要发现。

报告的背景

今年(2019 年)3 月,联合国区域间犯罪和司法研究所(UNICRI)、人工智能和机器人研究中心(Centre for Artificial Intelligence and Robotics)以及国际刑事警察组织(INTERPOL)创新中心(Innovation Centre)发布了一份名为《人工智能和机器人用于执法》的新报告。

该报告基于 2018 年 7 月 11 日至 12 日在新加坡举行的首届犯罪司法所全球会议关于人工智能和机器人技术为执法带来的机遇和风险的见解。自那时以来,发生了许多事情。事实上,上周,作为国际刑警组织世界的一部分,第二届国际刑警组织-犯罪司法所执法人工智能全球会议于 2019 年 7 月 2 日至 4 日举行。

国际刑警组织世界 是一个全球性的共创机会,让公共和私营部门参与对话,促进合作,以应对未来的安全和警务挑战。

来自报告的见解

我决定根据我感兴趣的内容,从这篇文章中选择一些要点,但是,你可能会自然地选择其他方面,或者觉得我错过了一些重要的东西。如果是这样的话,你可以在评论区告诉我,给我你的意见。

  • 犯罪分子正在利用技术,国际刑警组织-犯罪司法所必须做出回应。必须填补专业知识的空白。 众所周知,犯罪集团对利用技术并无保留,例如,从最早开始就利用移动电话和全球定位系统(GPS)设备,最近又转向暗网和加密货币,并利用网络漏洞。(p.iii)提高对犯罪和恐怖组织恶意使用人工智能的风险的理解并做好准备也很重要,包括新的数字、物理和政治攻击。可能的恶意使用包括人工智能驱动的网络攻击,假新闻的扩散,以及操纵视频和危及对政治人物的信任或质疑法庭上出示的证据的有效性的脸交换和欺骗工具。(第六页)
  • 值得关注的是国际刑警组织创新中心主任 Anita Hazenberg 和犯罪司法所人工智能和机器人中心主任 Irakli Beridze。看到他们讨论的主题和他们发布的研究将会非常有趣,这无疑是人工智能和安全讨论中的两个重要声音。
  • 某些用例正在实施然而在其他开发阶段还有更多。国际刑警组织的警察技术和创新雷达正在密切关注技术的新用途(主要是犯罪分子)。
  • 出席这些活动的安全机构群体似乎有兴趣参与关于人工智能伦理的讨论。 破解人工智能和机器人技术的道德使用面临的部分挑战是,执法部门和民间社会从不同的角度来看这个问题。从本质上说,执法的主要作用是保护社区及其公民免受伤害,在这样做的时候,它必须在安全和隐私之间找到平衡。(第 12 页)
  • AI 被形容为一把双刃剑。必须强调的是,人工智能和机器人技术在很大程度上是一把双刃剑,它可以导致执法部门处理警务的方式发生巨大变化,或者很容易增强犯罪或恐怖组织的作案手法,甚至创造出全新的犯罪类别。(第 5 页)
  • 该报告确定了三种类型的攻击:(1)数字攻击(网络),(2)政治攻击(媒体)和(3)物理攻击(无人机)

这里有一个案例列表,其中人工智能被直接从报告中引用:

a.自主研究、分析和回应国际司法协助请求

b.先进的虚拟尸检工具有助于确定死因

c.自主机器人巡逻系统

d.预测可能发生犯罪的地点和类型(预测性警务和犯罪热点分析),以优化执法资源

e.识别被盗汽车的计算机视觉软件

f.识别易受伤害和受剥削儿童的工具

g.识别商店扒手的行为检测工具

h.完全自主的工具,用于识别和罚款在线骗子

I .基于加密的数据包跟踪工具,使执法部门能够在不侵犯隐私的情况下处理安全问题。

人工智能执法伦理发展的四个特征

我发现该报告描述了执法中的人工智能和机器人应该具有四个特征:

公平:不应该侵犯权利,如正当程序权、无罪推定权、言论自由权和不受歧视权。

问责制:必须在机构和组织层面建立问责文化。

透明度:系统得出某个结论或决定所采用的路径不能是一个“黑箱”。

可解释性:一个系统的决策和行为必须是人类用户可以理解的。

报告中的建议

报告建议在五个领域采取行动。

(1)研究分析:

  • 人工智能和机器人的执法需求应该得到识别、结构化、分类和共享,以促进未来项目的发展。
  • 应该确定和绘制新的或正在进行的人工智能和机器人计划,并通知成员国的执法机构。
  • 执法部门收集和分析数据的可接受的法律和道德界限应该明确。
  • 应该研究利用人工智能解决隐私和责任问题的机会和技术。
  • 应该对涉及恶意使用人工智能和机器人的“新罪行”进行研究。

(2)意识:

  • 应该通过改善教育和信息交流,在执法机构中培养对人工智能和机器人问题的更高认识。
  • 人工智能和机器人技术的前景应该得到持续的监控。

(3)会议与协调:

  • 应通过年度会议保持论坛的活跃,如在国际刑警组织-犯罪司法所会议期间创建的论坛,以促进执法机构和志同道合的组织就人工智能和机器人技术开展进一步讨论。
  • 应当协调执法机构和其他相关利益攸关方之间的国际合作。
  • 应组织更多活动(会议、培训课程和研讨会),深入探讨特定主题,如监控和视频分析、预测性警务、无人机部署、执法中的道德数据收集和使用、反恐人工智能等。

(4)知识和信息共享:

  • 应促进全球执法机构之间关于人工智能和机器人的知识和经验的转移。
  • 应当鼓励和促进执法部门、学术界、行业伙伴和民间社会之间的关系。
  • 应当建立一个相互合作、协作和分享专门知识的平台。

(5)新工具:

  • 应该更加重视为全球执法机构开发和测试人工智能和机器人工具的试点项目。
  • 应向国际刑警组织成员国的国家中央局提供人工智能工具。

我希望这能对你有所帮助。

这是第 500 天的第 38 天。

什么是#500daysofAI?我正在挑战自己,用#500daysofAI 写下并思考未来 500 天的人工智能话题。一起学习是最大的快乐,所以如果你觉得一篇文章引起了共鸣,请给我反馈。