打开人工智能的“黑匣子”,让AI更加透明

科技动态 IT之家 (源链)

数以百万计的人每天都在以某种形式使用着人工智能(AI),而其中大部分都是在不知不觉中进行的。全世界的人们都在通过手机上的、或者其他平台上的应用来使用它。

例如,谷歌搜索提示、Facebook好友建议、自动更正和预测文本都是通过使用人工智能技术进行的。正因为如此,比以往任何时候都更重要的是,我们需要在全球范围内提高人工智能的透明度,从而能够了解这项技术的工作原理,然后做出决策,并为医疗和金融等行业提供关键的应用程序。

我想我们都应该认可赋予的人工智能权力不应该凌驾于法律之上,但与此同时,人工智能技术也不应受到过于严格的监管。至少在彻底分析新标准和新规是否能保护消费者、或者实际上能限制其往坏的方向发展之前,我们不应该这样看待人工智能。分析的范围应该集中在人工智能的当前应用下、它在新领域的部署对经济的潜在影响、以及公众对该技术看法的评估等方面。

与此同时,我们这些在全球科技圈研发人工智能的人需要共同解决其可审核性和透明度的问题。我们应该致力于投资新兴人工智能技术的研发,而这正是许多人在仅仅观察算法层面上是无法理解的。值得肯定的是,企业、政府和学术领域的利益相关方都有责任帮助人们理解人工智能何时对于他们最有用,为什么它能提高生产力,以及很重要的一点,关于收集相关数据以呈现出人们互动的方式。

打开人工智能的“黑匣子”

加强和扩大人工智能透明度、知识和理解的关键需要从几个方面来说,接下来让我来说明。

与人工智能互动的每个人都应该意识到这并不是人类在跟我们对话,而且,在此应用下人类也不应该假装成机器人。利用人工智能技术进行客户和人员互动的公司应该清楚地知道其产生的数据将会带给他们什么。与人工智能驱动的平台和系统进行聊天测试的人应该需要记录他们的谈话记录,并在出现差异、问题或需要确认的情况下对他们进行调整。

为企业和企业应用开发人工智能的人需要负责任地创建、获取和测试各种数据。我们需要引入偏差检测测试,以确定人工智能是否符合标准和商定的测试协议。或者我们具体来说,在人工智能测试实验结束之前,工程师需要模拟和掌握其体内的数据集如何在各种环境中与用户交互的情况。

工程师需要测试产品以确保它们不会对人类有害。为了保护用户,他们对人工智能应用的可用性、安全性、可扩展性和安全性进行产品测试,但目前还没有对它们在社交、道德或情感方面可能对人类造成的伤害做相关的测试。作为一个新兴行业,我们为什么不在开发周期添加偏见测试,以确保人工智能应用程序中的算法不存在偏见,从而不会造成对用户慢性的或传统意义上的伤害呢?

人工智能工程师还需要与公司内外的同行分享他们对于人工智能的最佳实践成果和消除传统观念的新发现。他们需要确保他们正在开发的人工智能和它所使用的数据能够反映使用者们需要得到的信息的多样性。最重要的是,当技术出现问题时,企业需要做出艰难的决定来阻止人工智能,例如设置避免偏见性算法或提高算法的透明度。通过确保技术和数据是多样的、客观的和无缺陷的,当人们试图获取这些信息时将不会遇到太多的偏见性问题。

人工智能行业应该实现自我管理,并与企业董事会和管理团队目标保持一致。这些要求应该有一个统一的,并且是可选择的原则准则,比如我们在Sage上发布的用于开发和应用人工智能解决方案的人工智能伦理指南。政府和企业之间也应该建立合作伙伴关系,这样他们就可以实时分享关于人工智能安全相关的信息。假如实现这样的真正伙伴关系的话,这会极大地提高人工智能使用的透明度,并可以为其他考虑转向“人工智能用于商业发展、公共服务和社会公益”为目标的司法管辖区提供了范例。

公司考虑应该对人工智能进行内部审查去了解人工智能在哪里可以得到最大化应用,以及需要培训多少人才能更好地实施人工智能驱动的服务。他们应该创建培训和加速劳动力的相关项目,以鼓励更多具备人工智能研发技能的人才从事技术驱动这项工作。

人工智能实现透明化是一项全球性的努力

从根本上讲,我们的科技社区需要定义人工智能透明化的含义并共同努力,将透明度应用于创新人工智能技术中。我们需要停止持有将人工智能视为一个黑匣子的这种观念,并解决其可审计性和可追溯性问题,而解决这些问题将引领我们走上正确的道路。我们需要普及关于人工智能的知识,并阐明它的无数用例——从技术到医疗,从交通到社会安全再到家庭生活。

由于当前缺乏人工智能的透明度和教育,导致人们对这一将来发展所需要的重要技术产生不信任。如果我们能够将这个问题作为一个正式行业来面对,那么我们将能够通过像人工智能这样的技术来真正实现信息的民主化,而这将把我们集中成一个全球性的科技和用户群体。

如果需要争取普遍透明度,我们必须在算法和数据层面上来实现它。全球人工智能社区需要共同努力,通过适当的测试、培训和教育来遏制、消除偏见,这也是我在职业生涯中一直致力于做的事情。而且我并不是唯一一个这样做的人,包括英国议会的人工智能委员会、纽约大学的人工智能学院和麻省理工学院媒体实验室的人工智能和治理倡议等项目,都在努力打造透明的、合乎道德的人工智能。我们仍有很多工作要做。但人工智能的透明化是我们非常值得努力去实现的。

您可能感兴趣的

为什么我们对人工智能的这些预测都不准?... 1997年,IBM的深蓝击败了国际象棋冠军Gary Kasparov,这是人工智能技术首次在一项智力水平要求很高的项目中战胜人类专家。更令人印象深刻的是,那时还是1997年,计算机的计算能力远不如现在。1997年,我的电脑连联网都非常慢。电脑时不时发出的声响预示其不堪重负。 “深蓝”的胜利...
Artificial Intelligence Today: Time to Act The AI and advanced analytics conversation has risen all the way to C-suite. The time has come to act. Jump on the AI train soon or you will be left b...
DeepMind has yet to find out how smart its AlphaGo... Once Alphabet’s artificial intelligence company DeepMind had masted the ability to defeat the best human Go players in the world, it tried to beat ...
可以“听懂”健康状况的情绪智能,如何完成患者的护理工作?... “情感计算”领域已经存在好多年了。研究表明,如果我们要想与机器人进行互动或者是舒适地生活在一起,这些机器应该去理解人类的情绪并适当地对这些情绪做出反应。而这片领域里还有很大的进步空间,可能性是巨大的。 基于 AI 的虚拟助手正在快速发展,越来越多的人也希望“机器”能够在情感上更进一步 —— 在言...
麦肯锡报告:如果再不转型人工智能,这些行业将被越甩越远... 编者按:本文由 “机器之心” 编译。 在经历了几十年起起伏伏的发展后,人工智能终于开始为企业带来实实在在的价值。近日,麦肯锡发布了一份长达 80 页的报告《人工智能:下一个数字前沿?(ARTIFICIAL INTELLIGENCE:THE NEXT DIGITAL FRONTIER?)...
IT之家责编内容来自:IT之家 (源链) | 更多关于

阅读提示:酷辣虫无法对本内容的真实性提供任何保证,请自行验证并承担相关的风险与后果!
本站遵循[CC BY-NC-SA 4.0]。如您有版权、意见投诉等问题,请通过eMail联系我们处理。
酷辣虫 » 打开人工智能的“黑匣子”,让AI更加透明



专业 x 专注 x 聚合 x 分享 CC BY-NC-SA 4.0

使用声明 | 英豪名录