每一个开发和部署人工智能的企业都需要在不暴露商业机密的前提下推广自己的技术。事实上,从情绪智力的角度来说,最合适的一种解决方案就是展示AI背后的开发人员,而不是去展现算法。向公众展示是谁开发了AI,此外更重要的一点是,为什么他们会想要开发这项技术。
然而,复杂的系统却并不能简化为其组成部分,通常这是一种形成现象。作为一个复杂的系统,人工智能其实是形成产物。部分组合在一起时与其单独运行时起到的作用是不同的,且它们主要受外界因素和数据组的影响。这就使得AI具有更大的神秘性和不确定性,因此也是不值得信任的。
展现企业的自我意识并首度承认对于未知的恐惧,这样才能够建立起真正的连接,“触发”人类信任。触发人类信任则是企业沟通功能的职责所在,此外还要辅以领导层的努力。
就拿戴尔为例吧。通过将用户置于生产力的最佳区域,它创建出了一种以人为中心的人工智能技术。其AI能够改进工作体验。它创造出了用户的数字化身,负责处理那些日常琐碎的计算任务。这样一来,用户本身便可以专注于处理更为重要的一些工作,而不必将精力浪费在整理收到的垃圾邮件上。
权力越大,社会责任也越大。
致力于此,人类终将无惧。
他们会如何描述预期带来的影响?
有一个众所周知、但大家却不愿承认的事实:人们通常不喜欢那些自己不信任的事物,也不会信任那些自己无法理解的事物。
专家称以下这些方式可以帮助AI领导者在其企业或整个行业内设定标准,共同发力来弥合信任鸿沟,从而确保大家能够更好地理解并采用人工智能技术。
格鲁斯解释道,错综复杂(complicated)的系统并不等同于复杂(complex)的系统,这是因为前者涉及到精密的设计,需要借助人类的专业知识加以理解。最重要的是,它们是部分的整合。如果发生了什么悲剧性的事件,比如说空难,这可能是源于系统内出现的一个问题。
在IBM建议的问题之外,我想每一位负责开发人工智能产品的人员都应当回答以下这些问题:
像人工智能这类复杂的技术需要采用一种新的方式来建立信任。
别弄错了——透明度并不意味着要你去揭露算法或是商业机密。这指的是满足公众理解技术背后意图和考量的需要。
为了完成这种认知的建立,AI企业的沟通战略应重点关注人类价值观以及采用技术后用户所要肩负的责任,进而达到教育和解释的目的——这种方式要比提供技术细节信息更有效。
“如果企业能让他们的技术专家和数据科学家走到幕前,向大家表明这些是真实的人类,那就足以证明他们对于AI技术编程的态度,即是真实的人类在为自己的同胞开发人工智能技术。”波兰科兹明斯基大学及麻省理工学院斯隆管理学院的AI研究员Aleksandra Przegalinska解释道,“这将消除黑匣子心态。”
编者按:人工智能技术的问世催生了外界对于科技的质疑与不信任。关于AI将取代人类的言论至今还甚嚣尘上,可实际上对于开发AI的技术专家来说,他们的本意更多是借助技术造福人类。那么,公众与先进技术之间存在的信任鸿沟应当如此弥合?在本文作者Meghan E. Butler看来,企业领导者需要肩负起这一重担,人类也需要提高情绪智力。本文编译自Fastcompany平台上原文名为《The secret to rebuilding trust in tech: More emotionally intelligent humans》的文章。
“我们应当提供更多信息。对于这些未来将使用此技术的人来说,透明度能够帮助建立信任。”IBM的人工智能伦理道德全球负责人弗朗西斯卡·罗西(Francesca Rossi)说道,“我们相信人们会逐渐意识并理解开发者的考量。《Everyday Ethics for Artificial Intelligence》中列出了七大要求以及每一位人工智能团队成员都需要回答的问题。”
坦白意图
Cambria AI的格鲁斯表示:“在科技驱动的经济体下,掌握大权的是那些拥有技术专业知识和资本的人。”
“如果AI无法减轻人类肩上的担子或是让他们享受其中,那么它也不会取得成功。”戴尔EMC的总裁兼首席技术官约翰·罗伊斯(John Roese)表示,“我们衡量成功的一个标准便是看其能否改进人类的状态。最佳的判断方式就是评估人类使用该技术后承担的压力大小。他们是否感到受挫?他们的生物物理指标能否表明他们在完成这些任务上所耗费的精力变多还是变少了?”
神译局是36氪旗下编译团队,关注科技、商业、职场、生活等领域,重点介绍国外的新技术、新观点、新风向。
不会取代人类
“和职场性骚扰问题的相关培训一样,企业也应当设置情绪智力课程,网页游戏私服推荐,尤其是要为那些设计模型的数据科学家准备。”IBM的物联网和数字部门主管丽莎·西卡特·德卢卡(Lisa Seacat DeLuca)说。
对于那些处于创新圣地之外、却希望能采用创新产品的我们来说,单单是承认缺失的事实还不足以触动我们的信任。信任需要维系,为此明确性和透明度必不可少。
也许意义最为深远的一点是,几乎所有人都以直接或间接的方式点明了一件事:就那些为人类服务且由人类创造的技术来说,弥合信任鸿沟的秘诀在于人性——情绪智力。
“黑匣子”效应指的是决策和举措的制定都是背着大家的,且超出了集体认知范围。该效应便是造成人类与先进技术之间信任鸿沟的元凶。这也表明,信任鸿沟的出现源于大范围内的沟通缺失。
这样一来,人们在当下就陷入了一种进退两难的境地:利用好先进的技术,这意味着我们既要理解那些优化人类生存体验的变革性发展,还要弄明白那些“思考型”机器和人工智能技术带来的未知结果。
关于正在开发的技术,他们是怎么认为的?
他们希望达成什么结果?
也许最为重要的是,为什么他们会想要开发这项技术?
承认信任鸿沟的存在
为什么会信任这项技术?
展示AI背后的开发者,而不是展现算法
对于大多数分析型和技术型的思考者来说,一个亘古不变的痛点在于,人类本身就是混乱、非线性且无法优化的。因此,与其要求他们回答关于终端用户的问题,还不如让他们回答关于自己的相关问题。