人工智能 · 2024年1月16日 0

人工智能无法改变企业,因为用户体验不佳

人工智能无法改变企业,因为用户体验不佳

随着人工智能算法渗入企业,组织学习和机器学习一般重要。机智的管理团队如何才能使更为智能的系统的经济价值最大化?

重新设计业务流程和更好的训练项目很重要,但是,上好的用例,即决定日常业务结果的实实在在的任务和交互,能够带来最大的收益。不在用例上深思,反倒给予智能算法过多的特权,这是我在现今企业AI项目当中见到的最恶性的错误。假若优化工艺技术优先于完成工作的实际办法,那么肯定是某些事情出错了。

除非我们真的在自动化一个流程,即从此环节中剔除人类,否则,AI算法应该使人类的工作更简明、简单和提高人类的生产力。找找这样的用例:AI在人类表现和流程效能两者中添加的价值相同的,找出这样的用例,对于企业成功的采用AI技术是至关重要的。相比之下,在企业治理和决策权方面,现在多数公司都决心给予智能机器更大的自主权和控制力。

就战略而言,数据驱动算法,即便精妙绝伦,也往往没有体贴周到的用户体验设计重要。体贴周到的用户体验设计能够更好地训练机器学习体系,使之更为智能。我所认识的最富成效的数据科学家从用例和用户体验中学习,获得顿悟。比如,在一家工业控制公司中,数据科学家发现,此公司某一智能系统使用者非正式地使用一个数据库,以对客户回应进行优先排序。此意料之外的用例引发了一个结果:对最初的算法进行再训练。

专注于更清晰、更整齐的用例,意味着AI和人类之间的关系能够更好、更具生产力。劳动分工成为设计启发和探索的源泉。为追求更好的结果所做的努力,不再关注于训练更智能的算法,而是关注于找到用例应当如何演化的答案。这也会驱使机器学习和组织学习等方面更进一步。

当组织舍弃自治系统,转而选用由AI辅助的雇员和流程时,5大主要用例类目便就此形成。不出所料,这些类目描绘了,智能实体如何在一起工作,以完成任务——且强调了,其中的“人情味”依旧是十分重要的。取决于个人、流程,以及所期望的结果,AI能够让其中的人类元素更为重要。

助手

Alexa、Siri和Cortana早已体现了真实的AI协助用例。按亚马逊恰当的措辞来看,智能助手有能力进行适度复杂的任务。无论是通过语音还是聊天机器人作为媒介,简明直白的界面使得智能助手上手快,使用简单。它们是否有效,很大程度上基于人们是否确切地了解,他们所需的算法复杂性到底为何物。随着数字助手越发智能和见识多广,它们的任务范围和“才能”也不断拓展。最为高效的智能助手懂得向用户提出及时的问题,向他们提示关键词,不仅改善交互,也改进了结果。

智能助手能够所要求的任务,而导向则会帮助用户厘清任务的复杂点,以实现所期望的结果。比如Waze软件,使用此软件,你能够顺利通过因施工而瘫痪的路段;使用一款AR工具去诊断和修复一辆汽车,或使用HVAC系统。数字化导向给用户显示和告诉他们,他们下一步应该怎么走,假若走错了,则会提示另一可行路径,以获得成功。导向是智能软件中的引路人,它们的领域专长就是帮助用户抵达目的地。

顾问

和导向不同,顾问的领域不是导航和提供目的地的专业知识。AI顾问方面的用例为:要么向员工提供解决问题所需的及时知识,要么提供量身定制的建议。如它们的人类同仁,AI顾问提供选择和解释,以及理由和依据。一位软件开发项目管理者需要评估行程安排是否协调;AI顾问则会询问问题,引出信息,从而确定下一步有何建议。AI顾问能够根据环境囊括相关链接、项目历史和报告。更为“老练”的顾问能够提供战略建议,以补充它们的战略推荐。

AI顾问根据人类客户的用例需求,量身定做它们的功能性知识,包括时间安排、预算、资源分配、采购、图形设计等等。它们是机器顾问,冷静地拨备它们的领域专长。

同事

AI同事如同AI顾问一般,但是对于具体情况,它们能够进行数据分析,对具体情况有较好把握。这是说,AI同事的领域专长恰是组织本身。AI同事有权访问相关职场的分析数据、企业预算、时间安排、计划、首要事项以及报告,然后制定并提供组织建议。AI同事用例围绕企业中那些需要更高效地、更有成效地完成工作的经理和雇员展开。AI同事或许会推荐参考资料和(或者)在邮件中附上一份报告,以向项目领导提供此前所需的建议,或是回应一些问题,比如“对于征用而言,什么样的预算样板是合适的”,“什么样的客户联系需要提前预警”等等。AI同事比起工具更懂得合作;它们提供数据驱动的组织洞察力。如它们的人类同仁,他们被当作是能够提供意见的人,帮助他人阐明沟通、志向和风险。

上司

AI同事和顾问提供建议,而AI上司则是进行领导。AI上司直接告诉人类下一步做什么。AI上司用例剔除选项、选择和歧义,热衷于看到属下服从自己的规定、命令和指令:开始做这个;停止做那个;更改此日程;削减那预算;把这份备忘录发送给你的团队。

AI上司为遵守和服从而设计;此环节之中的人类必须服从系统里的算法。AI上司代表了自治权的滑坡谬误(slippery slope)——即自动驾驶仪接管飞机,或自动防撞装置紧急刹车等在职场的相同体现。特定的用例和情境使得人类从属于软件。但是上司软件的真正测试对象是人类:如果人类违反纪律,但却没有受到制裁或被炒鱿鱼,那么此软件并非真的是boss。

恰如最后一个例子阐释的,这些类目尽管各自有别,但是它们的界限很容易就模糊不清了。很容易就能够想象到一些场景或用例,导向变成了助手,助手根据情境逐步升级为同事,而顾问有可能转化为上司。但是此5个类目之间的区别和特质应当在人们想象它们的未来时注入真正的严谨和条理。

此5个类目中,信任是含蓄的。雇员是否信任AI助手能够完成他们要求去做的任务,或AI导向能否把他们带到想要去之地?管理者能否信任上司软件的能力,或能否信任AI同事不会背叛他们?无论AI软件有多智能,信任和透明问题都会一直存在下去,而且,随着决策背后的理由越发复杂精细,令人不知所措,它们则变得越发重要了。其中有一个风险:这些人工智能进化——或可以说是退化——成“友敌。”这是说,软件同时是人类的朋友和敌人。因此,对于确认什么样的界面和交互能够促进人类相信机器,用例就变得至关重要了。

推动智能人类/智能机器提高生产力,用例可能会被证明是至关重要的。但是从现实情况来看,它们的最终价值可能来自于:在推动组织迈向更高层次的自动化和自治权上,它们想的有多周到。这些类目对于组织的真正影响和作用可能是,它们可能是人类训练接班人的最佳方式。


作者:Michael Schrage是MIT斯隆学院数字商业中心的研究员

来自:译言

更多阅读:

  • Accenture:调查显示企业不愿花钱对员工进行人工智能培训
  • 益普索:全球对AI的看法和期望
  • 益普索:全球对AI和虚假信息的态度调查
  • 苏黎世联邦理工大学:研究发现大模型搞“人肉搜索” 准确率高达95.8%
  • Ascend2:小企业AI和自动化觉醒报告
  • 建设具有全球竞争力的人工智能产业集群(附下载)
  • EQUINIX:2023年全球技术趋势调查报告
  • IMF经济学家:人造之手”的力量与危险—— 通过亚当 • 斯密的理念来思考人工智能
  • GP Bullhound:2023年第一季度金融科技报告
  • 清华大学:人工智能全球安全治理的发展态势与新动向(附下载)