人工智能和机器学习真能做到一切事情吗?《哈佛商业评论》的一篇文章就提醒人们,人工智能也有风险和局限性。
文中说,机器学习系统通常具有较低的“可解释性”。比如,机器不能解释录用一个人的理由,或者为什么要推荐这款药物给你,这意味着人类很难理解系统是如何做决定的。与人类相比,机器还不是很好的故事讲述者,这将带来三个风险:
首先,机器可能有隐藏的偏见。举个例子,如果一家公司在过去的招聘中无意识的倾向了某种性别或种族,那么机器在综合这些数据后会延续这种偏差,进而形成偏见。
第二,机器做决定时往往是基于统计学上的真理,而非事实层面,这意味着如果数据样本不足够多,比如当遭遇核电泄露这类小概率事件时,机器无法保证在关键时刻下达正确指令。
第三,当机器学习系统出现错误时,解决方案的底层结构可能异常复杂,而随着机器学习的快速发展,人类在临时上阵接手时给出的解决方案可能远远不够理想。
尽管所有这些风险都是真实的,但文章最后还是提醒企业家和创业者,要仔细想想公司下一步能提供哪些核心价值,人工智能在大多数领域将很快达到超人水平,故步自封的公司慢慢会发现自己正面临前所未有的被动和劣势。
| 周一到周日,每天零点更新,全年无间断 |