AI深度学习遇到困难
AI 领域充满了炒作和虚张声势。在过去的几十年间,AI 一次又一次掀起热浪,虽然给出了各种承诺,但能够兑现的承诺却非常罕见。前一分钟是它还是专家系统,下一分钟就成了贝叶斯网络,然后又成了支持向量机。
AI深度学习遇到困难
2011年,IBM沃森被认为是医学领域的一场革命,但现在它被分成零件出售。自2012年以来,人工智能领域最受欢迎的技术是深度学习。这项含有数十亿美元潜在市场的技术促进了当代人工智能的发展,Hinton是该技术的先驱。他的论文引用了50多万次,并与YoshuaBengio和YanleCun一起获得了2018年图灵奖。
就像他之前的人工智能先驱一样,Hinton经常说,一场伟大的革命即将到来,放射学只是其中的一部分。2015年,Hinton加入谷歌后不久,《卫报》报道称,谷歌即将开发出一种逻辑算法,可以进行自然对话,甚至调情。2020年11月,Hinton对麻省理工科技评论说:深度学习将无所不能。
我对此深表怀疑。事实上,机器学习真正理解人类语言还有很长的路要走。动画片《杰森一家》中有一个罗西机器人。机器人管家不仅可以解释人类的各种要求,还可以及时采取安全措施。目前,人工智能技术远低于罗西机器人水平。马斯克最近表示,他希望建造的Optimus人形机器人产业有一天会超过汽车产业。但在2021年的特斯拉人工智能日,Optimus似乎只是一个扮演机器人的人。在语言方面,谷歌最近贡献了一个名为Lamda的系统,非常不稳定,因此其作者之一认为它的输出只是一堆垃圾。开发我们真正可以信任的人工智能并不容易。
随着时间的推移,我们会意识到深度学习只是构建值得信赖的人工智能的一小部分。
深度学习本质上是一种识别模式的技术。如果我们只需要粗略的结果,那么深度学习的应用是非常好的。这里的粗略结果是指任务本身风险低,不需要最佳结果。例如,给照片贴上标签。例如,有一天,我要求iPhone找到一张几年前拍摄的兔子的照片。虽然我没有给照片贴上标签,但手机仍然可以立即返回结果。它之所以能胜任这项工作,是因为我拍的兔子的照片与一些大型数据库中的标签兔子的照片非常相似。然而,基于深度学习自动标记照片的过程很容易出错,比如错过一些照片,特别是场景凌乱、光线复杂、角度不寻常或兔子被部分屏蔽的照片。有时,它甚至会混淆兔子和我的两个孩子在婴儿期的照片。但这种应用程序出错的风险很低,所以我不会扔掉手机。
然而,当风险较高时,比如在放射学或无人驾驶汽车领域,我们应该对深度学习更加谨慎。如果一个小错误能带走一条生命,那么深度学习就不够好,不足以应用。当遇到与训练数据非常不同的异常值时,深度学习系统的问题尤为明显。例如,不久前,一辆特斯拉遇到了一个人,他站在路中间,在所谓的自动驾驶模式下拿着停车标志。这辆车无法识别被停车标志遮挡的人或停车标志(因为在正常情况下,停车标志通常在路边),因此人类司机不得不接管。这一幕远远超出了训练数据库,因此系统不知道如何处理。
2.人工智能领域充满了炒作和虚张声势。
目前的深度学习系统经常犯一些类似的愚蠢错误。有时,当图像上有污垢时,他们在阅读图像时会犯错误,人类放射科医生明白这只是一种微妙的干扰。(放射科系统也存在一个问题。目前,人工智能非常依赖或完全依赖图像,很少或根本不理解描述患者病史的所有文本,有时甚至忽略关键信息,这也是人类在这一领域仍然不可或缺的关键原因。)一个深度学习系统错误地将苹果标记为iPod,因为苹果前面有一张写有iPod的纸。一些系统还错误地将在雪路上翻车的公共汽车标记为扫雪机。目前,机器学习的一个完整的分支正在研究这些错误,但尚未给出明确的答案。