第17章 人工智能(第7/10页)
虽然电影中的Hal肯定可以通过图灵测试(但电影中少言寡语的宇航员戴夫是否可以通过图灵测试就不好说了),但是现有的图灵测试的结构决定了它的可信度并不高。现有的图灵测试并不能检测图灵当年提出的计算机类似人类的交流能力。图灵测试的常用流程是,机器和测试者完成一段5分钟的谈话,如果机器在超过30%的时间里被错认为人类,就意味着机器“通过”了图灵测试。因此,许多软件并不是为了实现和人类的交流而设计的,它们只是为了通过测试。
聊天机器人的鼻祖之一是名为“伊莉莎”的软件。《2001太空漫游》上映不到两年,伊莉莎面世。它的程序很短,但却可以进行还算合理(有时也让人着急上火)的对话。这个程序取巧的办法在于,它扮演的是心理医生的角色,所以它会复述你对它说的话,但它不提供新的信息,也不回答你的问题。考虑到伊莉莎只有不到400行程序代码,它的功能已经足以让人啧啧称奇了。
类似的项目进展迅速。(这并不出人意料,在我写作本书时,伊莉莎已经出现将近50年了。)2014年,一个叫作“尤金·戈斯特曼”的程序假扮为一个英语非母语的13岁乌克兰小男孩,通过了图灵测试。但我没能找到戈斯特曼聊天程序,于是我和另一个技术领先的聊天程序Cleverbot有了如下的对话:
布赖恩(本书作者):喂,你好吗?
Cleverbot:我很好,你呢?
布赖恩:就那样,天气实在太热了。
Cleverbot:你为什么不喜欢热呢?
布赖恩:因为它让我觉得不舒服。
Cleverbot:这个理由太逊了!
布赖恩:为什么这么说?
Cleverbot:我几岁了?
布赖恩:我怎么知道?
Cleverbot:因为你是我的电话!
布赖恩:你怎么看叙利亚的情况?
Cleverbot:什么情况?
布赖恩:你不看新闻吗?
Cleverbot:我没有电视。
在谈话即将结束的时候,Cleverbot用了一个经典的逃避对话的办法,而一个真实存在的人不太可能通过否定信息的来源来终止可能出现的话题,这表明Cleverbot肯定不是一个真人。
在我写作本书的时候,即便没有电视,任何人也肯定会或多或少地对发生在叙利亚的事情有所耳闻,叙利亚战争是各类新闻的焦点。但上述对话展现了聊天机器人惯用的交谈模式,几乎立刻暴露出它不是真人的事实。对“为什么”这个问题,聊天机器人做出了无厘头的回答;在我反问它我怎么会知道它的年纪的时候,它更是答非所问。其实聊天机器人很容易在谈话中暴露自己的身份,而许多专家竟然会以为这些程序是真实的人,这让我难以相信。我从来没有和聊天机器人进行过超过5分钟的谈话,每次谈话都以机器人用以上交谈模式暴露自己的机器身份而告终。
当然,Hal的交流技巧比聊天机器人强太多了。Hal不仅可以通过图灵测试,还可以进行如真人般的交谈。Hal的讲话方式让我们感觉它是拥有智慧的——人工智能,这种智慧和人类的智慧非常相似。在现实生活中要想实现类似Hal的人工智能,我们还面临着很大的挑战。自从20世纪80年代起,实现人工智能主要通过两种方法:其一是专家系统,其二是神经网络。(当然,除此之外还有很多其他的方法,但是这两种方法是人们试图赋予计算机智慧的典型方法。)
专家系统巧取豪夺人类苦心掌握的技术和知识。(如你所料,采用这种方法的公司肯定不会据实以告,并且会精心包装它们的产品。)首先是知识引导的过程,也就是向各个领域的专家提出大量的系统问题,目的是把多个专家在各个领域的知识整合起来,建立一个强大的数据库。然后这个数据库就可以代替专家,全天24小时为客户提供专业信息。现在看这个方法,很难相信有人真的认为它可以有效代替真正的专业知识。