拥有自我意识和情感的超级人工智能到底会不会出现?说实话,这个话题都烂大街了。科学家、科技大佬、各国政要们争论得头破血流,我们也不可能知道答案。
但我们想说的是,什么事都要讲逻辑。有没有一些理论或者猜想可以触发AI觉醒这个话题呢?有没有一些理论或者猜想,让我们不会云里雾里或者一腔热血地想象人工智能的未来?
巧合的是,确实有一些这样的理论,比如说著名的“中文房间悖论”。这个情景猜想在大部分情况下都被用来否定“图灵测试”。但它更深层的本意,其实是在阐释人工智能永远不可能像人类那样拥有自我意识。
什么是“中文房间悖论”
所谓的“中文房间实验”,是由美国哲学家约翰·希尔勒(John Searle)在1980年发表论文提出的一个思维试验。
这个思维实验是说,如果把一位只会说英语的人关在一个封闭的房间里,他只能靠墙上的一个小洞传递纸条来与外界交流,而外面传进来的纸条全部由中文写成。
这个人带着一本写有中文翻译程序的书,房间里还有足够的稿纸、铅笔和橱柜。那么利用中文翻译程序,这个人就可以把传进来的文字翻译成英文,再利用程序把自己的回复翻译成中文传出去。
在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。
当然了,这是个思维实验,具体操作起来近乎不可能。但这个实验里蕴含的思想却在表达这样一个可能:机器所表现出的智能(理解中文),很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。
这个实验本来是为了反驳图灵测试的,认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文房间悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。
通用人工智能和强人工智能的界限
这里要来认识两个大家经常听到,但有可能混淆的概念——通用人工智能与强人工智能。
所谓通用人工智能(Artificial General Intelligence,AGI),是指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。这个技术虽然冷门并遥远,但其实也有不少学术机构与企业在做,一般被认为是人工智能技术的未来发展方向。