热度 12
2015-8-12 14:21
915 次阅读|
0 个评论
这个名叫Yrsa Sverrisdottir的冰岛人总是引起人们的注意。 一开始是伴随着她成长的芭蕾舞表演,让她享誉冰岛。接着是科学,她成功地登上了学术会议的演讲台。自从2010年她搬到英国牛津大学学习神经科学之后,上述这些都成为她留个世人的表象。有着北欧人迷人金发的她说:「我只是站在这里,这不是我能控制的。」 移居英国之后,她发现自己不再如往日一般享受他人的关注。在人群中,她开始感到不适。她的人际关系也受到了影响。在她的生活中有一些很明显的压力来源,例如父母双双去世,而这些压力的影响似乎并没有随着时间逐渐淡去。 Yrsa Sverrisdottir 到了2012年底,她说:「我觉得我正在失去控制。」这时她遇到了Fjola Helgadottir,一个牛津城内为数不多的冰岛同乡。Helgadottir在牛津从事临床心理学研究,他设计并创造了一个可以帮助人们自己发现和管理心理疾病的机器人程序。 Sverrisdottir决定试一试。 这个基于认知行为疗法(CBT)技术的机器人程序被命名为CBTpsych。程序一开始会先和用户进行几天的互动问答。「这个过程相当另人筋疲力尽,」Sverrisdottir说。问答的过程一开始很容易,只是一些个人细节。但是之后问答的内容逐渐加深。这个过程反复进行数月之久,在此过程中程序迫使她检测自己的焦虑情况,并且挖掘出令自己痛苦的想法。CBTpsy诊断她患有社交焦虑症,事实也确实如此。Sverrisdottir意识到自己内心深处其实「不想让别人看见我这样」。接着这个程序扮作一位经验丰富的心理治疗师,引导她通过大量的真实世界联系治疗法来学会控制自己的社交焦虑。这听上去似乎像是一个典型的临床心理学的成功治疗案例,但是,却没有一个人类心理学家参与其中。 CBTpsych 并非唯一的机器人心理治疗程序,也不是技术最复杂的。南加州大学(USC)的心理治疗系统Ellie,使用人工智能以及虚拟现实来打破人和机器的界限。这个项目最早由美国军方资助,专注于诊断及治疗心理创伤。由于患者是和电子系统进行互动,这个项目中产生了大量关于心理治疗的重要数据。南加州大学领导这个项目的Albert Skip Rizzo表示,这个项目的目标简单地说不过是要「将临床心理学哭天喊地地拽进21世纪」。 但是临床心理学家是否会接受人工智能加入到他们行列呢?这个问题目前还不确定 。纽约特洛伊伦斯勒理工学院的认知科学家和AI研究学者Selmer Bringsjord表示:「无法清楚预估AI作为计算机化心理治疗的辅助工具所带来的不可限制的冲击力,这雄心令人难以置信。」 如今,所有虚拟心理专家的起源都要追溯到ELIZA,这是一个创建于上世纪的计算机聊天程序。就像皮格马利翁创造的还没有获得语言能力的女子一样,这个ELIZA不过是系统工程师约瑟夫.魏泽堡和其他计算机科学家于20世纪60年代在MIT研究人机互动时共同编写出来的几千行代码。 ELIZA遵循如何应对对话的程序规则。最有说服力的结果来自模仿精神治疗医生的一种DOCTOR规则:ELIZA不直接进行提问,转而通过病人的问题描述,诱导他们畅所欲言,比如应对病人倾诉「我感觉无能为力」时,ELIZA可能会回答,「为什么你会有这种感觉呢?」 人们倾向于接近ELIZA,或许因为她更新奇而并非其对话技能,但AI研究员却并不为所动。「你可以制造一个并没有什么真正的智能的AI系统,这一想法就是欺骗,」加计算机科学家、同时也是魏泽堡门下博士生的Terry Winograd这样说道。该领域进入盲目乐观的时代,不少研究员预测计算机持平人类智力将指日可待。 但是人工智能基础工作并不成功,资金和利益链的断裂导致了众所周知的「人工智能寒冬」,直到新千年人工智能再度成为主流卷土重来,驱动了 「弱人工智能」得到进一步的提升,从而集中在语音识别和机器视觉等具体问题上。 能对话的机器人,比如ELIZA仍被许多计算机科学家看作是供人娱乐的小把戏。但对话机器人在临床心理学方面有不俗的表现。他们的成功秘诀恰恰是人工智能研究员们所回避的一点:非智能电脑有能力欺骗人们相信他们在与一个智能的、有感情的人谈话。 要做到这点并不容易。Rizzo清楚的明白,打断病人和Ellie谈话的最常见原因并不是谈话的内容,因为电脑恪守Rizzo团队根据传统临床心理治疗编写的脚本。他说,「问题在于计算机没有通感。」这指的是人类在谈话中会不自主的追踪和反映彼此的情感。 比如,一个病人会对Ellie说,「今天我挺不走运。」但语音识别软件漏听了「不」字。所以Ellie笑着大声说:「太棒了!」如果这套人工智能系统正试图建立与病人的联系并获取病人的信任的话,「那结果就糟透了。」 为改进通感性,照相机被用来追踪病人的心理表征:表情,体态,手势,语气。Ellie综合分析这些数据用来测量出情感的状态。 「这些模式会很细微难以捕捉,」Louis- Philippe Morency说。他是USC计算机科学家,一直领导着基于Ellie的人工智能研究。他举例一个人的语气可以「从顺畅变到紧张。」这个团队发明了好些算法来识别情感状态的模式。他说道,「虽然并不完美,但我们的实验表明这些算法能够和病人心理痛苦程度有较强的关联。」 其他模式被分成很多小课题来研究。比如,这个团队对患有创伤后压力精神紊乱症(PTSD)的美国退伍军人进行的研究表明「微笑时的变化」可以用作对抑郁症的预测。这种模式非常细微,只有用电脑才能捕捉:抑郁症患者微笑的频率一般保持不变,但每个笑声的持续时间和强度有减退。 Rizzo说,即使Ellie完美地解决了通感的问题,它「也只是一个增强版的ELIZA。」藏在下面暗中发挥作用的AI最多只能维持一段长约20分钟的对话,接着魔法就破灭了,这极大地局限了该系统在大多数心理疾病的诊断和治疗方面的用途。如果不能掌握精妙的自然语言处理和语义知识,Ellie就永远没法让人们相信自己是在和一个人类说话。但是,也还好,Rizzo说:如果太像人类,反而可能后院起火。 Rizzo的实验室发现了一个与直觉相违背的现象——他们在实验中告诉一些病人,Ellie是一个由人操纵的木偶,同时告诉另一些病人她是完全自主的,结果,那些被告知Ellie是木偶的病人在治疗过程中的参与度更低,也更加不愿意敞开心扉。 运行在Emac里的ELIZA 对Winograd这样的AI研究者来说,这不足为奇。「这种事可以追溯到ELIZA,」他说,「当你不会感到被批判时,才会吐露心声。」 如果AI疗法变成主流,将引发|伦理和隐私方面的争论。Winograd担心,在线服务可能不会坦诚公布是否有真人。「总有可能为了病人好而欺骗他们,比如说让他们服用安慰剂当做药物,」他说。但是,对AI疗法来说,「你必须让病人清楚地知道,和他们对话的是机器,而不是人。」 如果病人很乐意对机器敞开心扉,那还需要临床医师吗?在这点上,Rizzo很固执,他坚持认为人的涉入是必要的,因为机器不能对病人产生真诚的共情。他指出,在Ellie到达黄金时代之前,还有很长的路要走——这个项目目前还没有具备从单个病人那里学习的能力。Rizzo把AI系统想象成一种收集基线数据的方法,为心理学家提供标准,就像验血报告里那些标准值一样。「目标并不是取代人,」他说,「而是为人类的护理人员创造工具。」 Helgadottir有一个更加大胆的愿景。尽管计算机在近期还无法取代治疗师,她说:「我相信,在某些情况下,计算机疗法能在无人干预下获得成功……尤其在人们不适合做治疗师的那些方面。」计算机可能比人类更具有探索性,也更加客观。 Sverrisdottir的经验告诉我们,CBTpsych疗法至少有些不同。她说,在该项目的指导下,「当我处在人群中时,我慢慢地开始分析自己。」她发现了自己的一种模式,「对批判我的人会产生负面想法」。为此,她可能去看过心理医生。但是, Sverrisdotter说,自从她和计算机谈话的那一年开始,那些萦绕在她心头的烦恼,「已经能够做出改变。」