像许多其他人一样,我目前对AI 的快速发展感到着迷——也有点害怕。虽然这项技术似乎可以永久使用,但它的一些应用让我很担心。网站已经用容易出错的机器人取代了人类作家,好莱坞拒绝保护其创意人才不受技术影响,而像萨姆纳这样的人工智能生成的游戏已经对机器人剽窃发出了危险信号。尽管过去几个月我最关心的是人工智能疗法的存在。
目前有一些可用的服务可以以某种方式使治疗自动化。 Woebot是一种“自动对话代理”,被定位为个人心理健康工具。用户可以每天登录它,与聊天机器人进行简短对话,聊天机器人将发送健康提示和视频。另一方面, Wysa将用户与人类心理健康专家和人工智能教练配对,帮助他们处理情绪。考虑到传统疗法在多大程度上依赖于与真人的联系,将其自动化的想法似乎是一场灾难。
所有这些都特别让我着迷是有原因的。那是因为一部名为Eliza的视觉小说。这部独立瑰宝于 2019 年发布,悄悄地预测了 AI 进入心理健康领域的麻烦举动。这是一个很好的警示故事,讲述了自动化人际关系的复杂性——科技企业家可以从中学到很多东西。
欢迎来到伊丽莎
以西雅图为背景, Eliza跟随一个名叫 Evelyn Ishino-Aubrey 的角色开始在一家名为 Skandha 的虚构的类似 Apple 的大型公司创建的新技术企业工作。该公司创建了一款名为 Eliza 的虚拟咨询应用程序,以相对实惠的价格为用户提供人工智能指导的治疗课程。
不过,Eliza 不仅仅是一个不露面的聊天机器人。为了保留面对面治疗的人性化元素,该应用程序采用了人工代理,他们亲自与客户坐在一起,并实时读取机器人生成的响应。 Skandha 声称它的方法论归结为一门科学,因此禁止代理人以任何方式偏离剧本。他们只是在那里为机器吐出的建议添加一个有形的面孔。
该游戏抵制了将该想法呈现为过度反乌托邦概念的冲动。相反,它选择了一种以现实主义为基础的基调,与斯派克·琼斯的《她》的基调没有什么不同。这使得它可以提出一些关于自动化人类交互的严肃而微妙的问题,这些问题领先于他们的时代。五个小时的故事询问这样的 AI 应用程序是否是一种净收益,使像治疗这样昂贵的东西变得更容易获得,或者仅仅是大型科技公司的一项剥削性商业决策,它以人类互动为交易来轻松获利。
玩家通过Eliza的视觉小说系统探索这些问题。这里的互动很少,玩家只需为伊芙琳选择对话选项。不过,这对她的会议产生了重大影响。在整个故事中,伊芙琳会见了一些订阅该服务的经常性客户。有些人只是在那里独白他们生活中的低风险戏剧,但其他人则带着更严重的问题来服务。无论个人情况的严重程度如何,伊丽莎都会吐出相同的平面脚本供伊夫林阅读,询问一些在整个治疗过程中重复出现的问题,并开出呼吸练习和药物处方。
Evelyn 对客户的生活投入越多,她就越开始看到技术的局限性。 Eliza 的一些首选建议并不是对所有问题都适用的通用解决方案,更多陷入困境的客户开始向真人寻求真正的帮助。玩家可以选择脱离剧本,让伊芙琳自己处理事情,此举对她的工作和客户的福祉都有一些严重影响。
这并不总是正确的答案。虽然她的一些建议为客户提供了他们需要的帮助,但其他人发现自己的情况更加严重。她的话可能会以她没有预料到的方式被曲解,而 Eliza 的安全算法就是为了防止这种情况发生的。坚持经过消毒的脚本或至少尝试建立真正的联系是否更安全?像这样的技术最终伤害会大于帮助吗,反之亦然?
Eliza 没有回答这些问题,而是留给玩家去咀嚼。这是对现代科技的深思熟虑的审问,随着 Wysa 等服务的出现,它变得更加紧迫,这些服务非常接近游戏中的虚构技术。无论您是ChatGPT 等 AI 工具的支持者还是坚决反对它们,Eliza 都会提供一个关于机器和人类极限的深思熟虑的警示故事。
Eliza可在 PC 和 Nintendo Switch 上使用。