|
情感心理医生|专家警告:将ChatGPT作为心理治疗替代品存在风险,AI理解世界仍有局限时间:2025-01-07 14:05 参考消息网5月12日报道 据阿根廷布宜诺斯艾利斯经济新闻网5月2日报道,近日来,越来越多的病例开始被患者当作心理医生。然而,专家警告说,人工智能(AI)会给替代性心理治疗带来风险。 报道称,可以说人工智能已经站稳了脚跟。从最早的日常应用程序(例如 Siri 和亚马逊的智能家居“Alexa”)到最近的应用程序,这项技术不断突破其极限,现在能够执行直到最近只能由人类执行的任务。 专家担忧风险 据报道,尽管人工智能在某些任务上比人类更好,但它仍然很难像我们一样理解世界。正因为如此,一些专家担心人们转向精神科医生而不是精神科医生。 所有这一切都发生在尚不清楚这些工具将到达何处的时候。最近,谷歌计算机科学家杰弗里·辛顿( )离开这家科技巨头,警告世界人工智能系统对人类构成“生存风险”。 但是否有可能将自己视为机器人心理治疗师呢? 阿根廷精神病学家协会主席里卡多·科拉尔表示:“这是一个非常新的东西,正处于开发阶段。它的有效性和准确性显然会大大提高。” 对于使用此类工具作为治疗方法,专家指出,虽然有报道称有人这样做,但人与人之间的直接接触在心理治疗过程中发挥着很大的作用。 科拉尔说:“现在发生的情况是,疫情发生和隔离措施实施后,很多人开始通过视频连接进行远程会诊,很多治疗师、精神科医生或心理学家仍然以这种方式工作。然而,很多人感到不舒服有一种我们称之为医患关系或治疗关系的东西是不容易被取代的。换句话说,显然有一个非常重要的方面与人际关系和关系本身有关,我们称之为这种关系。为了同理心 问题。” 心理学博士弗拉维奥·卡尔沃( Calvo)同意科拉尔的观点,并强调:“同理心有两种类型:情感同理心和认知同理心。” “人工智能可能理解一些机制,但它永远不会像人类那样体验情感。”它无法“心比心”,而这种能力对于良好的治疗效果至关重要。他继续说道:“如果不是用一个人的灵魂去触动另一个人的灵魂,那它就不是治疗,而只是一系列冰冷的建议和可能性。” 专业护理的补充手段 报告称,对他来说,如果说人工智能在这方面有积极的一面的话,那就是“这是有潜力用来解决一个关键问题的东西,因为目前缺乏社会和社区的回应”心理健康问题。” ,因此人工智能可以成为那些正在遭受痛苦且无法接触到任何自然人、医生、治疗师、心理学家、精神科医生的人们的救星。” 各种强大的通用聊天机器人,包括谷歌的“Bad”和微软的Bing Chat,都是基于大型语言模型的。这种技术可以轻松地制作乍一看似乎合理的信息。 然而,它们并不是为了提供治疗而设计的,而且此类编程产品并不遵守与人类治疗师相同的道德和法律原则。在目前的形式下,他们也无法跟踪向用户提出的建议的实际实施情况。 研究情绪障碍的临床心理学家、堪萨斯大学教授斯蒂芬·伊拉迪( )表示:“对于患有更严重精神疾病的人来说,它无法取代心理健康专业人员。” “赤脚医生”构成“极高风险”。也就是说,他认为对话伙伴足够好,以至于很多人都认识到它的用处。 伊拉迪警告说,如今心理健康服务供不应求,如果有适当的保障措施,将其转变为专业护理的补充可能不是一个坏主意。 对于 首席道德科学家玛格丽特·米切尔来说,这些聊天机器人可以用来帮助危机热线工作人员提高响应能力。 但她担心向聊天机器人寻求治疗可能会导致盲目服从,从而加剧自己的痛苦。 “即使有人发现这项技术有帮助,也不意味着它会引导寻求帮助的人朝好的方向发展,”她说。 此外,米切尔认为,还涉及到隐私问题需要注意。她解释说,开放人工智能研究中心收集用户对话并将其用于训练,因此可能不适合想要谈论极其私人话题的人。 据报道,她说:“用户可以删除他们的帐户信息,尽管这个过程可能需要长达四个星期的时间。”今年三月,在一些用户报告能够看到其他用户聊天记录的标题后,该网站因技术问题而被短暂关闭。 ” 如果遇到心理困扰,可以随时联系爱己心理,遇见爱己,开始爱己 |