|
情感心理医生|国内首款多角色 AI 心理疗愈大模型,助力解决高校学生心理健康问题时间:2024-11-13 14:09 近日,华北大学学生团队成功研发出国内首个多角色AI心理治疗模型和AI心理情感服务平台,旨在更有效地解决大学生心理健康问题。使用算法识别、筛选和分析社交媒体上疑似自杀风险信息。发现有自杀倾向的高危人群后,我们组织人力开展救援行动,尽可能找到他们的亲友,提前预警,采取相应的救援行动……日渐成熟的AI技术在心理学中的应用正在逐步深入。近年来,AI技术赋能心理服务早已不是什么新鲜事。 AI心理学家正好可以弥补当前精神心理健康服务的一些短板,其发展前景应该是乐观的。 截至2021年底,我国登记的严重精神障碍患者达660万,其中不乏处于亚健康精神状态的人。相比之下,我国只有 64,000 名精神科医生。专门从事精神病学和心理学的医生严重短缺,导致许多患者挣扎求生。但AI心理学家孜孜不倦,可以量产,可以填补空白,让更多患者及时得到相应的诊断和治疗。目前,一些人工智能心理学家发挥了巨大的作用。例如,“北小六”AI心理服务机器人已在医院场景服务约万人次。人工智能逐渐让“人人享有高质量的心理治疗”成为现实。 AI心理学家有许多独特的优势。比如,智能产品可以记忆心理评估和干预的流程,这样评估过程就可以标准化,结论也可以非常准确。通过为患者制定心理干预方案、实施科普教育,智能产品还可以高度标准化。智能产品也是能力很强的“学生”,可以阅读大量相关案例,记忆力过目不忘。 AI心理医生按照既定程序行事,脾气好不发脾气,不会因为情绪波动而导致医患关系紧张。 但也应该看到,AI心理学家的劣势也非常突出。特别是,机器人虽然遵守规则、按程序行动,能够坚守冷酷的原则,是“无私”的良好典范,但缺乏适应变化的灵活性。他们很难理解和控制人类的情感和情绪,更不用说发展感性思维了。交互的。精神心理疾病大多涉及情感、情绪。心理咨询需要感性的沟通,医生只有理解才能做好这项工作。人工智能产品理性绰绰有余,但缺乏感性,无法提供“有温度”的服务。 更重要的是,人工智能技术还存在被滥用的风险。目前,一些语音智能产品存在侮辱用户或存在性别歧视等不良习惯,这说明AI心理学家深度学习的数据质量也必须得到高度重视。如果有人向某个人工智能心理学家产品输入“有毒数据”,该产品可能会“学到坏东西”,甚至做出教唆自杀等极端行为。现在已经有医疗机构对AI医生和真人医生进行一致性评价。这样的评估对于提高智能产品的质量有很大的好处。然而,除了保证更好的质量外,还应该采取措施防止人工智能心理学家染上坏习惯并成为工具。 医疗人工智能产品不仅关系到健康和生命,还涉及敏感的个人隐私,而人工智能的存储和记忆功能非常强大。 AI精神科医生掌握的诊疗信息一旦管理和使用不当,对患者的危害将会非常大。因此,迫切需要明确该工具在获取健康数据方面有什么权限,以及数据的使用、存储和销毁的规定。 AI精神科医生再强大,也只能充当人类的助手,不能过度依赖或允许其单独诊断和治疗。 《孙子兵法》云:“不充分了解用兵的危险,就不能充分了解用兵的好处”。对于人工智能心理学家来说也是如此。只有“充分认识其危害”,明确质量标准、道德规范、行为准则、监管方法等,才能“充分利用其好处”,同时避免可能出现的风险。守住智能产品安全底线,确保人工智能心理学家等智能产品平稳行驶在发展快车道上,造福社会而不乱社会。 罗志华 如果遇到心理困扰,可以随时联系爱己心理,遇见爱己,开始爱己 |