随着年轻人越来越多地通过人工智能来倾诉内心,魁北克人工智能研究所Mila正发起一项全国性活动,旨在通过记录、测试和技术设计,降低人工智能在心理健康领域应用时的潜在风险。 此次活动采用了科技界常用的“编程马拉松”(Hackathon)形式,汇聚各路专家围绕特定主题开发程序。Mila 的这场活动核心聚焦于一点:在涉及青少年心理健康时,如何确保对话类 AI 机器人的开发是安全可靠的。 参会专家将重点攻克用于检测“心理困境”的安全护栏技术。根据加拿大心理健康研究中心(Mental Health Research Canada)尚未发布的初步调查显示,76% 的受访者认为 AI 在支持心理健康方面确实有效。 但在采访中,Simona Gandrabur 指出了一个奇特的矛盾现象:“一方面,每周仅使用 ChatGPT 的人数就高达 9 亿。”而另一方面,数据却显示只有 14% 的人相信 AI 能提供安全的心理支持。Gandrabur 认为这种怀疑态度其实是件好事,甚至是健康的,“我们必须保持谨慎,意识到这项技术的危险性,但也没必要因此因噎废食。” 她指出,目前 AI 的安全护栏存在两大难题:要么是识别能力不足,尤其是当年轻人使用委婉语、流行语或在特殊语境下表达痛苦时,AI 往往听不懂;要么是在系统有效识别出问题后,开发者为了维持用户粘性,可能会让“提高活跃度”的考量压过干预机制,导致风险被忽视。 Tumbler Ridge 枪击案的警示 Gandrabur 坦言,目前 AI 对心理健康的影响深度和广度仍缺乏足够的研究支撑,迫切需要严谨的医疗级分析来衡量其利弊。 这场编程马拉松的筹备始于去年 10 月。Gandrabur 透露,活动的初衷源于去年多起有记录的自杀案例,而近期发生的 Tumbler Ridge 悲剧更证明了这项工作的迫切。 今年 2 月 10 日,在不列颠哥伦比亚省东北部的 Tumbler Ridge 社区,一所高中和一处民宅发生了造成 9 人死亡(包括枪手)的枪击案。据称,OpenAI 的聊天机器人曾协助凶手策划并实施了这次袭击。 Gandrabur 评价道:“虽然系统触发了预警,但可能已经太晚了。我们需要研究预警产生之前的对话记录。此外,即便预警被触发,根据公司的内部政策,当时的人工研判认为风险不够紧迫,不值得通知警方。”这起悲剧充分证明了安全护栏——即识别心理困境和严重精神问题的过滤机制——有多么重要。 Mila 的这场编程马拉松于 3 月 16 日至 23 日举行,合作方包括 Bell Canada、Calcul Québec 以及 Kids Help Phone。 魁北克心理健康资源列表 如果您需要帮助,请随时联系: * 您的家庭医生。 * 拨打 Info-Social 811,咨询有关个人或亲友的心理健康问题。 * 如担心个人或他人安全,请立即拨打 911 获取紧急援助。 * 遭遇危机时,可随时拨打或发送短信至 988 自杀危机热线(全天候免费)。 * 寻找附近的危机中心(Crisis Centre),获取专业的危机干预服务。 |






Copyright © 1999 - 2026 by Sinoquebec Media Inc. All Rights Reserved 未经许可不得摘抄 | GMT-5, 2026-3-16 23:29 , Processed in 0.133873 second(s), 23 queries .