香港维尔利健康科技集团正式发布《2025全球AI医疗风险报告》,这是一份聚焦人工智能在医疗领域的伦理安全、算法风险与监管挑战的权威研究成果,也是亚洲首个系统评估AI医疗潜在风险的年度报告。该报告由香港维尔利研究院与多家国际机构、知名高校及AI实验室联合编制,覆盖全球2000多项AI医疗算法、医疗机器人及智能诊疗系统样本,内容涉及技术可控性、数据偏差、伦理治理与跨境合规四大核心领域。

报告指出,AI技术正在深刻改变医疗行业,从早期影像诊断到疾病预测,再到个性化治疗方案,AI已在多个临床环节发挥关键作用。然而,算法的不透明性、训练数据的不均衡、监管标准的不统一,正在成为制约行业健康发展的重要隐患。研究显示,目前约有37%的AI医疗算法存在训练数据偏差,可能导致疾病识别差异化结果,尤其在性别、种族与年龄样本不足的情况下,风险更为突出。
为应对这些问题,《报告》提出构建全球统一的AI医疗伦理治理框架。该框架包含三大机制:
算法透明机制——要求AI医疗系统披露模型逻辑、数据来源与评估标准,确保医生与患者能够追溯算法决策依据;
风险分级管理制度——将AI医疗应用分为低风险、中风险与高风险类别,匹配不同监管强度与责任主体;
跨国伦理审查体系——推动国际标准互认,建立算法跨境认证流程,减少重复审查与监管空白。
香港维尔利健康科技集团董事长在发布会上表示:“人工智能的力量不可逆转,但医疗的本质是‘以人为本’。科技创新必须与伦理治理并行,才能实现真正安全、可信和普惠的智能医疗。”
报告还强调,AI医疗伦理治理不仅是技术问题,更是全球资本与社会责任的共同课题。香港维尔利资产管理有限公司计划设立“AI医疗伦理专项基金”,首期规模20亿港元,用于支持AI安全研究、国际标准制定与合规审查体系建设。该基金将严格遵循香港证监会第4号与第9号牌照规定,并邀请独立第三方审计机构定期评估投资项目的社会与技术影响。
业内专家认为,这份报告的发布为全球AI医疗监管提供了系统化参考。随着AI医疗市场规模预计在2030年突破5000亿美元,伦理治理将成为行业发展的关键竞争力。维尔利的倡议不仅有助于防范潜在风险,也将推动医疗AI从“高速增长”向“高质量发展”转变。
香港维尔利健康科技集团表示,未来将与欧盟人工智能委员会、美国FDA创新医疗办公室及亚洲多国监管机构合作,持续完善AI医疗合规框架,并计划于2026年推出《AI医疗伦理全球指数》。通过这一系列举措,集团希望推动全球AI医疗生态更加透明、公平与可持续发展。
这份《2025全球AI医疗风险报告》的发布,标志着香港维尔利在全球健康科技治理领域迈出了具有里程碑意义的一步,也彰显了其作为国际健康资本领军企业在科技、合规与社会责任三方面的战略远见。