目 录CONTENT

文章目录

美国发布人工智能/机器学习独立软件行动计划

Deptember
2021-06-25 / 0 评论 / 0 点赞 / 3 阅读 / 3238 字
原文:https://www.cmde.org.cn/splt/ltwz/ltyy/20210625092555546.html
发布时间:2021-06-25
版权归属原文

(原创 2021-06-24 CMDE 中国器审)
  前言
  基于2019年4月所发布的《人工智能(AI)/机器学习(ML)独立软件更新监管框架草案》(以下简称监管框架草案)的公众反馈意见,美国食品药品监督管理局(FDA)于2021年1月发布了《AI/ML独立软件行动计划》,旨在明确AL/ML独立软件监管的五项工作和目标。
  一、量身定制AI/ML独立软件监管框架
  FDA计划更新AI/ML独立软件更新监管框架,发布AI/ML独立软件“预定变更控制计划”指南。
  FDA在监管框架草案中提出通过“预定变更控制计划”控制AI/ML独立软件更新,并将其细化为软件更新预期规范(SPS)和算法变更方案(ACP),前者是指制造商所计划的软件更新规格说明,后者是指制造商所采取的SPS软件更新风险控制方法。
  结合公众反馈意见和近期产品审评经验,FDA计划细化SPS和ACP所含具体内容,并于2021年发布“预定变更控制计划”指南草案,征求公众意见。
  二、推动建立良好机器学习实践
  FDA认为良好机器学习实践(GMLP)的概念对于保证AI/ML独立软件的安全有效性至关重要,因此计划在相关协会、标准化组织中推进建立GMLP。
  FDA目前参与了国际电气和电子工程师协会(IEEE)、国际标准化组织(ISO)/国际电工委员(IEC)、美国先进医疗器械协会(AAMI)、英国标准协会(BSI)、国际医疗器械监管者论坛(IMDRF)等多个组织和机构的人工智能工作组相关活动,FDA将在这些工作组中推动建立GMLP,促进达成共识。
  此外,FDA还将GMLP与医疗器械网络安全监管计划密切协作,以符合FDA对医疗器械网络安全的监管要求。
  三、以患者为中心和信息透明相结合
  考虑到AI/ML独立软件会随时间而持续更新,所用算法可能为黑盒算法,FDA认为必须采取以患者为中心的方法来保证产品的安全有效性,促进产品对于用户乃至患者的信息透明度是以患者为中心的关键。
  FDA于2020年10月召开了一次患者参与咨询委员会(PEAC)会议,专门讨论AI/ML独立软件的信息透明问题。在此基础上,计划再召开一次公开研讨会,进一步讨论软件说明书和标签所含的信息类型和内容要求,以确保用户了解软件的受益、风险和局限性,形成相应监管方法。
  四、开展算法监管科学研究
  算法偏倚控制和健壮性虽然不是AI/ML独立软件所独有的问题,但是由于AI/ML算法训练主要使用历史数据,很容易引入偏差,同时AI/ML算法应用深受种族、族裔和社会经济地位等因素影响,因此AI/ML独立软件的算法偏倚控制和健壮性尤为重要。
  FDA计划深入开展算法监管科学研究,与加州大学旧金山分校、斯坦福大学、约翰·霍普金斯大学等机构研究人员合作,开发AI/ML算法的评估方法,包括识别和消除算法偏差,评估和提高算法健壮性。
  五、监测产品真实世界性能
  FDA在监管框架草案中提出采用全生命周期方法来监管AI/ML独立软件,通过收集和监测真实世界性能数据来支持软件更新,但如何使用真实世界性能数据来评估AI/ML独立软件更新仍需明确,亦是业界所关注的热点之一。
  FDA计划与利益相关方合作成立真实世界性能监测哨点,结合FDA真实世界数据项目进展情况,进一步研究阐明AI/ML独立软件真实世界性能数据的生成过程、评估参数与指标等要求。
  总之,FDA将针对AI/ML独立软件特点,积极与利益相关方合作,多管齐下,尽快形成AI/ML独立软件监管框架,并扩展至AI/ML软件组件。

参考文献:
[1] FDA. Artificial Intelligence/Machine Learning (AI/ML)-Based Software as a Medical Device (SaMD) Action Plan,January 2021.

审评一部 贺丽萍 供稿

0

评论区