Towards fairness-aware and privacypreserving enhanced collaborative learning for healthcare:为医疗领域带来公平与隐私保护的协同学习新突破
编辑推荐:
在人工智能算法广泛应用于医疗领域的当下,隐私和公平性问题备受关注。研究人员开展了关于联邦学习(FL)中资源自适应框架的研究,提出 DynamicFL 框架。实验表明该框架能提升模型准确性、保障隐私且促进公平,对构建可靠的医疗 AI 生态意义重大。
在医疗领域,人工智能算法的广泛应用引发了诸多问题。一方面,这些算法在训练和推理过程中需处理大量敏感的患者数据,隐私泄露风险剧增。比如,一旦数据被不当获取,患者的个人健康信息将面临曝光,这可能对患者造成多方面的负面影响。另一方面,算法的公平性也令人担忧,若训练数据集不能代表多样化的人群,算法就可能产生偏差,导致不同患者群体在诊断和治疗上受到不平等对待。为了解决这些问题,哈尔滨工业大学、上海交通大学医学院附属第九人民医院等多机构的研究人员开展了关于公平感知且隐私保护的增强协同学习研究。研究成果发表在《Nature Communications》上,其意义在于为医疗领域提供了更可靠、公平且隐私保护良好的人工智能解决方案,推动医疗行业的智能化发展。
研究人员采用了多种关键技术方法。在实验数据方面,使用了 CIFAR - 10、CIFAR - 100 等基准数据集以及 CancerSlides、ChestXray、BloodCell 等专门的医学图像数据集。在实验设置上,利用 Dirichlet 分布构建非独立同分布(Non - IID)数据分区,模拟现实中的数据异质性;将客户端分为弱、中、强三类,模拟不同计算能力的设备场景 。
研究结果如下:
- 性能评估:在相同训练时间下,对三个医学数据集(CancerSlides、ChestXray 和 BloodCell)的实验表明,DynamicFL 在独立同分布(IID)和 Non - IID 设置下均优于所有基线方法。在不同客户端分布比例(如 7:2:1、5:2:3 等)的实验中,DynamicFL 能有效适应,保持优越性能和公平性。在不同网络架构(包括 CNN 和 Transformer 架构)的实验里,DynamicFL 也表现出色,在较小网络架构中能降低通信成本,在 Transformer 架构中能成功扩展,从较小模型到较大模型都有良好表现。
- 公平性评估:DynamicFL 在不同计算能力的客户端之间保持相同的测试准确率,而其他方法在强、弱客户端之间存在显著差异,证明 DynamicFL 能有效解决模型异质性带来的公平性问题。
- 鲁棒性分析:通过不同 Dirichlet 参数 β 值的实验,表明 DynamicFL 在不同程度的 Non - IID 场景下均优于基线方法,具有很强的鲁棒性和适应性。
- 可扩展性评估:增加客户端数量的实验显示,DynamicFL 在不同数据集和模型架构下均优于基线方法,随着客户端数量增加仍能保持优势,证明其可扩展性良好。
- 收敛速度评估:理论分析和实验对比表明,DynamicFL 与普通 FedAvg 具有相同的收敛速度,且在训练初期具有更快的收敛速度和更高的稳定性。
- 隐私保护能力评估:实验表明,DynamicFL 能有效抵御梯度反转攻击,相比其他方法,能更好地保护客户端数据隐私。
研究结论和讨论部分指出,DynamicFL 在多目标优化方面表现出色,实现了公平的客户端参与、卓越的模型效用、增强的数据隐私保护和提高的系统效率。但在实际部署中仍面临挑战,如参与机构间的通信同步和通信开销问题。未来可探索自适应调度机制来解决这些问题。总体而言,DynamicFL 为医疗领域的联邦学习提供了创新的解决方案,在保障隐私和公平性的同时,提升了模型性能,对推动医疗人工智能的发展具有重要意义。
娑撳娴囩€瑰宓庢导锔炬暩鐎涙劒鍔熼妴濠団偓姘崇箖缂佸棜鍎禒锝堥樋閹活厾銇氶弬鎵畱閼筋垳澧块棃鍓佸仯閵嗗甯扮槐銏狀洤娴f洟鈧俺绻冩禒锝堥樋閸掑棙鐎芥穱鍐箻閹劎娈戦懡顖滃⒖閸欐垹骞囬惍鏃傗敀
10x Genomics閺傛澘鎼isium HD 瀵偓閸氼垰宕熺紒鍡氬劒閸掑棜椴搁悳鍥╂畱閸忋劏娴嗚ぐ鏇犵矋缁屾椽妫块崚鍡樼€介敍锟�
濞嗐垼绻嬫稉瀣祰Twist閵嗗﹣绗夐弬顓炲綁閸栨牜娈慍RISPR缁涙盯鈧鐗哥仦鈧妴瀣暩鐎涙劒鍔�
閸楁洜绮忛懗鐐寸ゴ鎼村繐鍙嗛梻銊ャ亣鐠佹彃鐖� - 濞e崬鍙嗘禍鍡毿掓禒搴n儑娑撯偓娑擃亜宕熺紒鍡氬劒鐎圭偤鐛欑拋鎹愵吀閸掔増鏆熼幑顔垮窛閹貉傜瑢閸欘垵顫嬮崠鏍掗弸锟�
娑撳娴囬妴濠勭矎閼崇偛鍞撮摂瀣鐠愩劋绨版担婊冨瀻閺嬫劖鏌熷▔鏇犳暩鐎涙劒鍔熼妴锟�