学术研究
联邦学习与大语言模型在眼科临床实体识别中的比较研究
临床命名实体识别(NER)是提取临床文本中结构化数据的关键技术,但跨机构的模型泛化能力一直是个难题。本研究对比了两种方法:联邦学习(FL)和大语言模型(LLM)。通过在斯坦福大学(美国)和莫菲尔德眼科医院(英国)的眼科记录中提取视力数据,使用基于BERT的模型、FL策略(FedAvg, STWT)和LLM(Llama-3-70B, Mixtral-8x7B)进行评估。结果显示,联邦学习显著提高了模型的泛化能力,其中STWT在稳定性和准确性上优于FedAvg。而大语言模型在莫菲尔德数据上表现优异,但在结构化的斯坦福数据上表现不佳。这些发现突显了联邦学习在跨机构学习中的有效性,同时也揭示了大语言模型在特定领域内的局限性。
#联邦学习#大语言模型#眼科临床实体识别
PubMed Ophthalmology #1/1
READ