Many scientific domains gather sufficient labels to train machine algorithms through human-in-the-loop techniques provided by the Zooniverse.org citizen science platform. As the range of projects, task types and data rates increase, acceleration of model training is of paramount concern to focus volunteer effort where most needed. The application of Transfer Learning (TL) between Zooniverse projects holds promise as a solution. However, understanding the effectiveness of TL approaches that pretrain on large-scale generic image sets vs. images with similar characteristics possibly from similar tasks is an open challenge. We apply a generative segmentation model on two Zooniverse project-based data sets: (1) to identify fat droplets in liver cells (FatChecker; FC) and (2) the identification of kelp beds in satellite images (Floating Forests; FF) through transfer learning from the first project. We compare and contrast its performance with a TL model based on the COCO image set, and subsequently with baseline counterparts. We find that both the FC and COCO TL models perform better than the baseline cases when using >75% of the original training sample size. The COCO-based TL model generally performs better than the FC-based one, likely due to its generalized features. Our investigations provide important insights into usage of TL approaches on multi-domain data hosted across different Zooniverse projects, enabling future projects to accelerate task completion.
翻译:许多科学领域收集足够的标签,通过Zouniverse.org公民科学平台提供的 " 公民科学平台 " 提供的 " 仁爱人 " 技术培训机器算法。随着项目范围、任务类型和数据率的提高,加速模型培训是将志愿工作重点放在最需要的地方的首要关注事项。在祖南verse项目之间应用 " 转移学习 " (TL)很有希望作为解决办法。然而,了解 " 转移学习(TL " )方法在大型通用图象组与可能来自类似任务的类似图象的TL模型上进行预演的有效性是一个公开的挑战。我们发现,在两个基于 " 祖爱 " 项目的数据集中,我们采用了一种基因分解模式:(1) 查明肝细胞中的脂肪滴(Fatchager;FC),以及(2) 将卫星图像中的海藻床(Floating Forest Form;FF)作为从第一个项目中学习的一种解决办法。我们将其业绩与基于 " COCO " 成型 " 图像组 " 的TL " 模型进行比较和随后与基准对等。我们发现,基于 " FC和CO TL模型的多L " 模型 " 模型 " 模型 " 比基线 " 基准 " 的基线 " 模型 " 的基线 ",在使用 " 中比基准 " 的基线 ",在使用 " 中比基准 " 的 " 的 " 中都比基准 " 更好的 ",在使用 ",在使用 " 中比基准案例 ",在使用 " Texelfc " 的 " 的 " 的 " 的 " 的 " 的 " 更好的 ",在使用 " 中,在使用 " 使原的 " 的 " 的 " 的 " 的 " 的 " T-C " 的 " 的 " 的 " 的 " 中 " 中, " 中,在使用 " 的 " 的 " 的 " 的 " 的 " 的 " 的 " 的 " 的 " 的 " 的 " 中,在使用 " 的 " 的 " 的 " 上提供了一个 " 的 " 的 " 的 " 的 " 的 " 的 " T- " 的 " 的 " 的 "