Görü Dönüştürücü Tabanlı U-Net Modeller ile Histoloji Görüntülerinde Hücre Çekirdeği Bölütleme


Yıldız S., Memiş A., Varlı S.

32nd Signal Processing and Communications Applications Conference (SIU 2024), Mersin, Türkiye, 15 - 18 Mayıs 2024, ss.1-4

  • Yayın Türü: Bildiri / Tam Metin Bildiri
  • Doi Numarası: 10.1109/siu61531.2024.10601151
  • Basıldığı Şehir: Mersin
  • Basıldığı Ülke: Türkiye
  • Sayfa Sayıları: ss.1-4
  • İstanbul Üniversitesi Adresli: Evet

Özet

Bu bildiri, kolon histoloji görüntülerindeki hücre çekirdeklerinin anlamsal ve örnek bölütlenmesinde görü dönüştürücü tabanlı UNet modellerinin performans analizine dair bir araştırma çalışmasını sunmaktadır. Önerilen çalışmada, görü dönüştürücülü yapılara sahip olan TransUNet ve Swin-Unet mimarilerinin hücre çekirdeklerinin anlamsal ve örnek bölütlenmesindeki performansları analiz edilmiş ve ilgili modellerin Evrişimsel Sinir Ağı (ESA) tabanlı klasik UNet modeli ile karşılaştırması yapılmıştır. Çalışma kapsamında, yüksek sınıf dengesizliği karakteristiğine sahip zorlu veri setlerinden biri olan Colon Nuclei Identification and Counting (CoNIC) Challenge 2022 veri kümesi kullanılmıştır. Modellerin anlamsal bölütleme görevindeki performansları piksel doğruluğu, keskinlik, duyarlılık, F1-ölçümü, Dice benzerlik katsayısı (DSC) ve bütün üzerinden kesişim (IoU) metrikleri üzerinden, örnek bölütleme görevindeki performansı ise panoptik kalitesi (PQ) metriği kullanılarak değerlendirilmiştir. CoNIC Challenge 2022 veri kümesi üzerinde gerçekleştirilen deneysel çalışmalar neticesinde, görü dönüştürücü tabanlı UNet modellerinin uzamsal detay çıkarımında ESA tabanlı UNet modeline göre yetersiz kaldığı ve ESA tabanlı klasik UNet modelinin TransUNet ve Swin-Unet modellerine göre daha yüksek hücre çekirdeği bölütleme başarımı gösterdiği gözlemlenmiştir.

This paper presents a research study on the performance analysis of vision transformer-based UNet models in semantic and instance segmentation of cell nuclei in colon histology images. In the proposed study, the performances of TransUNet and Swin-Unet architectures, which have vision transformer structures, in semantic and instance segmentation of cell nuclei were analyzed and the related models were compared with the classical UNet model based on Convolutional Neural Network (CNN). Within the scope of the study, the Colon Nuclei Identification and Counting (CoNIC) Challenge 2022 dataset, which is one of the challenging datasets with high class imbalance characteristics, was used. The performance of the models in the semantic segmentation task was evaluated using pixel accuracy, precision, recall, F1-measure, Dice Similarity Coefficient (DSC) and Intersection over Union (IoU) metrics, and their performance in the instance segmentation task was evaluated using the panoptic quality (PQ) metric. As a result of the experimental studies carried out on the CoNIC Challenge 2022 dataset, it has been observed that vision transformer-based UNet models are inadequate in spatial detail extraction compared to the CNNbased UNet model, and the CNN-based classical UNet model shows higher cell nuclei segmentation performance than the TransUNet and Swin-Unet models.