Продовжуючи використовувати сайт, Ви приймаєте нашу політику використання cookies, детальніше

OK
Дистрибуція медичного обладнання

Штучний інтелект для скринінгу раку шийки матки: Попередній огляд, 2009-2022 рр.

19.12.2024 "Статті"


Резюме

Передумови

Перетин штучного інтелекту (ШІ) з дослідженнями раку зростає, і багато досягнень зосереджені на аналізі зображень раку.

Мета

Описати та узагальнити літературу щодо діагностичної точності ШІ в ранній візуалізаційній діагностиці раку шийки матки відповідно до Preferred Reporting Items for Systematic Reviews and Meta-Analyses Extension for Scoping Reviews (PRISMA-ScR).

Стратегія пошуку

Було використано методологію Arksey та O’Malley, а пошук у базах даних PubMed, Scopus та Google Scholar проводився з використанням комбінації ключових слів англійською та іспанською мовами.

Критерії відбору

Виявлені назви та резюме були переглянуті для відбору оригінальних звітів та перехресної перевірки на наявність збігів у випадках.

Збір та аналіз даних

Описовий підсумок був організований за алгоритмом ШІ, що використовувався, загальною кількістю проаналізованих зображень, джерелом даних, клінічними критеріями порівняння та результативністю діагностики.

Основні результати

Ми відібрали 32 дослідження, опубліковані між 2009 і 2022 роками. Основними джерелами зображень були цифрова кольпоскопія, цервікографія та мобільні пристрої. Алгоритми машинного навчання/глибокого навчання (ГН), застосовані в статтях, включали метод опорних векторів (МОВ), класифікатор випадкових лісів, k-найближчих сусідів, багатошаровий перцептрон, C4.5, Naïve Bayes, AdaBoost, XGboots, умовні випадкові поля, класифікатор Байєса, згорткову нейронну мережу (ЗНМ; і варіації), ResNet (кілька версій), YOLO+EfficientNetB0, і групу візуальної геометрії (ГВГ; кілька версій). Методи МОВ та ГН (ЗНМ, ResNet, ГВГ) показали найкращі результати діагностики з точністю понад 97%.

Висновок

Ми дійшли висновку, що використання ШІ для скринінгу раку шийки матки з роками зросло, а деякі результати (переважно з ГН) є дуже багатообіцяючими. Однак для підтвердження цих висновків необхідні подальші дослідження.

1 ВСТУП

Рак шийки матки є четвертою основною причиною смерті від раку серед жінок у всьому світі,1 причому 70% випадків припадає на країни, що розвиваються.2 Захворювання причинно пов’язане з персистуючою інфекцією певними онкогенними типами вірусу папіломи людини (ВПЛ), в більшості випадків з високим ризиком 16 і 18 типів.1 Адекватне впровадження програм первинної та вторинної профілактики, включаючи раннє виявлення передракових утворень і ВПЛ-інфекції за допомогою цервікально-вагінальної цитології і генотипування вірусу на основі аналізу ДНК, відповідно, могло б істотно знизити смертність.2

Цитологія має ряд обмежень. Чутливість варіюється від 52,9% до 80%, а специфічність – від 56,6% до 99,2%.3, 4 Ці відмінності в операційних характеристиках тесту можуть бути пов’язані з відмінностями між патологами і підготовкою осіб, відповідальних за забір зразків.5, 6 У деяких країнах доставка результатів пацієнтці може зайняти до 2 тижнів, що призводить до того, що великий відсоток жінок не звертаються за результатами.7 У сільських громадах з поганою інфраструктурою для цитологічного аналізу часто використовують візуальний огляд з оцтовою кислотою (VIA). Візуальний огляд за допомогою оцтової кислоти може вимагати меншого професійного досвіду, але потребує навчальних навичок для оцінки оцтовобілих ділянок, і має чутливість 53%-73% і специфічність 82%-87% для патологій шийки матки.8 Аналіз ДНК ВПЛ має високу чутливість 94% і специфічність від 84% до 90%.8 Незважаючи на продемонстровану точність первинного тестування на ВПЛ, впровадження цього методу відбувається повільно через обмежену доступність тестів, а також потребу в дуже складних лабораторіях, які дозволяють проводити ампліфікацію нуклеїнових кислот і полімеразну ланцюгову реакцію. Зокрема, його впровадження є складним у сільській місцевості та районах з низьким рівнем доходу, де спостерігаються дуже високі показники захворюваності та смертності від раку шийки матки.911

Діагностика шийки матки за допомогою методів, що базуються на зображеннях, незалежно від того, чи проводиться вона шляхом безпосереднього візуального огляду або за допомогою кольпоскопа, значною мірою залежить від суб’єктивного досвіду та навичок, набутих під час професійної підготовки. На сьогоднішній день золотим стандартом діагностики є кольпоскопія, а за необхідності – біопсія. Кольпоскопія сприяє збільшенню зображень, що дозволяє виявити нерівності тканин, які можуть бути непомітними для неозброєного ока. Тим не менш, на точність діагностики впливає як міжспостережна, так і внутрішньоспостережна варіабельність, а специфічність є низькою і коливається від 30% до 70%. Цифрова кольпоскопія в поєднанні з глибоким навчанням (ГН) може мати потенціал для поліпшення автоматичної класифікації зображень 12 , але все ще вимагає професійного досвіду і наявності кольпоскопів, що часто обмежено в сільській місцевості в країнах з низьким рівнем доходу. Зображення шийки матки, отримані за допомогою смартфонів і надіслані на кольпоскоп, можуть бути корисним діагностичним тестом для цих районів, але нещодавній систематичний огляд показав обмежену чутливість і специфічність.13

Останнім часом наукова спільнота розробляє пристрої на основі штучного інтелекту (ШІ) для гістологічної або візуальної діагностики як реальну альтернативу 13, яка може подолати вищезгадані обмеження. Діагностична візуалізація шийки матки, включаючи зону трансформації, де відбувається 87% уражень,8 може забезпечити достовірну діагностику в режимі реального часу з меншими лабораторними вимогами і без потреби у висококваліфікованому персоналі. На Зображенні 1 показані різні алгоритми ШІ, які були використані в медичних дослідженнях.

Штучний інтелект для скринінгу - Малюнок1

ЗОБРАЖЕННЯ 1

Класифікація алгоритмів машинного навчання.

ШІ відноситься до обчислювальних систем, які запрограмовані функціонувати подібно до людського розуму. Ці системи призначені для навчання на основі досвіду, прийняття автономних рішень і адаптації до мінливого середовища для досягнення конкретних цілей, таких як автоматична класифікація зображень 7, 8 і діагностика на основі зображень. Наприклад, машинне навчання (МН) і ГН передбачають навчання комп’ютера виконувати завдання з певною метою без явного програмування правил, як це робити.14, 15 Такий підхід може бути особливо корисним у країнах, що розвиваються, і громадах, розташованих далеко від міських центрів.

Діагностика раку шийки матки на основі застосування ШІ на зображеннях передбачає навчання керованого алгоритму (МН або ГН) на зображеннях, маркованих експертом. Під час цього навчання системи МН (інтелектуальні агенти) навчаються розрізняти зображення різних класів (нормальні або патологічні), а параметри математичних моделей, що описують ці методи, оптимізуються. Після успішного навчання алгоритми оцінюються за допомогою валідаційних зображень для вимірювання їхньої здатності до ідентифікації та узагальнення з використанням встановлених метрик класифікації, таких як точність, чутливість, специфічність, площа під кривою (робоча характеристика приймача) та оцінка F1, серед інших. Зокрема, алгоритм ШІ знаходить закономірності або дискримінаційні ознаки на зображеннях. Наприклад, згорткова нейронна мережа (ЗНМ) розбиває зображення на кілька згорткових фільтрів, здатних виявити основні та прості патерни (лінії або форми), а також більш складні патерни, такі як краї або текстури. Таким чином виділяються унікальні особливості, які використовуються для диференціації нормального зображення від патологічного. Хоча інтеграція ШІ в діагностику раку шийки матки за допомогою візуалізації зазнала значного зростання, мета полягає не в тому, щоб замінити фахівця, а в тому, щоб розробити автоматизовані, надійні і швидкі системи підтримки діагностики, які підвищують загальну ефективність.

Незважаючи на значні досягнення в галузі ШІ в медицині, застосування ШІ в діагностиці раку шийки матки ще не є широко відомим. Наразі ми зосереджені на дослідженні, спрямованому на розробку та перевірку портативної системи для скринінгу раку шийки матки (номер гранту 125189783229, 897/2021, Міністерство науки, технологій та інновацій Колумбії). Цей пристрій має намір використовувати ШІ для класифікації зображень шийки матки. Звідси випливає два дослідницьких питання: По-перше, який алгоритм ШІ було розроблено для виявлення раку шийки матки за зображеннями шийки матки? По-друге, які алгоритми є найбільш перспективними для скринінгу та діагностики раку шийки матки? Щоб відповісти на ці запитання, було проведено попередній огляд, щоб визначити та сконденсувати існуючі дані щодо точності класифікації методів МН у виявленні раку шийки матки за допомогою аналізу зображень шийки матки. Такий дизайн дослідження дозволяє вивчити широту доказової бази і визначити, чи можна проводити подальший систематичний огляд.16 Ми дотримувалися Preferred Reporting Items for Systematic Reviews and Meta-Analyses Extension for Scoping Reviews (PRISMA-ScR).

2 МАТЕРІАЛИ ТА МЕТОДИ

2.1 Тип дослідження та джерела інформації

Ми провели огляд статей, опублікованих у період з 1 січня 2009 року по 31 грудня 2022 року, за методологією Arksey and O’Malley на основі джерел PubMed, Scopus та Google Scholar. Ми використовували комбінацію іспанських та англійських ключових слів, включаючи рак шийки матки або новоутворення шийки матки, а також ШІ або МН, ГН, візуальний або прямий візуальний огляд. Крім того, ми використовували стратегію “снігової кулі” для визначення додаткових джерел з посилань на деякі повні тексти. Були використані терміни MeSH (Медичні предметні рубрики) та вільнотекстові терміни.

2.2 Критерії прийнятності

Ми включили оригінальні статті кількісних досліджень і тези конференцій, в яких чітко описано застосування МН/ГН для класифікації зображень шийки матки, отриманих за допомогою цифрової кольпоскопії, цервікографії або мобільних пристроїв, що використовуються для класифікації. Показники точності, чутливості, специфічності або AUC повинні бути ідентифіковані в кожній статті. Ми виключили статті про сегментацію зображень при раку шийки матки, оскільки вони не були присвячені застосуванню МН/ГН, статті про застосування МН/ГН в гістології та гістопатології, оглядові статті, тези, патенти, редакційні статті, листи до редактора, статті, які не мали повного тексту, а також статті, цілі дослідження яких не давали відповіді на дослідницьке питання.

2.3 Вилучення даних

Спочатку двоє дослідників визначили стратегію дослідження та оцінили, чи відповідають назви та анотації критеріям включення. Після виключення дублікатів були прочитані повні тексти для визначення потенційних критеріїв виключення. Розбіжності щодо відповідності критеріям відбору вирішувалися шляхом обговорення з іншим членом команди. Були отримані дані щодо типу алгоритму, кількості зображень, першоджерела зображень, референтного тесту, який використовувався як компаратор, та ефективності діагностики. Ми не проводили спеціальної оцінки ризику упередженості для включених досліджень. Якість доступної літератури оцінювали за математичним співвідношенням між метою та результатами дослідження.

2.4 Синтез та аналіз даних

Дані були організовані в матрицю доказів у стандартизований шаблон за допомогою Microsoft Excel 2016 (Microsoft Corporation), протестований дослідницькою групою, який відображає рік публікації, журнал, країну, використаний алгоритм МН/ГН, джерело зображень шийки матки та діагностичну ефективність. Ми використовували абсолютні цифри і відсотки для первинного опису досліджень відповідно до року публікації, мови, континенту, джерела зображень і предметної області журналу, зазначеної в Scopus або в описі веб-сторінки журналу. Ми повідомили про значення чутливості, специфічності, AUC та діагностичної точності, які є загальними показниками для оцінки ефективності тесту. Ми визначили, що алгоритм має хорошу діагностичну здатність, якщо його чутливість становить >95%, а специфічність >90%, при цьому значення ДНК ВПЛ слугують еталоном.8 Крім того, значення AUC і точність >0,90 вважалися показниками відмінної продуктивності.17, 18

3 РЕЗУЛЬТАТИ

3.1 Вибір джерел доказів

Загалом було знайдено 1625 досліджень, з яких 913 були виключені на основі анотацій, оскільки вони не відповідали меті дослідження, а 84 були виключені після прочитання повних текстів статей, оскільки вони не відповідали критеріям відбору. Нарешті, ми відібрали 32 статті, опубліковані між 2009 і 2022 роками, які описують досягнення МН/ГН для класифікації зображень шийки матки в контексті профілактики і скринінгу. На Зображенні 2 показано блок-схему включення досліджень. У Таблиці 1 наведено характеристики переглянутих статей.

Штучний інтелект для скринінгу - Малюнок2

ЗОБРАЖЕННЯ 2

Схема пошуку літератури зі штучного інтелекту для скринінгу раку шийки матки, 2009-2022 рр. Дослідження CLARA.19

ТАБЛИЦЯ 1. Характеристика проаналізованих досліджень: ШІ та скринінг раку шийки матки, 2009-2022 рр. (n = 32).

Характеристики Кількість (%)
Рік публікації
2009–2011 2 (6)
2012–2014 2 (6)
2015–2017 3 (9)
2018–2020 15 (47)
2021–2022 10 (31)
Джерело зображень
Кольпоскопія 20 (63)
Цервікограми 5 (16)
Зображення шийки матки 1 (3)
Кишеньковий кольпоскоп 3 (9)
Смартфон 3 (9)
Тематична категорія журналу
Комп’ютерні науки 13 (41)
Медицина 12 (38)
Біомедична інженерія/інженерія/біохімія, генетика та молекулярна біологія 5 (15)
Мультидисциплінарність 2 (6)
Країна
Китай 7 (22)
Індія 6 (19)
Сполучені Штати 4 (13)
Південна Корея 4 (13)
Японія 3 (9)
Мексика 2 (6)
Коста-Ріка 2 (6)
Бразилія 1 (3)
Венесуела 1 (3)
Ефіопія 1 (3)
Індонезія 1 (3)
  • Абревіатура: ШІ, штучний інтелект.

Зображення 3 ілюструє поступове зростання кількості досліджень як в МН, так і в ГН, зі значним сплеском у 2020 році для раку шийки матки та зображень шийки матки в цілому. Найбільша кількість публікацій припадає на Сполучені Штати та Індію – дев’ять і вісім відповідно. Більшість проаналізованих зображень були отримані за допомогою кольпоскопії, включаючи цифрову кольпоскопію, за нею йшли цервікограми та зображення, отримані за допомогою пристроїв на базі Android. Всі включені дослідження були опубліковані англійською мовою, більшість з них – в журналах з комп’ютерних наук (n = 13 [41%]), за якими слідували медичні журнали (n = 12 [38%]). Таким чином, вісім з 32 включених досліджень (25%) використовували ≤200 зображень для навчання та оцінки.

Штучний інтелект для скринінгу - Малюнок3

ЗОБРАЖЕННЯ 3

Відсоток публікацій про штучний інтелект та скринінг раку шийки матки, 2009-2022 (n = 32).

3.2 Результати ефективності методів МН та ГН у включених дослідженнях

Алгоритми класифікації, застосовані в цих дослідженнях (див. Таблицю 2), були переважно методами керованого навчання, такими як машина опорних векторів (МОВ; n = 6), випадковий ліс (n = 3), умовні випадкові поля (n = 2), C4. 5 (n = 1), Naïve Bayes (n = 3), k-найближчий сусід (KNN; n = 3), багатошаровий перцептрон (БШП; n = 1), градієнтний бустинг (n = 2), AdaBoost (n = 2), ЗНМ (та його варіації) (n = 12), ResNet (та його варіації) (n = 5), група візуальної геометрії (ГВГ; n = 2) та YOLO+EfficientNetB0 (n = 1).

ТАБЛИЦЯ 2. Опубліковані дослідження з використанням алгоритмів ШІ для класифікації раку шийки матки, 2009-2022 рр.

Year Journal/conference Authors Algorithm Number of images Source of images Reference test Diagnosis performance
2022 Scientific Reports Kim et al.20 ResNet-18, −50, and −101 adding segmentation information of acetowhite epithelium 3699 Colposcopy images Clinical opinion or biopsy ResNet-18

Accuracy: 74.8%

Sensitivity: 65.4%

Specificity: 84.3%

ResNet-50

Accuracy: 76.3%

Sensitivity: 69.8%

Specificity: 82.9%

ResNet-101 Accuracy: 74.8%

Sensitivity: 72.8%

Specificity: 76.9%,

2022 BMC Research Notes Harsono et al.21 Gradient boosting classifier 199 patients Smartphone-acquired VIA image (Android) Clinical opinion AUC = 0.85

Accuracy: 93.8%

Sensitivity: 80%

Specificity: 96.4%

2022 Frontiers in Pharmacology Huang et al.22 CNN 10 012 Digital colposcopy data set Clinical opinion Accuracy: 95.19%
2022 Medical Devices: Evidence and Research Habtemariam et al.23 MobileNetv2-YOLOv3 + EffecientNetB0 4005 + 915 Digital colposcopy data set+histopathology images Clinical opinion Accuracy: 96.84%
2022 Journal of Gynecologic Oncology Takahashi et al.24 CNN 167 and 593 for validation Colposcopy images Clinical opinion Accuracy: 89.7%
2021 Journal of Medical Signals and Sensors Nikookar et al.25 Ensemble classifier with Naive Bayes, AdaBoost, random forest, random tree, SVM, decision tree 287 Digital colposcopy data set Clinical opinion Ensemble:

AUC: 0.94

Sensitivity: 96%

Specificity: 94%

2021 Scientific Reports Park et al.26 Comparison ResNet-50 and the ML models XGB, SVM, and RF 4119 Cervicography images Clinical opinion AUCs:

ResNet-50: 0.97

XGB: 0.82

SVM: 0.84

RF: 0.79

2021 Annals of Translational Medicine Liu et al.27 ResNet and combining ResNet with clinical features 15 276 Colposcopy images Clinical opinion Combined model ResNet+clinical features

AUC: 0.953

Accuracy: 88.6%

Sensitivity: 93.2%

Specificity: 84.6%

Only ResNet

AUC: 0.945

Accuracy: 88.2%

Sensitivity: 90.1%

Specificity: 86.7%

2021 International Journal of Medical Informatics Yu et al.28 GRCNN 4753 Colposcopy images Clinical opinion Accuracy: 96.87%

Sensitivity: 95.68%

Specificity: 98.72%

2021 BioMed Research International Chandran et al.29 Two CNN: VGG-19 (TL) and CYENET 5679 Colposcopy photographs Clinical opinion VGG-19

Accuracy: 73.3%

Sensitivity: 33.0%

Specificity: 79.0%

CYENET

Accuracy: 92.3%

Sensitivity: 92.4%

Specificity: 96.2%

2020 Scientific Reports Cho et al.30 Two CNN: Inception-Resnet-v2 and Resnet-152 1426 Colposcopy photographs Clinical opinion Resnet-v2

AUC: 0.932

Accuracy: 87.7%

Sensitivity: 83.3%

Specificity: 88.6%

Resnet-152

AUC = 0.947

Accuracy: 87.7%

Sensitivity:85.2%

Specificity:88.2%

2020 IEEE J ournal of Biomedical and Health Informatics Yue et al.31 CNN 4753 Cervicograms, colposcopy Clinical opinion Accuracy: 96.13%

Sensitivity: 98.22%

Specificity: 95.09%

2020 JMIR mHealth and uHealth Bae et al.32 Compare KNN, SVM, and DT 240 Cervicograms, smartphone-based endoscopic VIA Clinical opinion KNN

AUC: 0.807

Accuracy: 78.3%

Sensitivity: 75.0%

Specificity: 80.3%

SVM

AUC: 0.744

Accuracy: 74.2%

Sensitivity: 72.7%

Specificity: 75%

DT

AUC: 0.767

Accuracy: 75.8%

Sensitivity: 63.6%

Specificity: 82.9%

2020 Annual International Conference of the IEEE Engineering in Medicine Biology Society Asiedu et al.33 Evaluation of multiple combinations of contrast: VIA, VILI, GIVI 335 Pocket colposcope Clinical opinion Contrast

VIA + VILI

AUC: 0.86

VIA + GIVI

AUC: 0.86

VIA + VILI + GIVI

AUC: 0.98

2020 Journal of Digital Imaging Kudva et al.34 CNN: two pretrained networks, AlexNet and VGG-16 net and filters modified 2198 Cervix images Clinical opinion CNN-1

Accuracy: 91.46%

Sensitivity: 89.16%

Specificity: 93.83%

CNN-2

Accuracy: 85.37%

Sensitivity: 86.75%

Specificity: 83.95%

AlexNet

Accuracy: 84.31%

Sensitivity: 93.50%

Specificity: 75.00%

VGG-16

Accuracy: 84.15%

Sensitivity: 83.13%

Specificity: 85.18%

2020 BMC Medicine Xue et al.35 CNN

CAIADS

101 217 Colposcopy images and no image information Clinical opinion Low-grade or worse

Accuracy: 66.7%

Sensitivity: 90.5%

Specificity: 51.8%

High-grade or worse

Accuracy: 85.5%

Sensitivity: 71.9%

Specificity: 93.9%

2020 International Journal Cancer Xue et al.36 CNN: AVE for smartphone 7587 Smartphone-acquired VIA image Clinical opinion AUC >0.90
2020 Oncology Letters Miyagi et al.37 CNN 253 Colposcopy images Clinical opinion AUC: 0.963

Accuracy: 94.1%

Sensitivity: 95.6%

Specificity: 83.3%

2020 Scientific Reports Yuan et al.38 Mask R-CNN + ResNet 5384 Colposcopy images Clinical opinion AUC: 0.93

Accuracy: 84.1%

Sensitivity: 85.38%

Specificity: 82.62%

2019 IEEE Transactions on Biomedical Engineering Asiedu et al.39 SVM using VIA and VILI 200 Pocket colposcopy Clinical opinion Accuracy: 80.0%

Sensitivity: 81.3%

Specificity: 78.6%

2019 Journal of the National Cancer Institute Hu et al.40 Faster R-CNN 2000 Cervicography (Guanacaste study) Clinical opinion AUC = 0.91
2018 Journal of Digital Imaging Kudva et al.41 SVM and DT 102 Smartphone-acquired VIA image (Android device) Clinical opinion SVM

Accuracy: 98.33%

Sensitivity: 98.1% Specificity: 98.5%

DT

Accuracy: 97%–16%

Sensitivity: 95%

Specificity: 98.67%

2018 Proceedings of SPIE Sapiro et al.41 SVM 134 Pocket colposcope Clinical opinion and pathology Algorithm vs physician Accuracy: 80.6%

Sensitivity: 89.2% Specificity: 66.7%

Algorithm versus pathology

Accuracy: 56%

Sensitivity: 75.8%

Specificity: 40%

2018 International Journal of Engineering Technology Science and Research Vasudha et al.42 LeNet, a neural network 690 Digital colposcopy Biopsy Accuracy: 83%
2018 Oncology Letters Sato et al.43 Keras neural network 485 Digital colposcopy Biopsy Accuracy: 50%
2017 Computational and Mathematical Methods in Medicine Gutierres-Fragoso et al.44 KNN, NB, C4.5 200 Digital colposcopy Biopsy KNN:

AUC = 0.732

NB

AUC = 0.713

C4.5

AUC = 0.652

2016 Research Journal of Pharmaceutical, Biological, and Chemical Sciences Sukumar et al.45 Random forest classifier 280 Cervicography (Guanacaste study) Biopsy Accuracy: 95.4%
2015 IEEE 12th International Symposium on Biomedical Imaging Xu et al.46 AdaBoost 1112 Cervicography (Guanacaste study) Biopsy Accuracy: 80.3%
2014 Cancer Informatics Simoes et al.47 Multilayer perceptron Networks 170 Digital colposcopy Biopsy AUC = 0.73

Sensitivity: 69.78%

Specificity: 68%

2012 2012 International Conference on Computing, Electronics and Electrical Technologies Pretty Mary et al.48 Conditional random fields Digital colposcopy Biopsy Sensitivity: 70%

Specificity: 88%

2011 IEEE Transactions on Medical Imaging Park et al.49 Conditional random fields 48a Digital colposcopy Biopsy AUC = 0.8012
2009 Computers in Biology and Medicine Acosta-Mesa et al.50 KNN 38b Digital colposcopy Biopsy Sensitivity: 71%

Specificity: 59%

Скорочення: AI, штучний інтелект; AUC, площа під кривою; AVE, автоматизована візуальна оцінка; CAIADS, Кольпоскопічна допоміжна діагностична система зі штучним інтелектом; CNN, згорткова нейронна мережа; CYENET, CycleGAN та мережі перенесення стилів; DT, дерева рішень; GIVI, зображення судин із зеленим підсвічуванням; GRCNN, згорткова нейронна мережа із закритими рекурентними зв’язками; KNN, k-найближчий сусід; ML, машинне навчання; NB, Naïve Bayes; R-CNN, згорткова нейронна мережа на основі регіону; RF, випадковий ліс; SVM, машина опорних векторів; VGG, група візуальної геометрії; VIA, візуальний огляд з оцтовою кислотою; VILI, візуальний огляд шийки матки з розчином Люголя; XGB, екстремальний градієнтний бустинг.

  • a Кілька зображень було отримано від 48 пацієнтів; не вказано, скільки з них було використано для навчання та валідації.
  • b Десять зображень протягом перших 10 с і 300 зображень протягом наступних 5 хв для кожної жінки.

Не всі дослідження повідомили про однакові параметри діагностичної точності, і лише 11 з 32 досліджень використовували біопсію як референтний тест. Про точність повідомлялося в 22 дослідженнях, про чутливість і специфічність – в 19 дослідженнях, а про AUC – в 14 дослідженнях. Щодо чутливості, то 15,6% повідомляли про значення вище очікуваної точки відсікання (95%). Дослідження з найвищою чутливістю було засноване на МОВ, за яким слідує GRCNN, тоді як найгірша чутливість була отримана при використанні ГВГ-19, за яким слідують БШП-мережі. Що стосується специфічності, 21,9% повідомили про значення вище очікуваної точки відсікання (90%). Щодо точності або AUC, 56,2% повідомили про значення вище очікуваної точки відсікання.

4 ОБГОВОРЕННЯ

У цьому огляді ми проаналізували 32 наукові статті за 13 років (2009-2022) про використання МН, включаючи алгоритми ГН, для класифікації зображень у скринінгу раку шийки матки. Результати вказують на зростаючу тенденцію використання ГН з роками. Більшість досліджень були опубліковані в неклінічних журналах. Це підкреслює необхідність поширення цих алгоритмів у медичних журналах для сприяння клінічним дослідженням, пов’язаним з ШІ як діагностичним інструментом.

4.1 Типи алгоритмів

Для скринінгу раку шийки матки використовується декілька алгоритмів МН та ГН з контролем. Наприклад, ми зустрічаємо добре відомі МН-методи, такі як МОВ, випадковий ліс і KNN, серед інших. Крім того, ми спостерігаємо вражаючу продуктивність ГН-підходів, особливо ЗНМ та його варіацій. Нарешті, нещодавні дослідження синергетично об’єднали алгоритми МН і ГН за допомогою трансферного навчання, що підвищило чутливість і специфічність діагнозів. Ці висновки вказують на перспективні напрямки для майбутніх досліджень у цій галузі.

4.2 Продуктивність алгоритмів

Результати досліджень, проведених до цього часу, демонструють багатообіцяючі результати з точки зору діагностичної ефективності. Тим не менш, результати різняться в різних дослідженнях з точки зору специфічності, чутливості, AUC і загальної точності. З появою нових алгоритмів, дискримінаційна здатність також покращилася, особливо з 2018 року. Чутливість зросла з приблизно 70% до 2015 року до рівня, що перевищує 90% з 2018 року. Поточні дослідження з використанням методологій ГН 2224, 2631, 34, 37, 38 демонструють обнадійливі результати, досягаючи показників AUC, точності та чутливості, що перевищують 90%. Це відродило ентузіазм щодо застосування ГН у цій галузі. На жаль, частина досліджень представила лише показники AUC або точності для таких алгоритмів, як випадковий ліс,45 ResNet,26 і YOLO+EfficientNetB0.23 Отже, прямі порівняння стають складними через неповноту певних вимірювань. Зокрема, ЗНМ продемонстрував виняткову діагностичну ефективність у розглянутих дослідженнях, перевершуючи їх як за чутливістю, так і за специфічністю. Варто зазначити, що між чотирма опублікованими дослідженнями 31, 37, 38, 51, в яких використовувався ЗНМ, існують значні відмінності в розмірах вибірок. Помітним винятком є дослідження, проведене Hu та колегами у 2019 році,40 яке включає великий масив даних з понад 9000 цервікограм, отриманих від когорти пацієнток у Гуанакасте, Коста-Ріка. Вони застосували ЗНМ для аналізу зображень і досягли AUC 0,91. Ця AUC перевершує діагностичну точність традиційної цитології, рідинної цитології, цервікографії і навіть методів виявлення ДНК ВПЛ початкового покоління. Нарешті, можна стверджувати, що МОВ також продемонстрував багатообіцяючі результати.

Відповідно до вищесказаного, як МОВ (МН), так і ЗНМ (ГН) можуть більш ефективно виводити і розрізняти інформацію, що міститься в зображеннях шийки матки, що дозволяє автоматично і надійно ідентифікувати пацієнток з ураженнями шийки матки або навіть раком. Перевагою ЗНМ є використання фільтрів, які виділяють прості і складні ознаки із зображення в згорнутому шарі, тоді як в щільних шарах йому вдається розрізняти ці ознаки в залежності від класу. Тому можна стверджувати, що ЗНМ є одночасно і екстрактором, і класифікатором. З іншого боку, МОВ потребує окремого етапу екстракції та відбору ознак. Однак для підтвердження ефективності цієї методології в контексті скринінгових програм необхідні подальші проспективні клінічні дослідження.52 Як і очікувалося, комбінування алгоритмів призвело до покращення загальної продуктивності. Наприклад, ResNet+клінічні ознаки,27 ансамблевий класифікатор,24, 25 та Cervical Net + МОВ 21 досягли чудових показників.

4.3 Гетерогенність досліджень

Дослідження неоднорідні щодо різноманітності включених популяцій, використання різних компараторів і звітів про різні характеристики тестів. Ця неоднорідність перешкоджає прямому порівнянню алгоритмів. У деяких дослідженнях в якості компаратора використовували клінічну думку, а не золотий стандарт (біопсію)41 , що може призвести до помилки класифікації.

У деяких випадках включення пацієнток високого ризику, які вже були направлені на кольпоскопію через підозру на серйозні зміни 44, 50, не дозволяє узагальнити результати на цільову популяцію для скринінгу і може призвести до переоцінки чутливості. Крім того, кількість зображень у дослідженнях, як правило, була невеликою, за винятком дослідження Guanacaste.40 Це викликає занепокоєння, враховуючи, що рак шийки матки може мати різні макроскопічні прояви у різних пацієнтів. Дослідження, в якому було використано найбільше зображень, було розроблено Xue та співавт.35, в якому були зібрані зображення кольпоскопії та інші не кольпоскопічні зображення для навчання та оцінки.

Хоча раніше опубліковане дослідження показало, що застосування аналізу зображень для цитології шийки матки є відносно зрілим 53, наше дослідження підкреслює необхідність стандартизації дизайну та звітності про результати досліджень в області аналізу зображень шийки матки на основі МН.

У 2018 році Fernandes та співавт.54 опублікували наративний огляд, в якому надали всебічний огляд компонентів, задіяних в автоматичному аналізі зображень цифрової кольпоскопії, що може допомогти інженерам у вдосконаленні процесу отримання та аналізу зображень. Оскільки кількість публікацій про використання МН і ГН у скринінгу раку шийки матки продовжує зростати, проведення більш повної і ретельної оцінки наявних доказів може бути виправданим. Стандартизація є особливо актуальною, особливо при проведенні мета аналізу як на індивідуальному, так і на мережевому рівнях. Включення керівних принципів звітності для досліджень ШІ, таких як контрольний список Minimum Information About Clinical Artificial Intelligence Modeling (MI-CLAIM)54 , може забезпечити підвищену прозорість і точність результатів цих оглядів. Це, в свою чергу, дає змогу краще порівнювати та оцінювати різноманітні алгоритми, що використовуються. Отже, майбутні дослідження повинні прагнути до дотримання цих рекомендацій.

4.4 Обмеження огляду

Наскільки нам відомо, це перший огляд, який включає синтез діагностичних характеристик використовуваних алгоритмів, що безпосередньо пов’язано з потенційним клінічним застосуванням ШІ. Незважаючи на цей внесок, огляд має деякі обмеження. Якість доказів не була детально оцінена, оскільки автори мали на меті дослідити докази щодо використання МН і ГН для скринінгу раку шийки матки через класифікацію зображень шийки матки в загальному вигляді. Крім того, результати різних алгоритмів навчання не порівнювалися через відсутність однорідності результатів, про які повідомлялося, оскільки в деяких дослідженнях повідомлялося лише про точність, тоді як в інших – про AUC, чутливість і специфічність. Нарешті, ми не оцінювали, чи проводилася зовнішня валідація в дослідженнях, що викликає занепокоєння щодо точності діагностики, оскільки навчальні тести часто дають кращі результати.

4.5 Майбутні дослідження

Як показано в Таблиці 1, необхідно проводити спеціальні дослідження в країнах з обмеженими ресурсами і високим рівнем поширеності захворювання, включаючи такі регіони, як деякі країни Латинської Америки і Південної Африки.55 Слід зазначити, що проспективні клінічні дослідження є необхідними для оцінки реальної ефективності систем, заснованих на ГН, серед різних популяцій пацієнтів. Ці дослідження також повинні враховувати такі фактори, як економічна ефективність, доцільність і зручність використання. Крім того, етичні та регуляторні міркування повинні бути ретельно розглянуті для забезпечення відповідального використання ГН у виявленні раку шийки матки.

5 ВИСНОВОК

Результати використання алгоритмів МН/ГН для діагностичної дискримінації, особливо з точки зору чутливості, є багатообіцяючими для діагностики раку шийки матки на основі зображень шийки матки і мають потенціал бути економічно ефективними, особливо в країнах з низькими ресурсами. Тим не менш, докази залишаються непереконливими, а поточні дизайни досліджень обмежують їх застосування в клінічних сценаріях скринінгу.34 Необхідні подальші дослідження для підтвердження застосування цих технологій в клінічних умовах, включаючи оцінку популяцій пацієнтів, які беруть участь у скринінгових програмах. Серед різних алгоритмів МН/ГН найкращі результати показали ЗНМ, ResNet, YOLO+EfficientNetB0 та МОВ. Тому ми вважаємо ЗНМ та їх варіації найефективнішими методами виявлення раку шийки матки за зображеннями кольпоскопії.

ПОСИЛАННЯ НА ДЖЕРЕЛА

  1.   Cancer  (IARC)  TIA  for  R  on.  Global  Cancer  Observatory  n.d. Accessed February 22, 2023. https://gco.iarc.fr/  
  2.   Organización Panamericana de la Salud. Plan de acción sobre la prevención  y  el  control  del  cáncer  cervicouterino  2018–2030. 2018.  
  3.   Murillo R, Almonte M, Pereira A, et al. Cervical cancer screening pro-grams in Latin America and the Caribbean. Vaccine. 2008;26(Suppl 11):L37-L48. doi:10.1016/j.vaccine.2008.06.013  
  4.   Carrascal M, Chávez C, Sesin F. Correlación diagnóstica de la ci-tología  cervical  versus  colposcopia  en  lesiones  premalignas de  cáncer  cervicouterino.  IPS  Universitaria  Barranquilla  2013. Biociencias. 2014;9:37-43.  
  5.   Sørbye SW, Suhrke P, Revå BW, Berland J, Maurseth RJ, Al-Shibli K. Accuracy of cervical cytology: comparison of diagnoses of 100 pap smears read by four pathologists at three hospitals in Norway. BMC Clin Pathol. 2017;17:18. d o i :10 .11 8 6 /s1 2 9 0 7- 0 17-   0 0 5 8 –    8  
  6.   Wentzensen  N,  Fetterman  B,  Castle  PE,  et  al.  p16/Ki-67  dual stain cytology for detection of cervical precancer in HPV-positive women. J   Natl   Cancer   Inst.   2015;107:djv257.   doi:10.1093/jnci/djv257  
  7.   Urrutia  M-T,  Poupin  L.  Women  with  cervical  cancer:  percep-tions  about  the  papanicolaou  test. Aquichan.  2015;15:499-507. doi:10.5294/aqui.2015.15.4.5  
  8.   Mustafa RA, Santesso N, Khatib R, et al. Systematic reviews and meta-    analyses  of  the  accuracy  of  HPV  tests,  visual  inspection with acetic acid, cytology, and colposcopy. Int  J  Gynaecol  Obstet. 2016;132:259-265. doi:10.1016/j.ijgo.2015.07.024  
  9.   Committee  on  Practice  Bulletins—Gynecology.  ACOG  practice bulletin number 131: screening for cervical cancer. Obstet Gynecol. 2012;120:1222-1238. doi:10.1097/aog.0b013e318277c92a 
  10.   Yu L, Sabatino SA, White MC. Rural-urban and racial/ethnic dispari-ties in invasive cervical cancer incidence in the United States, 2010– 2014. Prev Chronic Dis. 2019;16:E70. doi:10.5888/pcd16.180447 
  11.   Li X, Deng Y, Tang W, et al. Urban-rural disparity in cancer inci-dence, mortality, and survivals in Shanghai, China, during 2002 and 2015. Front Oncol. 2018;8:579. doi:10.3389/fonc.2018.00579
  12.   Xue P, Ng MTA, Qiao Y. The challenges of colposcopy for cervical cancer screening in LMICs and solutions by artificial intelligence. BMC Med. 2020;18:169. d o i :10 .11 8 6 /s1 2 9 1 6 – 0 2 0 –    0 1 61 3 – x
  13.   Champin D, Ramírez-Soto MC, Vargas-Herrera J. Use of smart-phones for the detection of uterine cervical cancer: a systematic review. Cancers   (Basel).  2021;13(23):6047. doi:10.3390/cancers13236047 
  14.   Garcia-Canadilla  P,  Sanchez-Martinez  S,  Crispi  F,  Bijnens  B. Machine learning in fetal cardiology: what to expect. Fetal  Diagn  Ther. 2020;47:363-372. doi:10.1159/000505021
  15.   Grant MJ, Booth A. A typology of reviews: an analysis of 14 review types and associated methodologies. Health Inf Libr J. 2009;26:91-108.    doi:10.1111/j.1471-1842.2009.00848.x
  16.   Munn Z, Peters MDJ, Stern C, Tufanaru C, McArthur A, Aromataris E. Systematic review or scoping review? Guidance for authors when choosing between a systematic or scoping review approach. BMC Med Res Methodol. 2018;18:143. d o i :10 .11 8 6 /s1 2 8 74 – 0 1 8 –    0 611-    x 
  17.   Mandrekar JN. Receiver operating characteristic curve in diagnos-tic test assessment. J Thorac Oncol. 2010;5:1315-1316. doi:10.1097/JTO.0b013e3181ec173d
  18.   Hosmer  DW,  Lemeshow  S.  Assessing  the  fit  of  the  model.  In: Shewhart WA, Wilks SS, Hosmer DW, Lemeshow S, eds. Applied Logistic  Regression. John Wiley & Sons, Ltd; 2000:143-202. doi:10.1002/0471722146.ch5 
  19.   Hunt B, Fregnani JHTG, Brenes D, et al. Cervical lesion assessment using real-time microendoscopy image analysis in Brazil. The CLARA study. Int J Cancer. 2021;149(2):431–441. doi:10.1002/ijc.33543
  20.   Kim J, Park C, Kim S, Cho A. Convolutional neural network-based classification  of  cervical  intraepithelial  neoplasias  using  colpo-scopic  image  segmentation  for  acetowhite  epithelium. Sci  Rep. 2022;12:17228. d o i :10 .10 3 8 /s 41 59 8 – 0 2 2-   2 1 6 9 2-     5
  21.   Harsono AB, Susiarno H, Suardi D, et al. Cervical pre-cancerous lesion  detection:  development  of  smartphone-based  VIA  appli-cation using artificial intelligence. BMC  Res  Notes.  2022;15:356.  d o i :10 .11 8 6 /s1 3 10 4 – 0 2 2-    0 6 2 5 0 – 6
  22.   Huang W, Sun S, Yu Z, Lu S, Feng H. Chronic cervicitis and cer-vical  cancer  detection  based  on  deep  learning  of  colposcopy images  toward  translational  pharmacology. Front   Pharmacol. 2022;13:911962. doi:10.3389/fphar.2022.911962
  23.   Habtemariam LW, Zewde ET, Simegn GL. Cervix type and cervical cancer classification system using deep learning techniques. Med Devices (Auckl). 2022;15:163-176. doi:10.2147/MDER.S366303
  24.   Takahashi T, Matsuoka H, Sakurai R, et al. Development of a prog-nostic prediction support system for cervical intraepithelial neo-plasia using artificial intelligence-based diagnosis. J Gynecol Oncol. 2022;33(5):e57. doi:10.3802/jgo.2022.33.e57
  25.   Nikookar E, Naderi E, Rahnavard A. Cervical cancer prediction by merging features of different colposcopic images and using ensem-ble classifier. J Med Signals Sens. 2021;11:67-78. doi:10.4103/jmss.JMSS_16_20
  26.   Park YR, Kim YJ, Ju W, Nam K, Kim S, Kim KG. Comparison of machine and deep learning for the classification of cervical can-cer  based  on  cervicography  images. Sci   Rep.  2021;11:16143. d o i :10 .10 3 8 /s 41 59 8 – 0 2 1-   9 5 74 8 – 3 
  27.   Liu L, Wang Y, Liu X, et al. Computer-aided diagnostic system based on deep learning for classifying colposcopy images. Ann Transl Med. 2021;9:1045. d o i :10 . 2 10 3 7/a t m – 2 1-   8 8 5
  28.   Yu Y, Ma J, Zhao W, Li Z, Ding S. MSCI: a multistate dataset for col-poscopy image classification of cervical cancer screening. Int J Med Inform. 2021;146:104352. doi:10.1016/j.ijmedinf.2020.104352 
  29.   Chandran V, Sumithra MG, Karthick A, et al. Diagnosis of cervical cancer based on ensemble deep learning network using colposcopy images. Biomed Res Int. 2021;2021:e5584004. doi:10.1155/2021/5584004
  30.   Cho B-J, Choi YJ, Lee M-J, et al. Classification of cervical neo-plasms on colposcopic photography using deep learning. Sci  Rep. 2020;10:13652. d o i :10 .10 3 8 /s 41 59 8 – 0 2 0 –   7 0 4 9 0 – 4
  31.   Yue Z, Ding S, Zhao W, et al. Automatic CIN grades prediction of sequential cervigram image using LSTM with multistate CNN fea-tures. IEEE J Biomed Health Inform. 2020;24:844-854. doi:10.1109/JBHI.2019.2922682
  32.   Bae JK, Roh H-J, You JS, et al. Quantitative screening of cervical cancers  for  low-resource  settings:  pilot  study  of  smartphone-based  endoscopic  visual  inspection  after  acetic  acid  using  ma-chine learning techniques. JMIR  Mhealth  Uhealth. 2020;8:e16467. doi:10.2196/16467
  33.   Asiedu MN, Skerrett E, Sapiro G, Ramanujam N. Combining multi-ple contrasts for improving machine learning-based classification of cervical cancers with a low-cost point-of-  care pocket colpo-scope. Annu Int Conf IEEE Eng Med Biol Soc. 2020;2020:1148-1151. doi:10.1109/EMBC44109.2020.9175858
  34.   Kudva V, Prasad K, Guruvare S. Hybrid transfer learning for classifi-cation of uterine cervix images for cervical cancer screening. J Digit Imaging. 2020;33(3):619-631. d o i :10 .10 0 7/s10 2 7 8 – 0 19 –   0 0 2 6 9 – 1 
  35.   Xue P, Tang C, Li Q, et al. Development and validation of an artificial intelligence system for grading colposcopic impressions and guiding biopsies. BMC Med. 2020;18:406. doi:10.1186/s12916- 020-   01860- y
  36.   Xue Z, Novetsky AP, Einstein MH, et al. A demonstration of auto-mated visual evaluation of cervical images taken with a smartphone camera. Int J Cancer. 2020;147:2416-2423. doi:10.1002/ijc.33029 
  37.   Miyagi Y, Takehara K, Nagayasu Y, Miyake T. Application of deep learning to the classification of uterine cervical squamous epithelial lesion from colposcopy images combined with HPV types. Oncol Lett. 2020;19:1602-1610. doi:10.3892/ol.2019.11214
  38.   Yuan C, Yao Y, Cheng B, et al. The application of deep learning based diagnostic system to cervical squamous intraepithelial le-sions recognition in colposcopy images. Sci  Rep.  2020;10:11639.  doi:10.1038/s41598-020-   68252-3 
  39.   Asiedu MN, Simhal A, Chaudhary U, et al. Development of algo-rithms  for  automated  detection  of  cervical  pre-cancers  with  a low-   cost, point- of-  care, pocket colposcope. IEEE Trans Biomed Eng. 2019;66:2306-2318. doi:10.1109/TBME.2018.2887208
  40.   Hu L, Bell D, Antani S, et al. An observational study of deep learning and automated evaluation of cervical images for cancer screening. J Natl Cancer Inst. 2019;111:923-932. doi:10.1093/jnci/djy225 
  41.   Kudva  V,  Prasad  K,  Guruvare  S.  Andriod  device-based  cervi-cal cancer screening for resource-poor settings. J  Digit  Imaging. 2018;31(5):646-654. d o i :10 .10 0 7/s10 2 7 8 – 0 1 8 –    0 0 8 3 –    x
  42.   Vasudha A, Mittal MJ. Cervix cancer classification using colpos-copy images by deep learning method. Int  J  Eng  Technol  Sci  Res. 2018;5:426-432.
  43.   Sato M, Horie K, Hara A, et al. Application of deep learning to the classification of images from colposcopy. Oncol Lett. 2018;15:3518-3523. doi:10.3892/ol.2018.7762
  44.   Gutiérrez-Fragoso  K,  Acosta-Mesa  HG,  Cruz-Ramírez  N, Hernández-Jiménez  R.  Optimization  of  classification  strate-gies  of  Acetowhite  temporal  patterns  towards  improving  diag-nostic  performance  of  colposcopy. Comput  Math  Methods  Med. 2017;2017:5989105. doi:10.1155/2017/5989105
  45.   Sukumar P, Gnanamurthy R. Computer aided screening of cervical cancer using random forest classifier. Res  J  Pharm,  Biol  Chem  Sci. 2016;7:1521-1529.
  46.   Xu T, Kim E, Huang X. Adjustable adaboost classifier and pyra-mid features for image-based cervical cancer diagnosis. 2015 IEEE 12th  International  Symposium  on  Biomedical  Imaging  (ISBI).  IEEE; 2015:281-285. doi:10.1109/ISBI.2015.7163868 
  47.   Simões PW, Izumi NB, Casagrande RS, et al. Classification of images acquired with colposcopy using artificial neural networks. Cancer Informat. 2014;13:119-124. doi:10.4137/CIN.S17948
  48.   Pretty Mary D, Anandan V, Srinivasagan KG. An effective diag-nosis  of  cervical  cancer  neoplasia  by  extracting  the  diagnostic features using CRF. 2012  International  Conference  on  Computing,  Electronics and Electrical Technologies (ICCEET). IEEE; 2012:563-570. doi:10.1109/ICCEET.2012.6203885 
  49.   Park SY, Sargent D, Lieberman R, Gustafsson U. Domain-specific image analysis for cervical neoplasia detection based on condi-tional random fields. IEEE  Trans  Med  Imaging.  2011;30:867-878. doi:10.1109/TMI.2011.2106796
  50.   Acosta-Mesa H-G, Cruz-Ramírez N, Hernández-Jiménez R. Aceto- white temporal pattern classification using k-NN to identify pre-cancerous cervical lesion in colposcopic images. Comput Biol Med. 2009;39:778-784. doi:10.1016/j.compbiomed.2009.06.006 
  51.   Devi MA, Ravi S, Vaishnavi J, Punitha S. Classification of cervi-cal cancer using artificial neural networks. Procedia  Comput  Sci. 2016;89:465-472. doi:10.1016/j.procs.2016.06.105
  52.   Rubin R. Artificial intelligence for cervical precancer screening. JAMA. 2019;321:734. doi:10.1001/jama.2019.0888
  53.   Hou  X,  Shen  G,  Zhou  L,  Li  Y,  Wang  T,  Ma  X.  Artificial  intelli-gence  in  cervical  cancer  screening  and  diagnosis. Front  Oncol. 2022;12:851367. doi:10.3389/fonc.2022.851367
  54.   Fernandes K, Cardoso JS, Fernandes J. Automated methods for the  decision  support  of  cervical  cancer  screening  using  digital colposcopies. IEEE   Access.  2018;6:33910-33927. doi:10.1109/ACCESS.2018.2839338 
  55.   Miller  KD,  Siegel  RL,  Lin  CC,  et  al.  Cancer  treatment  and  sur-vivorship  statistics,  2016. CA   Cancer   J   Clin.  2016;66:271-289. doi:10.3322/caac.21349
переглянути всі джерела
Написати відгук