Wykorzystanie uczenia głębokiego w interpretacji ultrasonografii płucnej w czasie rzeczywistym

En ny studie publicerad den 29 januari i Ultrasonics tyder på att djupinlärning kan förbättra tolkningen av lungultraljud i realtid. Forskningslaget, ledd av Dr. Lewis Howell från University of Leeds i Storbritannien, upptäckte att träning av en djupinlärningsmodell på lungultraljudsbilder möjliggjorde segmentering och karaktärisering av artefakter i en fantommodell.

Studien betonar att lungultraljud har framhållits under de senaste åren som en säker och kostnadseffektiv avbildningsmetod för att utvärdera lunghälsa. COVID-19-pandemin har lett till en ökad användning av lungultraljud som en icke-invasiv avbildningsteknik.

Forskare noterar emellertid utmaningarna med denna metod, särskilt variationen i tolkningar bland användare.

Dr. Howells team beskriver en djupinlärningsmetod för flerklasssegmentering av objekt som revben och pleuraförtätningar, liksom artefakter som A-linjer, B-linjer och deras kluster i ultraljudsbilder av en lungfantom. De utvecklade en variant av U-Net-arkitekturen för bildsegmentering, vilket ger en balans mellan modellhastighet och noggrannhet. En specialanpassad augmenteringsteknik, anpassad till ultraljudsbildning, användes också under träningen, vilket förbättrade modellens förmåga att generalisera till okända data genom att beakta geometriska transformationer och ultraljudsspecifika augmenteringar.

Därefter använde forskarna den tränade modellen för segmentering i realtid i ett Point-of-Care Ultrasound-system (Venue Fit R3, GE Healthcare). De utförde också avbildning av fantomen med en böjadrraysond (C1-5-RS, också GEHC) och överförde bilderna.

Modellen tränades på en enda grafikprocessor och tog cirka 12 minuter med 450 ultraljudsbilder.

Modellen uppnådde en noggrannhet på 95,7% och måttliga till höga scores för Dice-koefficienten. Forskarna noterar att tillämpningen av modellen i realtid, med en genomströmning av upp till 33,4 bilder per sekund, förbättrar visualiseringen av lungultraljudsbilder.

Dessutom utvärderade teamet överensstämmelsen mellan manuellt markerade och modellförutsagda segmenteringsmasker. Genom att använda en normaliserad confusionsmatris för precision fann de att modellen korrekt förutsade 86,8% av markerade ribbepixlar, 85,4% av pleuraförtätningspixlar och 72,2% av B-linjeklustepixlar. Däremot förutsades endast 57,7% av A-linjepixlar och 57,9% av B-linjepixlar korrekt av modellen.

Slutligen använde forskarna överföringsinlärning för sin modell och använde kunskaper som erhållits från träning på en dataset för att träna på en relaterad dataset. De erhöll Dice-koefficienter för enkel pleural effusion, lungkonsolidering och pleuraförtätning på 0,48, 0,32 respektive 0,25.

Studieförfattarna föreslår att deras modell kan hjälpa till med träningen inom området lungultraljud och eliminera skillnader i färdigheter. De föreslår också en semi-kvantitativ mått som kallas B-linje Artifakt Poäng, som relaterar till andelen intercostal rum som är upptagna av B-linjer och kan vara associerad med lungsjukdomens svårighetsgrad.

Den fullständiga studien kan hittas [här](https://www.ultrasonicsjournal.com/article/S0041-624X(21)00036-0/fulltext).

Vanliga termer och begrepp som används i artikeln:
– Lungultraljud – Icke-invasiv avbildningsmetod för lungor med hjälp av ljudvågor.
– Djupinlärning – En typ av maskininlärning som använder sig av artificiella neurala nätverk för att analysera och förstå data.
– Segmentering – Processen att dela upp en bild i olika regioner.
– Artefakter – Abnormaliteter eller distortioner i ultraljudsbilder.
– A-linjer och B-linjer – Olika typer av linjer som ses på lungultraljudsbilder.
– Fantommodell – En konstgjord modell eller simulator som används för forskning och testning.

Förslagna relaterade länkar:
– University of Leeds – [Officiell webbplats för University of Leeds](https://www.leeds.ac.uk/)
– GE Healthcare – UK – [Officiell webbplats för GE Healthcare i Storbritannien](https://www.gehealthcare.co.uk/)

The source of the article is from the blog oinegro.com.br