<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Archiwa MI².AI - Świat Lekarza</title>
	<atom:link href="https://swiatlekarza.pl/tag/mi%C2%B2-ai/feed/" rel="self" type="application/rss+xml" />
	<link>https://swiatlekarza.pl/tag/mi²-ai/</link>
	<description></description>
	<lastBuildDate>Tue, 22 Apr 2025 08:49:58 +0000</lastBuildDate>
	<language>pl-PL</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	
	<item>
		<title>AI która tłumaczy swoje decyzje – podejście polskich naukowców do analizy obrazów płuc docenione za granicą</title>
		<link>https://swiatlekarza.pl/ai-ktora-tlumaczy-swoje-decyzje-podejscie-polskich-naukowcow-do-analizy-obrazow-pluc-docenione-za-granica/</link>
		
		<dc:creator><![CDATA[Ewa Podsiadły-Natorska]]></dc:creator>
		<pubDate>Tue, 22 Apr 2025 08:49:58 +0000</pubDate>
				<category><![CDATA[Aktualności]]></category>
		<category><![CDATA[Gorący temat]]></category>
		<category><![CDATA[sztuczna inteligencja]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Polska Grupa Raka Płuca]]></category>
		<category><![CDATA[xLungs]]></category>
		<category><![CDATA[Politechnika Warszawska]]></category>
		<category><![CDATA[MI².AI]]></category>
		<category><![CDATA[wyjaśnialna sztuczna inteligencja]]></category>
		<category><![CDATA[prof. Przemysław Biecek]]></category>
		<guid isPermaLink="false">https://swiatlekarza.pl/?p=23832</guid>

					<description><![CDATA[<div><img width="300" height="169" src="https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-300x169.jpg" class="attachment-medium size-medium wp-post-image" alt="na zdjęciu znajduje się Lekarka podczas opisywania wyników badania" style="margin-bottom: 15px;" decoding="async" fetchpriority="high" srcset="https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-300x169.jpg 300w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-1024x577.jpg 1024w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-768x432.jpg 768w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-1536x865.jpg 1536w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-150x84.jpg 150w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-696x392.jpg 696w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-1068x601.jpg 1068w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs.jpg 1918w" sizes="(max-width: 300px) 100vw, 300px" /></div>
<p>– Sztuczna inteligencja musi być kontrolowalna i wyjaśnialna, jeśli ma zrobić rewolucję w medycynie. Lekarz wspierający się jej sugestiami, powinien rozumieć, skąd się one wzięły – uważają naukowcy z Politechniki Warszawskiej, którzy wybierają się na prestiżową konferencję naukową w ICLR Singapurze (24–26.04). Opowiedzą tam o podejściu do obszaru wyjaśnialnej AI, które zastosowali w swoim narzędziu [&#8230;]</p>
<p>Artykuł <a href="https://swiatlekarza.pl/ai-ktora-tlumaczy-swoje-decyzje-podejscie-polskich-naukowcow-do-analizy-obrazow-pluc-docenione-za-granica/">AI która tłumaczy swoje decyzje – podejście polskich naukowców do analizy obrazów płuc docenione za granicą</a> pochodzi z serwisu <a href="https://swiatlekarza.pl">Świat Lekarza</a>.</p>
]]></description>
										<content:encoded><![CDATA[<div><img width="300" height="169" src="https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-300x169.jpg" class="attachment-medium size-medium wp-post-image" alt="na zdjęciu znajduje się Lekarka podczas opisywania wyników badania" style="margin-bottom: 15px;" decoding="async" srcset="https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-300x169.jpg 300w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-1024x577.jpg 1024w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-768x432.jpg 768w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-1536x865.jpg 1536w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-150x84.jpg 150w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-696x392.jpg 696w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs-1068x601.jpg 1068w, https://swiatlekarza.pl/wp-content/uploads/2025/04/xLungs.jpg 1918w" sizes="(max-width: 300px) 100vw, 300px" /></div><h1>– Sztuczna inteligencja musi być kontrolowalna i wyjaśnialna, jeśli ma zrobić rewolucję w medycynie. Lekarz wspierający się jej sugestiami, powinien rozumieć, skąd się one wzięły – uważają naukowcy z Politechniki Warszawskiej, którzy wybierają się na prestiżową konferencję naukową w ICLR Singapurze (24–26.04). Opowiedzą tam o podejściu do obszaru wyjaśnialnej AI, które zastosowali w swoim narzędziu Xlungs pomagającym diagnozować choroby płuc.</h1>
<p>Konferencja naukowa International Conference on Learning Representations (ICLR) to jedno z najważniejszych na świecie spotkań naukowców i ekspertów z obszaru uczenia maszynowego, sztucznej inteligencji i uczenia głębokiego (deep learning).</p>
<h4><strong>Xlungs – polska AI, która wspiera analizę badań tomografii komputerowej klatki piersiowej</strong></h4>
<p>Zagadnienia, których dotyczy praca polskich naukowców, nie są wyłącznie przedmiotem akademickiej dyskusji. Zespół badawczy <strong>MI².AI</strong> z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, przedstawiane rozwiązanie stosuje już we własnym projekcie Xlungs. Dzięki współpracy z<strong> Polską Grupą Raka Płuca</strong> naukowcy wykorzystali 40 tys. obrazów tomografii komputerowej płuc do tworzenia modelu sztucznej inteligencji, który będzie mógł wspierać lekarzy w szybszym i skuteczniejszym diagnozowaniu chorób. Narzędzie to można zintegrować z już wykorzystywanymi w leczeniu systemami, gdyż współpracuje z powszechnie przyjętymi standardami dokumentacji medycznej.</p>
<p>W swojej pracy zatytułowanej <a href="https://arxiv.org/abs/2410.12591" target="_blank" rel="noopener nofollow">„Rethinking Visual Counterfactual Explanations Through Region Constraint”</a> (Przedefiniowanie wizualnych wyjaśnień kontrfaktycznych poprzez regionalne ograniczenie), która zostanie zaprezentowana w Singapurze, zespół badaczy z Politechniki Warszawskiej wprowadza nowatorską metodę, która pozwala lepiej zrozumieć, jak sztuczna inteligencja podejmuje decyzje podczas analizy obrazów. Zamiast generować ogólne sugestie dotyczące całego obrazu, jak to ma miejsce w tradycyjnych wyjaśnieniach kontrfaktycznych, ich metoda koncentruje się na wybranych fragmentach obrazu.</p>
<p>Dzięki temu lekarze mogą łatwiej zrozumieć, które konkretne zmiany w analizowanym obrazie wpłynęłyby na inną decyzję modelu AI. To podejście może być szczególnie pomocne w medycynie, gdzie precyzyjna interpretacja obrazów ma kluczowe znaczenie dla postawienia diagnozy.</p>
<p><strong style="color: #111111; font-family: Roboto, sans-serif; font-size: 19px;">Dlaczego wyjaśnialna AI jest potrzebna w medycynie?<br />
</strong><br />
– W praktyce podczas analizy danych pacjentów może dochodzić do sytuacji, w których to model <em>zobaczy</em> na obrazie z tomografii komputerowej klatki piersiowej potencjalnie groźną zmianę i sygnalizuje to. Wówczas osoba prowadząca badanie powinna mieć dostęp do informacji, co naprowadziło sztuczną inteligencję do takiego wniosku – wyjaśnia <strong>prof. Przemysław Biecek, kierownik projektu i lider zespołu MI2.AI oraz współautor pracy zakwalifikowanej n konfernecję ICLR</strong>.</p>
<p>Tego właśnie dotyczy zagadnienie wyjaśnialności (Explainable AI – XAI), które przeciwstawiane jest koncepcji modelu sztucznej inteligencji jako <em>czarnej skrzynki</em>, z której otrzymujemy gotowe rozwiązanie, ale nie wiemy, za pomocą jakiego wnioskowania AI do niego doszła i czy przypadkiem nie jest ono błędne.</p>
<p>Coraz więcej krajów wymaga, aby narzędzia AI, które wspierają decyzje diagnostów były transparentne. W Unii Europejskiej wymóg wyjaśnialności wprowadził AI Act, który wszedł w życie na początku tego roku. Modele AI stosowane w medycynie mogą zostać uznane za systemy wysokiego ryzyka, więc wymaga się od nich wyjaśnialności.</p>
<p>– Wyjaśnialność AI jest szczególnie ważna w medycynie, gdzie interpretacja zdjęcia z tomografii komputerowej decyduje o rodzaju zalecanej terapii. Lekarze, ale także ich pacjenci potrzebują przekonania, że mogą polegać na narzędziach, które wykorzystują do wspierania diagnozy i rozumieją, jak one dochodzą do danych wniosków. Lekarz nie zaufa <em>czarnej skrzynce</em>. Musi mieć możliwość zweryfikowania, czy taka sugestia ma sens – zauważa <strong>dr hab. inż. Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs</strong>.</p>
<p><em><strong>Xlungs</strong> to projekt naukowy wykorzystujący sztuczną inteligencję do monitorowania i analizy zmian chorobowych w klatce piersiowej. Jego zadaniem jest wspieranie lekarzy – głównie pulmonologów i radiologów – przy analizie badań tomografii komputerowej. Rozwiązanie opracował zespół naukowców z Politechniki Warszawskiej, weryfikując dane wspólnie z radiologami zatrudnionymi w projekcie. Stworzyli oni unikalny model sztucznej inteligencji, który wydobywa kluczowe informacje z historycznych obrazów CT, automatyzuje proces opisywania wyników i skraca czas ich analizy. Projekt jest finansowany przez Narodowe Centrum Badań i Rozwoju w ramach programu INFOSTRATEG I.</em></p>
<p><em><strong>MI².AI</strong> to zespół badawczy zajmujący się data science i uczeniem maszynowym. Tworzą go pracownicy naukowi i doktoranci dwóch wiodących wydziałów matematyki i informatyki w Polsce: MIM Uniwersytetu Warszawskiego i MiNI Politechniki Warszawskiej. Zajmuje się prowadzeniem badań naukowych z dziedziny sztucznej inteligencji jak również praktycznym zastosowaniem ich efektów oraz popularyzacją wiedzy z obszaru swojej ekspertyzy.</em></p>
<p>Artykuł <a href="https://swiatlekarza.pl/ai-ktora-tlumaczy-swoje-decyzje-podejscie-polskich-naukowcow-do-analizy-obrazow-pluc-docenione-za-granica/">AI która tłumaczy swoje decyzje – podejście polskich naukowców do analizy obrazów płuc docenione za granicą</a> pochodzi z serwisu <a href="https://swiatlekarza.pl">Świat Lekarza</a>.</p>
]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
