×

Search

사이트 내 전체검색
  • 검색하고자 하는 키워드 입력 후 Enter 또는 검색아이콘 클릭을 통해 검색해 주세요.
  • 통합검색은 홈페이지의 내용을 전체 검색합니다.
닫기
  • 커뮤니티
  • 뉴스
  • 커뮤니티

학부성과 뉴스

컴퓨터학부 정순기 교수, 미국 텍사스 A&M 대학과 공동으로 피부암 조기 진단 돕는 초경량 AI 기술 'MambaLiteUNe…

페이지 정보

profile_image

작성자 최고관리자

댓글 0건 조회 64회 작성일 2026-03-05 17:48

본문

- 경북대학교-텍사스 A&M 글로벌 공동 연구팀, 기존 AI 모델 대비 연산량 97.6% 대폭 절감하면서도 세계 최고 수준 정확도 달성- 모바일 기기 및 실제 임상 현장(Point-of-Care) 적용 가능성 열어- "국제 협력 통해 의료 AI의 한계 극복, 지역 및 글로벌 헬스케어 혁신 이끌 것"


경북대학교(총장 허영우)는 본교 컴퓨터학부 교수인 정순기 교수 연구팀이 미국 텍사스 A&M 대학교(Texas A&M University) 연구팀과의 글로벌 공동 연구를 통해 피부암 조기 진단의 핵심인 '피부 병변 분할(Skin Lesion Segmentation)'을 빠르고 정확하게 수행하는 초경량 인공지능(AI) 모델 'MambaLiteUNet(맘바라이트유넷)'을 개발했다고 밝혔다.

이번 국제 공동 연구의 결과물은 인공지능 및 컴퓨터 비전 분야 세계 최고 권위의 국제 학술대회인 'CVPR 2026(Computer Vision and Pattern Recognition)'에서 발표될 예정이다.

피부암, 특히 흑색종은 조기 발견 시 치료 성공률이 매우 높지만, 병변과 정상 피부의 경계가 모호하고 형태가 다양해 정확한 진단이 매우 까다롭다. 최근 딥러닝 기술이 도입되며 정확도는 높아졌으나, 방대한 매개변수와 막대한 연산량이 필요해 스마트폰 기반의 모바일 헬스케어 환경이나 자원이 제한된 실제 진료 현장(Point-of-Care)에서 활용하기에는 한계가 지적되어 왔다.

정순기 교수 연구팀과 텍사스 A&M 대학 공동 연구팀이 제안한 'MambaLiteUNet'은 최근 AI 학계에서 주목받는 '비전 맘바(Vision Mamba)' 기술의 상태 공간 모델링(State Space Modeling)을 전통적인 의료 영상 분석 구조인 U-Net에 결합한 혁신적인 프레임워크다. 연구팀은 3가지 독자적인 핵심 모듈(AMF, LGFM, CGA)을 도입하여 병변의 미세한 경계와 텍스처를 잃지 않으면서도 모델을 극도로 경량화하는 데 성공했다.


공동 연구팀의 모델은 기존 대표 모델인 U-Net과 비교해 파라미터(매개변수)93.6%, 연산량(GFLOPs)97.6% 획기적으로 줄이는 데 성공했다. 그럼에도 불구하고 4개의 국제 표준 피부 병변 데이터셋(ISIC2017, ISIC2018, HAM10000, PH2) 평가에서 평균 교차 검증 지표(IoU) 87.12%, 다이스 계수(Dice) 93.09%라는 압도적인 정확도를 기록하며 기존 최신 기술(SOTA)들을 크게 뛰어넘었다.

특히, 학습에 사용되지 않은 6종의 희귀 및 복잡한 병변에 대한 도메인 일반화(Domain Generalization) 테스트에서도 평균 다이스 계수 87.23%를 기록해, 실제 임상 환경과 같이 예기치 못한 다양한 데이터가 입력되는 상황에서도 높은 신뢰성을 입증했다.


이번 국제 공동 연구를 총괄한 정순기 교수는 "미국 우수 대학과의 긴밀한 연구 협력을 통해 도출된 이번 성과는 의료 AI가 연구실을 넘어 실제 진료 현장과 모바일 기기에 널리 보급되기 위한 핵심 기술"이라며, "앞으로도 글로벌 연구 네트워크를 강화해 피부암 조기 진단은 물론, 다양한 의료 영상 분야로 연구를 확장하여 지역 및 글로벌 헬스케어 접근성을 높이는 데 기여하겠다"고 밝혔다.

해당 논문의 소스 코드는 오픈소스로 공개 (https://github.com/abcdef987412365/MambaLiteUNet)되어 관련 분야 연구자 및 의료 AI 산업계에서 활발히 활용될 전망이다.


첨부파일

댓글목록

등록된 댓글이 없습니다.