AI가 한 번 더 본다…단국대, AI 적대적 공격 방어 기술 개발
||2026.05.05
||2026.05.05

단국대학교가 인공지능(AI)의 판단 오류를 유도하는 '적대적 공격' 방어 기술을 개발했다.
단국대는 김선오 AI융합대학 컴퓨터공학과 교수팀과 엄대호 서울시립대 교수팀이 공동으로 개발한 이번 기술이 이미지나 데이터에 사람이 인지하기 어려운 수준의 미세한 변형을 더해 AI가 대상을 잘못 인식하도록 하는 적대적 공격에 대응하기 위한 것이라고 5일 밝혔다.
자율주행, 보안, 의료영상처럼 AI 판단의 정확도가 중요한 분야에서 오류 가능성을 높이는 요인으로 꼽힌다.
기존 AI 모델은 주로 하나의 입력 이미지에 기반해 결과를 산출한다. 이 때문에 입력값에 작은 교란이 포함돼도 실제와 다른 판단을 내릴 수 있다는 한계가 있었다.
연구팀은 이를 보완하기 위해 다중 시점 기반 적응형 대응공격 기법(MAC) 기법을 제안했다. MAC는 여러 이미지를 동시에 분석해 입력 데이터의 변형·오염 정도를 추정하고, 공격 수준에 따라 결과를 보정하는 방식이다.
이 기술은 기존 AI 모델을 재학습하지 않고도 추론 단계에서 적용할 수 있도록 설계했다. 추가 학습 과정 없이 추론 속도와 메모리 효율성을 유지하는 데 초점을 뒀으며, 연구팀은 다양한 데이터셋과 공격 환경에서 성능을 검증했다.
김 교수는 “AI가 입력 데이터를 다양한 시각에서 재검증하고 공격 정도에 따라 스스로 보정하도록 설계한 것이 이번 연구의 핵심”이라며 “AI의 안전성과 신뢰성이 중요한 자율주행, 보안, 의료영상 등 다양한 분야에서 활용될 것으로 기대한다”고 말했다.
이번 연구는 컴퓨터 비전 분야 국제 학술대회인 'IEEE/CVF Conference on Computer Vision and Pattern Recognition'(CVPR)에 지난 2월 채택됐다. 논문은 오는 6월 학술대회에서 발표될 예정이다.
용인=김동성 기자


1
2
3
4
5