본문 바로가기

컴퓨터 비전 보안

Backdoor Attack in Vision Models: 은밀한 공격 시나리오 개요컴퓨터 비전 분야에서 백도어 공격(Backdoor Attack)은 가장 교활하고 위험한 보안 위협 중 하나로 주목받고 있습니다. 적대적 공격과 달리 백도어 공격은 모델 훈련 과정에서 은밀하게 악성 코드를 심어두는 방식으로, 평상시에는 정상적으로 작동하다가 특정 조건에서만 공격자가 원하는 결과를 출력하도록 설계됩니다.이러한 공격의 핵심은 트리거(Trigger)라고 불리는 특정 패턴입니다. 공격자는 훈련 데이터에 미리 정의된 트리거를 포함시킨 후, 해당 트리거가 포함된 이미지가 입력될 때 모델이 공격자가 지정한 대상 클래스로 분류하도록 모델을 조작합니다. 일반 사용자는 모델이 백도어에 감염되었다는 사실을 전혀 눈치채지 못하며, 이는 백도어 공격이 가진 가장 큰 위험성입니다.백도어 공격의 메커니즘과 특성백.. 더보기
Adversarial Attacks & Defenses: 컴퓨터 비전 취약성과 방어 개요인공지능과 머신러닝이 일상생활에 깊숙이 침투하면서 컴퓨터 비전 시스템의 보안성에 대한 우려가 증가하고 있습니다. 특히 적대적 공격(Adversarial Attacks)은 딥러닝 모델의 치명적인 약점을 노출시키며, 자율주행차, 의료진단, 보안시스템 등 중요한 분야에서 심각한 위협이 되고 있습니다.적대적 공격이란 인간의 눈으로는 거의 구별할 수 없을 정도의 미세한 노이즈를 원본 이미지에 추가하여 AI 모델이 완전히 다른 결과를 출력하도록 만드는 기법입니다. 예를 들어, 판다 이미지에 특정 패턴의 노이즈를 추가하면 AI가 이를 긴팔원숭이로 잘못 인식하게 만들 수 있습니다.적대적 공격의 원리와 메커니즘적대적 공격의 핵심 원리는 딥러닝 모델의 결정 경계(Decision Boundary) 근처에서 발생하는 취약.. 더보기