반응형 딥러닝보안1 AI 보안의 성역이 무너졌다! 카이스트 '모델스파이' 6m 거리에서 AI 모델 설계도 탈취 97% 성공과 기업 대응 전략 [30초 핵심 요약]이슈: 카이스트(KAIST) 연구팀이 서버 해킹 없이 물리적 장벽 너머에서 AI 모델의 설계도(레이어 구성 및 설정값)를 탈취하는 '모델스파이(ModelSpy)' 기술을 개발함.핵심 원리: AI 연산 시 발생하는 미세 전자기파를 분석해 딥러닝 모델의 구조를 최대 97.6% 정확도로 복원. 직접 침투 없이 최대 6m 거리에서도 작동 가능.시사점: 그동안 '블랙박스'로 여겨졌던 AI 모델의 보안 취약점이 드러남에 따라, 국가 핵심 기술인 AI 설계 자산(IP) 보호를 위한 물리적·전자기적 보안 대책 마련이 시급함.서버 침투 없는 해킹의 시대, AI 블랙박스가 열리다인공지능은 현대 산업의 가장 강력한 무기이자 보호받아야 할 핵심 지식재산권입니다. 기업들은 자사의 AI 모델을 외부에서 알 수.. 2026. 3. 31. 이전 1 다음 반응형