본문 바로가기
728x90
반응형

ai보안공부하기2

챗GPT를 속이는 해킹, 진짜 가능한가? Adversarial Example위협 개념정리(1-2-1) [AI보안공부] - AI보안공부하기(1-1)✅ 1주차 STEP 2 – 주요 위협 종류 정리배울 4가지 위협:1. 적대적 예제 (Adversarial Example)노이즈 살짝 추가해서 AI를 속이는 공격2. 데이터 포이즈닝 (Data Poisoning)학습 데이터를 일부러 망가뜨리는 공격3. 모델 추출 (Model Extraction)질문 반복해서 내부 구조를 빼가는 공격4. 멤버십 추론 (Membership Inference)“이 데이터 학습했어?”를 AI에게 물어보는 공격 🔍 1. 적대적 예제 (Adversarial Example)✏️ 개념사람이 보기엔 멀쩡한 이미지인데,AI는 완전히 엉뚱한 결과를 내도록 속이는 입력값💡 예시고양이 사진에 티도 안 나는 노이즈 넣었더니→ AI가 “자동차”라고 인.. 2025. 5. 16.
AI보안공부하기(1-1) ✅ 1주차 학습 시작: AI 보안이란 무엇인가?🎯 오늘의 목표:“AI 보안이 정확히 뭔지, 기존 보안이랑 뭐가 다른지, 왜 중요한지 이해하기”🔹 Step 1. 정의부터 짚자AI 보안이란?🤖 인공지능(AI) 시스템이 해킹, 오작동, 정보 유출 등의 위협으로부터 안전하게 작동하도록 지키는 모든 기술과 개념이야.🔒 예시 상황:누군가 AI 모델에 이상한 입력을 줘서 잘못된 판단을 내리게 만들면?AI가 학습한 데이터에서 개인정보가 유출되면?모델 구조를 뽑아서 도용되면?→ 이런 걸 막는 역할이 바로 AI 보안이야.🔹 Step 2. 기존 보안 vs AI 보안구분기존 보안AI 보안보호 대상서버, 네트워크, 시스템AI 모델, 데이터, 추론 결과공격 방식침입 차단, 권한 탈취입력 조작, 학습 데이터 조작, 결과 .. 2025. 5. 16.
728x90
반응형