기업의 채용 방식이 급변하고 있습니다.
이제는 실제 면접관이 아닌 AI 면접관이 지원자를 평가하는 시대가 도래했습니다.
표정, 목소리, 말투, 키워드 사용 빈도까지 모두 분석되어 점수화되며, 이는 곧 ‘채용 결과’에 반영됩니다.
이런 흐름은 효율성과 공정성을 강화한다는 긍정적인 면도 있지만, 동시에 개인정보 보호와 인간의 다양성을 침해할 수 있는 위험도 함께 내포하고 있지요. AI 면접, 과연 안전한 것일까요?
AI 면접 시스템의 작동 방식
AI 면접은 화면 앞에 앉아 질문에 답변하면, AI가 이를 분석해 자동으로 지원자의 역량을 평가하는 방식입니다.
이 과정에서 지원자의 표정, 눈동자 움직임, 말의 속도, 감정 상태 등이 분석됩니다. 채용 기업은 이를 통해 수많은 지원자를 빠르게 분류할 수 있고, 인간 평가자의 편견도 줄일 수 있다는 장점이 있습니다. 하지만 동시에 ‘AI가 사람을 판단한다’는 것 자체에 대한 불신도 존재하며, 실제로 AI의 판단 기준이 불투명하거나 편향되어 있는 경우도 많지요.
분석 대상이 되는 개인정보 범위
AI 면접은 단순한 영상 녹화가 아닙니다. 말투나 제스처뿐만 아니라, 표정 분석을 통한 심리 상태 추정, 음성 높낮이를 통한 스트레스 판단, 단어 선택을 통한 성향 예측 등 다양한 민감 정보가 실시간으로 수집되고 처리됩니다. 이 과정에서 지원자의 동의가 제대로 이뤄지지 않거나, 정보의 활용 범위가 명확히 안내되지 않는다면, 이는 심각한 개인정보 침해에 해당될 수 있고, 또한 면접 영상이 저장될 경우, 제3자 유출 우려도 배제할 수 없습니다.
법적 보호와 제도적 허점
2024년 3월부터 시행된 개인정보보호법 및 시행령 개정으로, AI 면접 등 ‘완전히 자동화된 결정’에 대해 지원자는
AI가 전적으로 평가한 결과에 대해 설명을 요구할 수 있고, 불합격 등 불리한 결정에 대해 이의를 제기하거나, 사람의 개입을 통한 재검토를 요구할 수 있게 되었습니다. 또한 개인정보 처리자는 자동화된 결정의 기준, 절차, 처리 방식을 미리 공개해야 하며, 지원자의 요청 시 이에 대한 설명을 제공해야 하는 의무가 있습니다. 이렇게 개인정보보호법은 민감 정보 수집 시 명확한 고지를 요구하고 있지만, 많은 기업이 단순한 ‘동의’ 체크로 이를 대체하고 있는 실정입니다. 또한 AI 분석 결과의 공개 여부, 이의 제기 절차, 판단 기준에 대한 설명 의무 등은 거의 이루어지지 않고 있어, ‘AI 블랙박스’ 문제로 이어지며, 지원자는 왜 탈락했는지도 모른 채 평가를 받아들여야 하는 구조에 놓입니다.
공정성과 보호를 위한 제도 개선 필요
AI 면접이 계속 확산될 경우, 정부와 기업은 보다 투명한 평가 기준과 정보 보호 조치를 마련해야 합니다. 지원자에게 AI 분석 여부를 명확히 고지하고, 영상·음성 데이터가 저장되지 않도록 기술적으로 차단하거나 일정 기간 이후 자동 삭제되도록 설정해야 합니다. 또한 AI 면접 결과에 대해 이의를 제기할 수 있는 절차와 인간 면접으로의 전환 기회도 제공되어야 해요. AI는 채용을 보조하는 도구이지, 인간을 완전히 대체할 수는 없으니까요.
'AI 규제 & 기술' 카테고리의 다른 글
AI 얼굴 인식 기술과 프라이버시의 경계선: 국제사회는 어떻게 대응하고 있을까? (0) | 2025.07.17 |
---|---|
AI와 관련된 국제표준화는 누가 만들고 있을까? (0) | 2025.07.16 |
AI가 내 음성을 모사한다면? 음성 모조 기술과 법적 보호 방법 (0) | 2025.07.13 |
AI 시대, 개인정보를 보호하는 브라우저·앱 설정법 가이드 (0) | 2025.07.13 |
AI 사용 시 개인정보 유출을 막는 실천법 (0) | 2025.07.13 |