AI 노출도 78%. 이 숫자 하나가 언론을 타면 “해당 직종 종사자 78%가 일자리를 잃는다”는 식으로 둔갑한다. ILO(국제노동기구)가 최근 브리프에서 명시적으로 경고한 게 바로 이 왜곡이다.
ILO 브리프, 소프트웨어 개발 분야의 arXiv 논문, 그리고 AI 채용 도구를 검증하는 오픈소스 프레임워크 WorkRB—이 세 편을 나란히 놓고 읽으면 AI와 일자리를 둘러싼 공포의 실체가 좀 더 선명하게 보인다.
ILO가 경고하는 것: “AI 노출 지표는 예언이 아니다”
ILO 브리프의 핵심은 단 하나의 문장으로 압축된다. “AI 노출 지표는 신호이지, 일자리 감소의 예측이 아니다.”
연구자들이 흔히 사용하는 ‘AI 노출 지수’란 특정 직업이 AI 기술에 얼마나 대체될 수 있는지를 수치로 표현한 것이다. 문제는 이 숫자가 언론을 타면서 실제 고용 결과 예측으로 오독된다는 점이다. AI가 특정 업무를 수행할 수 있다는 것과, 기업이 그 업무에서 실제로 인력을 줄인다는 것은 전혀 다른 이야기다. 그 사이에는 비용 구조, 규제, 조직 관성, 노동시장 제도, 노사관계 등 수십 개의 변수가 끼어 있다.
개인적으로는 이 메시지가 생각보다 훨씬 중요하다고 본다. “우리 업종 AI 노출도가 높다”는 수치 하나로 과도하게 불안해하거나, 반대로 구조조정 명분으로 사용되는 상황 모두를 경계해야 한다.
소프트웨어 개발 분야의 ‘티핑 포인트’ 연구
“Evolutionary Optimization of AI-Collapsed Software Development Stacks”라는 논문은 제목만 보면 겁부터 난다. 풀어보면 이렇다. AI가 소프트웨어 개발 생태계를 흔들어놓을 때, 인간과 AI 인력을 어떻게 배분하면 최적일까를 수학적으로 모델링한 연구다.
논문의 핵심 개념은 ‘노동 티핑 포인트(Labor Tipping Point)’다. 자동화 비율이 어느 수준을 넘어서면 팀 구성이 급격하게 바뀐다. 선형적으로 서서히 바뀌는 게 아니라, 특정 임계점을 지나면 조직 구조 자체가 재편된다. 된다.
연구팀이 강조하는 건 “재현 가능한 자동화 전략”이다. 어떤 조직이든 따라 할 수 있는 표준화된 인력 재배치 프레임워크를 만들 수 있다는 거다. 소프트웨어 업계가 아닌 조직도 주목해야 할 이유가 있다. AI 도입이 가속화되면 어느 산업이든 비슷한 ‘티핑 포인트’를 맞을 가능성이 있기 때문이다.
“AI가 몇 명을 대체한다”는 산술이 아니라, 언제, 어떤 방식으로 조직이 재구성될지를 설계하는 것이 핵심 과제가 됐다. 사람을 줄이느냐가 아니라, 남은 사람들이 어떤 역할을 맡게 되느냐의 문제인 셈이다.
AI를 평가하는 도구, 누가 만들고 있나
두 번째 논문 “WorkRB”는 결이 다르다. AI가 일터에서 실제로 얼마나 잘 작동하는지를 평가하는 오픈소스 벤치마크 프레임워크다.
WorkRB는 7개 그룹, 13개 과제로 구성된다. 채용 추천, 후보자 매칭, 스킬 추출 등 HR과 직접 맞닿은 영역들이 포함되어 있다. AI가 “이 사람이 이 직무에 맞다”고 판단할 때 그 판단이 얼마나 정확하고 공정한지를 측정하는 도구다. (이건 나만 느끼는 건가? 이게 없었다는 게 더 이상한 일이다.)
솔직히 이건 좀 늦은 감이 있다. 지금까지 AI 채용 도구는 블랙박스에 가까웠다. 어떤 기준으로 후보자를 거르는지, 특정 집단에 불리하게 작동하는 편향은 없는지를 검증하기 어려웠다. WorkRB 같은 공개 벤치마크가 확산되면, “우리 회사 AI 채용 툴이 공정하게 작동하는가”를 외부에서 검증하는 것이 훨씬 수월해진다.
AI 채용 도구를 도입하거나 사용하는 조직이라면, 이제 “이 도구가 인증받은 벤치마크를 통과했는가”를 따지는 흐름이 생긴다. 규제 당국도 이런 공개 평가 기준을 참조하게 될 가능성이 크다.
세 연구가 그리는 공통된 그림
ILO 브리프, 소프트웨어 스택 논문, WorkRB—겉보기에는 제각각인 세 연구가 결국 같은 방향을 가리킨다.
숫자는 경고지 판결이 아니다. AI 노출 지수든, 자동화 비율이든 특정 수치가 미래를 확정하지 않는다. 그 숫자가 어떤 전제 위에 계산됐는지, 무엇을 빠뜨렸는지를 함께 봐야 한다.
변화는 선형이 아니라 임계점이 있다. 서서히 적응할 시간이 있을 것이라는 기대는 맞을 수도 있고 틀릴 수도 있다. 티핑 포인트 개념은 어느 시점에서 갑작스러운 재편이 일어날 수 있다는 가능성을 제기한다.
투명성이 핵심 전선이 됐다. AI가 채용과 인력 배치에 깊이 개입할수록, 그 판단 근거를 공개적으로 검증할 수 있는 구조가 필요해진다.
HR·노동 실무에 미치는 영향
세 연구를 종합하면, 실무 현장에 다가오는 변화는 이렇다. AI 도입을 이유로 한 인력 감축이나 업무 재배치가 발생할 경우, “AI가 그렇게 판단했다”는 말은 이제 납득할 만한 설명이 되기 어렵다. AI 노출 지수나 자동화 효율 수치는 의사결정의 참고 자료지, 그 자체가 근거가 될 수 없다는 것을 ILO가 공식적으로 명시했기 때문이다.
AI 채용·평가 도구에 대한 외부 검증 요구가 서서히 제도화될 것으로 보인다. 도구를 도입하는 기업 입장에서는 벤치마크 통과 여부나 편향 검증 여부를 사전에 확인하는 것이 리스크 관리의 일부가 된다.
결국 AI 시대의 노동 문제는 기술이 아닌 설계와 거버넌스의 문제다. 어떤 AI를 쓸 것인지보다, 그 AI의 판단을 어떻게 검증하고 어디까지 수용할 것인지를 조직 차원에서 미리 정해두는 것—그게 지금 가장 실질적인 준비다.
참고 소스
– ILO 브리프 원문 (People Matters 보도): New ILO brief warns AI exposure indicators are signals, not predictions of job losses
– arXiv: Evolutionary Optimization of AI-Collapsed Software Development Stacks
– arXiv: WorkRB: A Community-Driven Evaluation Framework for AI in the Work Domain