서비스 조직의 AI 로봇 도입, 고객의 불공정성 지각을 이해하라!
- 한눈에 보는 핵심요약
- 고객은 AI 로봇을 인간보다 더 공정하다고 신뢰하지만, 권력거리신념(PDB)에 따라 이 평가는 뒤바뀔 수 있습니다. 타겟 고객의 성향에 맞춰 AI의 공정성과 인간의 권위를 전략적으로 배분하세요.
서비스 조직의 AI 로봇 도입, 고객의 불공정성 지각을 이해하라!
연구 배경
서비스 업계의 최전선에서 인간과 AI 로봇의 역할이 재편되고 있습니다. 호텔·레스토랑·병원 등 고객과의 상호작용이 빈번한 산업일수록 AI 기반 서비스 로봇(AI 로봇)의 도입이 빠르게 확산되고 있으며, 이는 기존의 ‘인간 중심 서비스’에 대한 가정을 흔들고 있습니다. 고객은 서비스 실패를 경험하면, AI 로봇보다 인간 직원이 제공한 서비스에서 기업에 더 큰 책임을 부과하고, 반복적이고 표준화된 서비스 상황에서는 AI 로봇을 인간보다 더 신뢰하는 모습을 보입니다. 또 한편으론 AI 로봇이 진짜 인간처럼 생각하는 것처럼 보이면 위협감을 느끼며 거부 반응을 보이기도 합니다. 이는 고객이 인간 직원과 AI 로봇의 서비스를 동일하게 평가하지 않고 다르게 반응함을 시사합니다.
실무 영역에서는 AI 로봇이 인간 직원을 대신해 서비스 현장에 빠르게 투입되고 있지만 고객이 AI 로봇과 AI 로봇이 제공하는 서비스를 어떻게 인식하는지, 어떤 반응을 보이는지 실증한 연구는 없었습니다. Wu, Li, Guo, & Fang (2024)은 공정성 이론(Fairness Theory, Folger & Cropanzano, 1998)과 기계 휴리스틱 모델(The Machine Heuristic Model, Sundar, 2008)를 활용해 AI 로봇과 인간 직원에게 느끼는 고객의 (불)공정성 인식 차이와 인식 차이의 효과 그리고 경계조건을 탐구했습니다.
핵심 질문
1. 고객은 인간 직원보다 AI 로봇을 더 공정하게 평가하는가?
공정성 이론에 의하면 서비스에서 ‘공정성’은 고객 경험을 좌우하는 보이지 않는 힘입니다. 서비스는 본질적으로 공정성을 암묵적으로 약속합니다. 고객은 공정성을 중요하게 여기며, 불공정하다고 느끼면 즉각적으로 또 지속적으로 부정 반응(불만족, 이탈, 부정적 구전)을 보입니다. 또한 기계 휴리스틱 모델에 의하면 고객은 인간이 아닌 기계와 상호작용하고 있다고 인식할 때, 기계는 객관적이고 편향되지 않을 것이라는 고정관념을 적용하여 상황을 평가하고 반응합니다. 이를 바탕으로 연구진은 서비스 맥락에서 인간 직원과 AI 로봇 사이에 고객의 인식하는 (불)공정성에 차이가 날 것으로 보았습니다. 인간 직원은 공감과 유연성이 강점이지만 동시에 개인적인 감정, 몸 상태, 기분 등에 따라 서비스 품질의 변동성이 크고, 반면 AI 로봇은 인간과 달리 개인 상황이나 특성의 영향 없이 일관적이고 안정적인 서비스를 제공하기 때문입니다. 따라서 연구진은 서비스 맥락에서 인간 직원보다 AI 로봇이 공정성에 우위를 갖을 것으로 예측합니다.
2. 인간 직원과 AI 로봇 사이의 (불)공정성 인식 차이는 고객의 행동적 반응에 영향을 미치는가?
더 나아가 이러한 (불)공정성 차이가 고객의 행동적 반응에 미치는 영향을 연구했습니다. 공정성 이론에서는 고객이 서비스에 대해 공정하다고 느끼면 재방문, 추천, 만족, 웰빙에 관한 긍정적 반응이 증가하고, 반면에 불공정하다고 느끼면 즉각적이며 지속적인 부정적 반응이 증가한다고 제시합니다. 이를 바탕으로 연구진은 (불)공정성 지각을 서비스 경험의 핵심 매개요인으로 제시하고 인간 직원과 AI 로봇 사이의 (불)공정성 인식 차이가 고객의 행동에 어떤 영향을 미치는 지를 연구문제로 설정했습니다.
3. 서비스 제공자 유형이 고객의 (불)공정성 인식에 미치는 효과는 어떤 경계 조건을 갖는가?
동일한 상황에 대해 (불)공정성을 인식하는 정도는 개인마다 차이가 존재합니다. 연구진은 이러한 차이를 유도하는 개인 특성으로 권력거리신념(PDB, Power Distance Belief)에 주목합니다. 개인이 권력의 위계와 불평등을 받아들이는 정도를 의미하는 권력거리신념(PDB)은 공정성에 관한 개인의 민감성에 중요한 영향을 미치는 요인입니다.
선행연구에 의하면 권력거리신념(PDB)이 높은 사람은 불평등과 위계를 더 지지하고, 특별 대우와 같은 지위 신호 행동을 통해 우월적 지위를 표현하려는 경향이 강합니다. 반대로 권력거리신념(PDB)이 낮은 사람은 평등과 위계의 부재를 신뢰하고, 투명성을 더 선호합니다. 이를 바탕으로 연구진은 권력거리신념(PDB)이 높은 고객은 AI 로봇보다 인간 직원이 제공하는 서비스를 더 공정하게 평가하고, 반면에 권력거리신념(PDB)이 낮은 고객은 AI 로봇이 제공하는 서비스를 더 공정하게 평가하는 차이가 존재할 것으로 예측합니다. 권력거리신념(PDB)을 서비스 제공자 유형과 (불)공정성 인식 사이의 관계를 조절하는 경계조건으로 제시했습니다.
(High vs. Low)
(AI 로봇 vs. 인간 직원)
[연구 모형]
연구 핵심 결과
연구진은 연구 모델을 검증하기 위하여 한번의 질적 연구와 세 번의 실험 연구를 수행했습니다.
1. 공정성의 새로운 기준: 고객은 인간직원보다 AI 로봇을 더 신뢰한다.
본 연구는 고객이 인지하는 공정성을 분배적 공정성(누가 어떤 혜택을 받는가)과 절차적 공정성(서비스 처리 과정이 얼마나 일관되고 합리적인가)으로 구분하여 연구했습니다.
호텔, 병원의 서비스 맥락을 활용한 연구 결과, 모든 맥락에서 고객은 같은 불공정 상황에 대해 그 서비스 제공자가 AI 로봇일 때보다 인간 직원일 때 더 불공정하게 인식했습니다.
인간 직원의 경우 개인적 요인에 따라 서비스 품질이 달라질 수 있다고 고객은 믿지만 AI 로봇의 경우 편향 없이 규칙대로 움직이는 존재로 인식함을 의미합니다. 즉, AI 로봇은 고객의 머릿속에서 일종의 공정성의 기준이 되고 있습니다.
실험1. 호텔 (분배 불공정)
실험2. 병원 (절차 불공정)
[서비스 제공자에 따른 불공정성 지각 차이]
2. 서비스 제공자 유형과 고객 반응 사이의 심리적 메커니즘, (불)공정성 지각
고객의 (불)공정성 지각은 단순한 느낌의 문제가 아닙니다. 이번 연구는 이 감정이 고객의 실제 행동적 반응에 연쇄적으로 영향을 미침을 확인했습니다. 연구 결과, 인간 직원이 야기한 불공정함은 AI 로봇이 같은 행동을 했을 때보다 불공정성 지각을 통해 고객에게 더 큰 부정적 반응을 일으켰습니다. 고객은 AI 로봇 보다 인간 직원으로부터 더 큰 불공정성을 인식하고 결과적으로 재방문 의도, 추천 의도, 서비스 전체 만족도 그리고 현재의 행복감까지 더 감소하였습니다. 인간 직원이 고객에게 불공정을 경험할 때 더 큰 부정적 반응을 보입니다. (불)공정성 인식이 서비스 제공자 유형과 고객 반응의 관계를 설명하는 중요한 심리적 메커니즘임을 의미합니다.
(AI vs. 인간)
[불공정 인식 차이의 후속 효과]
3. 공정성 평가를 뒤집는 변수: 권력거리신념(PDB)이 고객의 판단을 뒤집는다.
모든 고객이 AI 로봇을 인간 직원 보다 더 공정하게 보는 것은 아닙니다. 본 연구는 (불)공정성 인식을 결정하는 경계조건으로 ‘권력거리신념(PDB)’을 제시하고 검증했습니다.
권력거리신념(PDB)이 낮은 고객은 AI 로봇 보다 인간 직원을 더 불공정하다고 인식하고 권력거리신념(PDB)이 높은 고객은 인간 직원 보다 AI 로봇을 더 불공정하다고 인식했습니다. 권력거리신념(PDB)이 낮은 고객은 AI 로봇을 객관적·투명·일관된 서비스 제공자로 인식하고, 높은 고객은 인간 직원의 권위를 더 긍정적으로 평가함을 의미합니다. 즉, 권력거리신념(PDB)이 인간 직원 vs. AI 로봇에 대한 공정성 평가를 완전히 뒤바꾸는 조절 요인입니다. 같은 상황에서도 고객의 성향에 따라 완전히 상반된 반응이 나타날 수 있습니다.
[권력거리신념의 조절효과]
실무자를 위한 Action Plan
본 연구는 서비스 맥락에서 서비스 제공자 유형(인간 직원 vs. AI 로봇)과 (불)공정성 인식 차이, 그 후속 효과 그리고 경계조건을 실증했습니다.
연구는 같은 상황에 대해 고객은 AI 로봇 보다 인간 직원의 행동을 더 불공정하게 인식한다고 말합니다. 기업의 서비스 관리자는 공정성 문제를 관리할 때 AI 로봇 보다 인간 직원의 영역을 최우선 관리대상으로 설정해야 합니다.
직원 응대 표준화를 강화하십시오. 인간 직원들 간의 서비스 편차를 줄이는 규정이나 스크립트를 도입하는 것이 필요합니다. 또한 직원들에 대한 공정성 교육 프로그램 운영을 운영하십시오. 감정 관리, 대기시간 안내, 우선순위 처리 원칙 등 고객의 불공정성 인식을 낮출 수 있는 실전 중심 교육을 실시하십시오. 더 나아가 서비스 처리 기준을 고객에게 사전에 노출해 기준의 투명성을 제공하는 사전 알림 시스템을 구축하는 것도 도움이 될 수 있습니다.
고객은 AI 로봇을 더 공정하다고 인식하는 이유는 규칙 기반으로 일관적이고 객관적인 서비스를 제공할 것으로 인식하기 때문입니다. 즉, 반복적이고 절차적인 서비스는 AI 로봇이 제공하면 고객들의 긍정적 반응(높은 공정성 지각, 높은 만족도 등)을 유도할 수 있습니다.
체크인·대기 관리·배달·안내 등 절차 중심 영역을 AI 로봇을 우선적으로 선정하고 배치하십시오. 그리고 마케팅 메시지로 AI 로봇의 일관성을 강조하십시오. 또한 AI 로봇이 시간·순서·자원 배분 기준을 자동 적용하도록 시스템을 개발하는 것도 필요합니다.
연구는 권력거리신념(PDB)이 인간 직원과 AI 로봇에 대한 (불)공정성 인식을 바꾸는 경계조건임을 인했습니다. 권력거리신념(PDB)이 높은 고객은 인간 직원을, 권력거리신념(PDB)이 낮은 고객은 AI 로봇을 더 공정하게 인식합니다. 타겟 고객의 성향을 고려해 서비스 제공자를 차별적으로 설계할 필요가 있습니다.
권력거리신념(PDB)은 대표적인 문화적 특성입니다. 세그먼트별 차별화된 서비스를 설계하십시오. 고객이 권력거리신념(PDB)이 낮은 MZ세대와 같은 저연령층 혹은 중국, 중동 국가의 고객이라면 AI 로봇 기반의 서비스를 적극적으로 도입하고, 권력거리신념(PDB)이 높은 고연령층 혹은 북미, 유럽 국가 고객이라면 인간 직원의 비중을 확대하십시오.
결론
AI 로봇이 고객 서비스에 빠르게 확산되는 지금, 이 연구는 서비스 설계자에게 중요한 방향성을 제시합니다. 고객은 동일한 상황에서도 인간 직원의 실수나 판단을 AI 로봇보다 훨씬 더 불공정하게 받아들이며, 이 불공정성은 만족도·추천·재방문 의도까지 연결되는 강력한 행동 반응을 유발합니다. 즉, 고객 경험에서 ‘공정성’은 만족 이상의 전략 자산이며, AI는 고객이 본능적으로 신뢰하는 일관성과 객관성의 상징이 되고 있습니다. 앞으로의 서비스 설계는 AI와 인간의 역할을 고객 특성별로 최적화가 핵심이 될 것입니다.
서비스 프로세스 중 불공정 리스크가 높은 영역과 낮은 영역을 구분한 후 AI 로봇의 도입이 필요합니다. 또한 평등성을 중시하는 고객에게는 공정성을 보장하는 AI 로봇을, 반면, 위계를 중시하는 고객에게는 신뢰 제공을 위한 인간 직원을 통해 서비스를 제공해야합니다.
귀사는 AI 로봇의 강점을 고객 경험(Customer Experience)에 적절하게 활용하고 있습니까?