연합뉴스

"소비자, 인간 상담원엔 도덕성·AI 챗봇에는 기능성 기대"

입력 2026-04-13 17:09:39

다음 내용이 궁금하다면?

불편하시다면 뒤로 가기를 눌러주세요


이화여대 김은실 교수 연구팀 '맞춤형 사과 전략' 논문




연구를 진행한 이화여대 심리학과 김은실 교수(왼쪽)·소지현 석사

[이화여대 제공. 재판매 및 DB 금지]



(서울=연합뉴스) 김준태 기자 = 고객은 인간 상담원에게 도덕성을, 인공지능(AI) 챗봇에는 기능적 완벽성을 기대해 서비스 실패 시 각기 다른 맞춤형 사과 전략이 필요하다는 연구 결과가 나왔다.


13일 이화여대에 따르면 이 학교 김은실 심리학과 교수 연구팀은 이 같은 내용을 담은 논문을 발표했다.


연구팀은 스마트폰 구매 상황을 가정해 인간 상담원과 AI 챗봇이 각각 '여성은 분홍색'이라는 고정관념적 오류(도덕성 실패)와 스마트폰 대신 헤드폰을 추천하는 오류(기능성 실패)를 냈을 때의 소비자 반응을 조사했다.


실험 결과 참가자들은 인간 상담원이 고정관념적 오류를 냈을 때, AI 챗봇이 엉뚱한 제품을 추천했을 때 더 큰 부정적 반응을 보였다. 고객이 인간에게는 도덕성을, AI에는 기술적 정확성을 기대하기 때문이라는 게 연구팀 분석이다.


효과적인 사과 방식도 달랐다. 고정관념 오류 상황에서 인간 상담원은 '자기 잘못 인정'이, AI 챗봇은 '외부 기술적 원인 핑계'가 소비자의 용서를 구하는 데 효과적이었다.


반면 단순 기능 오류 상황에서는 인간 상담원이 '외부 원인'을 댈 때, AI가 '자신의 부족함을 인정'할 때 소비자의 용서 의향이 더 높게 나타났다.


김 교수는 "기존 연구가 사과의 내용에 집중했다면 이번 연구는 상황에 따라 인간과 AI 중 누가 사과해야 더 효과적인가에 주목했다"며 "유형에 따라 효과가 다르므로 기업의 AI 고객 응대 전략에 중요한 시사점을 제공한다"고 설명했다.




서비스 실패 유형 및 원인 설명 상황

[이화여대 제공. 재판매 및 DB 금지]


readiness@yna.co.kr



인기상품 확인하고 계속 읽어보세요!

5

원치 않을 경우 뒤로가기를 눌러주세요.

연합뉴스 콘텐츠 더보기

해당 콘텐츠 제공사로 이동합니다.

많이 본 최근 기사

관심 많은 기사