일러스트=이미지투데이.
일러스트=이미지투데이.

기술의 발전에 따라 AI는 스마트 스피커, 인공지능 비서 등 우리 일상 곳곳에 많은 영향을 미치고 있습니다. ‘대화서비스’라는 동일한 범주로 분류할 수 있는 챗봇과 음성봇은 서로 닮았지만 다른 점도 많습니다. 이번 글에서는 음성봇이 ARS와 다른점이 무엇인지 살펴보고, 챗봇과 음성봇의 차이점과 음성봇을 설계할 때 고려해야 할 유의사항에 대해 알아보겠습니다.

음성봇과 ARS의 차이

ARS와 음성봇은 모두 음성 인터페이스를 활용해 자동으로 응답을 제공한다는 점에서 유사하지만 분명한 차이점이 있습니다. 바로 ‘의도분류의 가능 여부’입니다. ARS는 의도를 분류할 수 있는 자연어처리 기능이 없어 미리 설정해둔 시나리오에 따라 순차적으로 흘러갑니다. 예를 들어 ‘계좌조회는 1번, 대출문의는 2번을 눌러주세요’와 같이, DTMF(Dual-Tone Multi-Frequency) 신호를 통해 진행됩니다.

그러나 AI음성봇은 의도를 분류할 수 있습니다. 예를 들어 ‘계좌를 조회하려구요’, ‘대출 좀 알아보려 합니다’와 같은 자연어 발화 내용이나, ‘예’는 긍정, ‘아니오’는 부정 등을 판단하는 등 자연어처리에 따라 미리 설정된 시나리오로 대화가 진행됩니다. 음성봇은 기존 ARS보다 대상자의 통화 진행이 능동적입니다.

*자연어처리란, 컴퓨터에게 인간과 매우 유사한 방식으로 텍스트 및 음성 언어를 이해하는 능력을 부여하는 것과 관련된 인공지능의 한 분야입니다.

챗봇과 음성봇의 차이

챗봇과 음성봇의 차이점으로는 먼저 ‘대화방식’입니다. 챗봇은 보통 문자(text)를 입력하여 대화가 이루어지고, 음성봇은 음성(voice)으로 대화가 이루어집니다. 이 대화방식의 차이점으로 챗봇과 음성봇은 같은 시나리오라 하더라도 설계 방법이 달라집니다.

다음으로는 ‘고객 컨택유형’입니다. 일반적으로 챗봇은 필요한 고객이 먼저 접속하는 형태로 이루어집니다. 간혹 사용자에게 푸시알림 기능을 활용해 정보를 먼저 알려주기도 하지만, 이는 어플의 기능을 활용한 것으로 챗봇 자체의 기능은 아닙니다. 반면, 음성봇은 필요한 고객이 직접 전화를 걸어 문의하는 인바운드 형태와 대상 고객에게 자동으로 전화를 걸어 정보를 전달하는 아웃바운드 형태가 있습니다.

음성봇 설계 시 고려사항

앞서 음성봇은 챗봇과 ‘대화방식’의 차이점이 있다고 말씀드렸습니다. 챗봇과 달리 음성봇은 ‘음성’으로 대화가 진행되므로 주의해야할 점이 있습니다.

첫째, 발음의 다양성을 고려해야합니다. 예를 들어, 숫자를 발화할 때 ‘0’의 경우, ‘영’, ‘공’, ‘빵’, ‘오’, ‘제로’, ‘지로’ 등 아주 다양하게 발화할 수 있습니다. 사용자가 어떤 발음으로 표현할지 미리 예상해야 합니다.

둘째, 데이터 전처리가 필요합니다. 음성을 문자로 변경해주는 STT기술을 사용하기 전, 음성데이터의 노이즈(잡음)제거, 성대 이외의 소음 제거, 강세 등을 고려한 데이터 전처리가 필요합니다.

셋째, 데이터의 중요도를 파악해야 합니다. 주로 동사보다는 ‘명사’가 정보의 중심이 되는 역할을 합니다. 예를 들어 ‘금리’라는 명사는 금융상황에 아주 중요한 정보입니다. 그러나 ‘조회해주세요’라는 동사만으로는 명확한 의도 및 요구사항을 파악하기가 어렵습니다. 따라서 명사와 동사 모두 중요하지만, 주로 ‘명사’에 우선순위를 높여 고려하는 것이 좋습니다.

AI의 발전을 대하는 우리의 자세

지금까지 ARS, 챗봇과 음성봇의 차이점 및 음성봇 설계 시 고려해야할 사항에 대해 다루었습니다. 전화 통화를 무서워하는 세대는 챗봇을, 고령의 사용자는 음성봇을 선호하는 경향이 있습니다. 이에 우리는 계속해서 지속 발전하는 AI기술을 적극적으로 습득하고 활용할 필요성이 있습니다. 또한 개인정보보호, 보안 등을 포함하여 개발 시작 단계에서부터 윤리적 문제에 대해 깊이 생각하고 염두에 둬야 합니다.

저작권자 © 대한데일리 무단전재 및 재배포 금지