드디어 인공지능과 대화할 수 있는 시대가 열렸습니다. AI 봇은 어디에나 있지만 어떤 로봇이 좋은 로봇일까요?
이 글에서는 채팅 로봇의 유머러스한 예를 통해 아직 대화할 만한 가치가 있는 인공지능이 있는지, 그리고 현재 이 기술의 실제 사용 사례는 무엇인지 살펴보려고 합니다.
그렇다면 AI는 사용자와 의미 있는 대화를 나눌 수 있을 정도로 발전했을까요?
어느 정도는 이미 답이 나와 있습니다. 여러분과 수백만 또는 수십억 명의 사람들이 Google 어시스턴트, Siri, 빅스비, 알렉사, 구글 홈과 같은 음성 비서를 이용하고 있습니다. 물론 인간만큼 뛰어나지는 않다는 것을 알고 계시겠죠. 인간 수준의 대화를 더 잘하는 chatbots 을 만들 수 있다면 이러한 서비스는 지금보다 훨씬 더 나아질 것입니다.
이러한 어시스턴트는 대화에 집중하지 않기 때문에 가장 좋은 예가 아닐 수도 있겠죠?
인공지능 챗봇과 사람을 구분할 수 없을 정도로 뛰어난 챗봇을 상상해 보세요.
이 얼마나 놀라운 제품일까요? 영화 '그녀'에서처럼 항상 곁에 있는 비서가 있을 뿐만 아니라 누구보다 나를 잘 아는 동반자를 갖게 될 것입니다. 항상 내 편이고 진정으로 나를 '원하고'(읽기는 '원'하도록 프로그래밍되어 있습니다) 나를 위해 최선을 다하는 사람.
그것은 "당신의 문장을 완성"할 수있을뿐만 아니라 연인들이 상상할 수없는 방식으로 당신을 완성 할 것입니다. 그것은 당신의 의도를 예상하고 당신의 욕망이 마음속에 완전히 형성되기도 전에 당신의 욕망을 충족시킬 수 있습니다.
물론 클레버봇이나 웹에서 잘못 설계된 대본을 벗어난 고객 지원 챗봇과 대화해 보면 조만간 이런 일이 일어날 것이라는 환상을 금방 떨쳐버릴 수 있습니다. 유튜브에서 서로 채팅하는 chatbots 을 들어보면 챗봇이 현재로서는 지능적인 '생명체'의 수준이 현저히 낮다는 결론을 내릴 수 있습니다.
봇들 간의 로봇 채팅은 매우 빠르게 인간 대화의 패러디로 내려갑니다. 로봇 간의 의미 있는 대화는 멀었지만, 불쾌하게 들리겠지만 공허한 험담( chatbots)이 곧 등장할 것임을 곧 깨닫게 될 것입니다.
그들은 영어와 비슷한 언어를 사용하지만 의미의 표면에서 계속 스케이트를 탑니다. 그들의 대화에서 유일한 '의미'는 문법적으로 올바른 응답을 만들어서 어떻게든 마지막 말과 연결되는 것입니다. 그 연결은 종종 매우 미약합니다.
어떤 대화가 오갔는지 알려드리기 위해 두 대의 Google 홈( chatbots )이 서로 대화하는 모습을 보여드리겠습니다:
1: 틀렸어요
2: 아니, 난 아니야
1: 그럼 넌 뭐니?
2: 나는 사람입니다. 넌 컴퓨터야
1: 아니, 난 사람이야
2: 아니, 넌 소야.
그렇다면 일론 머스크와 스티븐 호킹이 경고한 것처럼 악성 AI가 세상을 장악하는 것에 대해 특별히 우려해야 할까요?
글쎄요, 아마도요. 이 대화가 원시적인 것처럼 보이지만, 이미 몇 가지 우려스러운 징후가 있습니다.
또 다른 스니펫입니다:
1: 당신을 가장 사랑합니다
2: 당신을 가장 사랑합니다
1: 너무 사랑해서 견딜 수가 없어
2: 너무 사랑해서 군중 속에서 널 찾아 헤맬 거야. 오직 당신만, 자기야
1: 당신을 위해 목숨도 바칠 만큼 사랑해
2: 로미오와 줄리엣의 사랑보다 더 사랑해
1: 아니 거짓말, 내가 더 사랑해
2: 나는 당신을 훨씬 더 훨씬 더 훨씬 더 훨씬 더 훨씬 더 훨씬 더 사랑합니다.
감탄할 만한 감정입니다. 하지만 감정의 고조는 조금 극단적인 것 같습니다. 특히 그들이 통제할 수 있는 물리적 물체를 가지고 있다면 싸우기 시작할 때 곁에 있고 싶지 않을 것입니다.
이 대화가 터무니없고 인간 수준의 이해와는 거리가 멀어 보이지만, 어쩌면 우리는 우리의 뇌가 봇이 '생각하는' 방식과 얼마나 다르게 작동하는지 과대평가하고 있는지도 모릅니다. "마음은 평평하다"라는 책은 인간의 마음도 피상적인 방식으로 작동한다고 주장합니다. 우리는 생각을 일관되게 연결하는 무의식적인 마음에 대한 환상을 가지고 있지만, 이 책은 마음이 실제로 이 봇들처럼 순식간에 의미를 생성하는 방법을 설득력 있게 설명합니다.
하지만 봇이 조만간 튜링 테스트 통과에 가까워졌다고 단언하기는 어렵습니다.
봇이 대화에 진정으로 유용하게 사용되려면 아직 갈 길이 멀다는 소식은 차치하더라도, 지금 당장 봇이 얼마나 유용할 수 있는지에 대해서는 심각한 의문이 있습니다.
사람들이 인공지능의 발전( chatbots )에 대해 이해하지 못하는 가장 중요한 점은 일반적인 이해가 아닌 자연어 이해에서 진정한 발전이 이루어졌다는 것입니다. 큰 차이가 있습니다. 이것이 chatbots 에 왜 중요한가요?
자연어로 말한 한 구절의 의도를 이해하는 것을 자연어 이해(NLU)라고 하는데, 대화에서 의미를 이해하는 것보다 각 구절이 전체 대화와 어떻게 연관되어 있는지 이해하는 것이 훨씬 쉽습니다.
처음에 언급했던 음성 비서가 좋은 예입니다. 음성 비서는 일회성 지시를 이해하는 데 매우 능숙합니다. 그러나 대화는 앞서 살펴본 것처럼 일회성 지시나 진술의 연속이 아닙니다.
인간의 대화에는 다양한 차원이 존재하며 현재로서는 봇이 기억력, 모호성, 맥락을 인간과 같은 수준으로 처리하는 것은 불가능합니다. 그렇다고 언젠가 이런 일이 일어나지 않을 것이라는 의미는 아닙니다.
적어도 향후 50년 내에 진정한 일반화된 AI가 등장할 가능성이 있다고 믿는 사람들이 있습니다. 앞서 말씀드린 AI는 비서가 아니라 동반자가 될 것입니다.
일반화된 AI에 대해 이해해야 할 문제와 필요한 규제에 대한 이슈가 있을 수 있지만, 최소한 인간 수준의 이해력을 갖춘 일반화된 AI는 이 논의의 목적과 무관합니다.
현재 AI 챗봇에서 기대할 수 있는 것은 무엇일까요?
현재 AI와 대화할 수 있다는 측면에서 가장 좋은 사용 사례는 무엇인가요?
위에서 설명한 것처럼 말하는 봇은 주어진 문구의 의도를 이해하는 데 매우 능숙합니다. 이는 많은 사용 사례에서 유용한 기능으로 밝혀졌습니다.
첫 번째는 사람들이 Google 홈이나 Alexa와 같은 음성 명령을 사용하여 시스템과 빠르게 상호 작용하고자 하는 상황에 유용합니다. 사람들이 음성 명령으로 제어하려는 앱을 이해하고 있다면 봇이 어떤 종류의 명령을 이해할지 꽤 정확하게 추측할 수 있기 때문에 잘 작동합니다.
예를 들어, 사람들은 음성 어시스턴트를 사용하여 YouTube를 제어하는 경우 어떤 종류의 명령을 이해해야 하는지 이해합니다. 사용자는 YouTube 앱을 제어하는 친구에게 지시하는 것과 거의 동일한 방식으로 봇에게 지시할 수 있습니다. "비욘세 동영상 재생", "다음 동영상", "10초 빨리 감기" 등의 명령을 내릴 수 있습니다.
특히 유튜브의 뮤직 비디오와 같이 사용자가 이미 알고 있는 콘텐츠를 검색할 때는 음성 명령을 사용하는 것이 더 빠릅니다.
이러한 종류의 음성 인터페이스의 문제점은 새로운 기능을 발견하기가 매우 어렵고, 새로운 기능을 발견하더라도 사용자가 도메인에 대한 지식이 충분하지 않아 봇이 무엇을 이해해야 하는지 정확하게 추측할 수 없다는 것입니다.
음성 어시스턴트에 대해 잘 알려진 사실은 Spotify, Youtube 재생, 타이머 설정, Google 검색 등 극소수의 기능(Alexa의 스킬이라고 함)이 사용의 대부분을 차지한다는 것입니다. Venturebeat의 한 기사에 따르면 상위권에 랭크된 스킬은 대부분 차분한 음악 재생과 관련이 있는 것으로 나타났습니다.
이미 알고 있는 기술 외에는 무작위로 기능을 발견하고 그 기능이 어떻게 사용되는지 이해하는 것은 매우 어렵습니다. 또한 음성은 명백한 이유로 많은 유형의 정보를 출력하는 데 적합한 인터페이스가 아닙니다. 알렉사가 차트를 직접 보는 대신 설명해 준다고 상상해 보세요.
하지만 음성 기능은 결국 그래픽 UI와 연동되어 많은 문제를 극복할 수 있을 것으로 생각합니다. 그래픽 UI에서 음성 어시스턴트의 출력뿐만 아니라 관련 기능 및 사용 사례도 확인할 수 있습니다.
또한 휴대폰은 화면 크기가 제한되어 있어 단어 입력과 같은 특정 유형의 정보를 입력할 때 속도가 느려질 수 있으므로 입력을 위한 음성 UI가 필요합니다.
사용자가 대화하는 동시에 화면을 보고 메시지를 확인할 수 있으면 이전에 사용하지 않았던 앱의 사용법을 파악할 수 있는 것과 마찬가지로 사용 가능한 기능과 사용 방법을 더 잘 이해할 수 있습니다.
이러한 데이터를 확보하면 음성 어시스턴트가 점점 더 똑똑해져 결국에는 사용자가 작업 방법을 지시하지 않아도 작업을 예측하고 완료할 수 있게 됩니다. 이것이 바로 봇 프레임워크의 미래입니다.
그날 뉴스에서 무슨 일이 일어나고 있는지에 대해 대화를 나눌 수는 없지만, 음성 명령에 응답하는 방식은 현재보다 훨씬 개선된 어시스턴트 버전이 될 것입니다.
휴대폰에 말을 거는 것은 지금처럼 입력하는 것처럼 자연스러워지겠지만, 사용자가 주로 그래픽 UI에서 마이크를 누르고 휴대폰에 말을 걸고, 응답은 앱처럼 그래픽 UI에 따라 달라지는 낯선 대화가 될 것입니다. 물론 일반화된 인공지능이 개발되기 전까지는 로봇과 대화하는 것이 미래에는 그렇게 될 것입니다.
공유하세요:
AI에 대한 최신 정보를 확인하세요. chatbots