2025. 9. 25. 07:00ㆍAI 이야기
들어가며
“알잘딱깔센”이라는 표현 아시나요? ‘알아서 잘 딱 깔끔하고 센스 있게’라는 뜻으로, 내가 직접 구체적으로 요청하지 않아도 누군가가 내 취향과 상황을 잘 파악해서 완벽하게 대신해주길 바랄 때 쓰는 말입니다. 회사에서 업무를 할 때, 집안일을 처리할 때, 혹은 여행 준비를 할 때처럼 묘하게 번거롭고 귀찮은 순간마다 “누가 알잘딱깔센으로 챙겨주면 얼마나 편할까?” 하는 생각이 들곤 하죠.
사실 이런 욕구는 AI 서비스에서도 비슷하게 나타나고 있습니다. 단순히 질문에 답하거나 명령을 수행하는 차원을 넘어, 사용자의 맥락을 읽고 먼저 필요한 것을 제안하거나 실행해주는 Proactive AI 개념이 주목받고 있습니다. 1
최근 AI 개인화 관련 프로젝트를 진행하면서, Proactive AI Assistant 기능을 어떻게 설계할 수 있을지 고민할 기회가 있었습니다. 과연 Proactive AI란 무엇이고, 어느 정도의 “능동성”이 사용자에게 유용하게 다가올 수 있을까요? 이 글에서는 그 고민의 결과를 공유해보려 합니다.
Proactive AI, 뭐가 다를까?
Proactive AI란 단순히 사용자의 질문이나 요청에 반응하는 것을 넘어, 사용자의 선호·행동 패턴·실시간 맥락을 종합적으로 고려해 더 맞춤화된 경험을 능동적으로 제안하거나 실행하는 AI를 의미합니다. 기존의 Reactive AI와는 그 동작 방식에서 뚜렷한 차이가 있습니다. 2
먼저 Reactive AI는 초창기 챗봇이나 단순 보이스 어시스턴트를 떠올리면 이해하기 쉽습니다. 이들은 과거 상호작용에 대한 메모리가 없어 학습이 불가능합니다. 대화를 나누거나 명령을 수행해도 별도의 기억을 축적하지 않기 때문에, 이전 경험을 기반으로 개선된 응답을 제공하지 못합니다. 따라서 사용자의 요청에 즉각적으로 반응할 뿐 맥락을 이해하지는 못하고, 단편적인 자극에 단순 실행으로 대응하는 것이 특징입니다. 또한 주로 룰 기반(rule-based) 시스템으로 작동하기 때문에, 다양한 요소를 종합적으로 고려하기보다는 정해진 로직에 따라 동일하게 반응합니다. 3 4
반대로 Proactive AI는 지속적인 학습을 통해 사용자의 행동·환경 변화를 반영하고, 스스로 성능을 개선해 나갑니다. 단순히 명령을 인식하는 수준을 넘어 사용자의 상태·시간·위치·이력 등 전반적인 맥락을 이해하고 이에 맞는 판단을 내립니다. 무엇보다도 단기적 요청에만 반응하는 것이 아니라, 사용자의 편의·만족·효율이라는 목표를 고려해 필요한 순간에 스스로 제안하거나 실행할 수 있습니다. 5 6
우리가 일상에서 많이 사용하는 ChatGPT는 기본적으로 사용자 요청에 반응하는 Reactive AI의 성격을 가지고 있습니다. 하지만 최근에는 대화 맥락을 일정 부분 기억하거나(대화 내 맥락 유지, 개인화 기능), 후속 질문을 제안하는 등 Proactive AI의 초기 단계 기능도 일부 보여주고 있습니다. 다만 사용자의 상태·환경 데이터를 실시간으로 수집·분석해 먼저 발화하거나 행동하는 단계에는 아직 이르지 못했기 때문에, 주로 Reactive AI에 가깝지만 일부 Proactive적 요소를 갖춘 과도기적 AI라고 볼 수 있습니다. 7
즉, Reactive AI가 ‘즉각적 반응형 도우미’라면, Proactive AI는 ‘상황을 파악하고 미리 준비하는 조력자’에 가깝습니다. 그리고 요즘의 생성형 AI들은 Reactive 단계에서 Proactive 단계로 점차 진화해 나가는 중이라고 할 수 있습니다.
AI도 레벨이 있다: Proactive의 0→3단계
이번 프로젝트 리서치에서 저희가 정의한 기준에 따르면, Proactive AI는 능동성의 정도에 따라 네 가지 수준으로 구분할 수 있습니다.
가장 기본 단계인 레벨 0은 사실상 프로액티브하지 않은 상태입니다. 사용자가 직접 요청해야만 AI가 응답하거나 기능을 실행하는 수준으로, 우리가 익숙한 Apple Siri나 Google Assistant가 대표적인 예입니다. 예를 들어 “시리야, 내일 아침 7시에 알람 맞춰줘”라고 말하면 알람을 설정해주는 것처럼, 철저히 명령 기반의 반응에 의존합니다.
레벨 1에서는 여기에 약간의 확장이 더해집니다. 사용자의 요청에 응답하거나 기능을 수행한 이후, 그 맥락을 고려해 추가적인 제안이나 추천을 덧붙이는 단계입니다. 구글 어시스턴트에게 식당 검색을 요청하면 식당 리스트 제공 후 “길찾기를 시작할까요?”라거나 “해당 지역 날씨도 확인할까요?”라고 연이어 묻는 식이죠. 사용자가 처음 요청한 행동을 넘어, 다음에 필요할 수 있는 선택지를 가볍게 안내하는 수준입니다.
레벨 2부터는 사용자의 요청이 아예 없어도 AI가 먼저 제안을 합니다. 사용자의 일정, 위치, 습관이나 실시간 데이터를 종합해 지금 상황에서 유용할 만한 정보를 먼저 알려주는 방식입니다. 구글 지도에서 “지금 출발해야 제시간에 도착합니다”라는 알림을 띄우거나, 글을 작성할 때 제목에 맞는 본문이나 이미지를 추천하는 경우가 여기에 해당합니다. 이 단계에서는 AI가 주도적으로 움직이긴하지만, 사용자가 제안을 받아들일지 말지는 선택할 수 있습니다.
마지막으로 레벨 3은 AI가 사용자의 명시적 요청이나 허락 없이도 스스로 기능을 실행하는 단계입니다. 레벨 2와의 가장 큰 차이는, AI가 제안하고 사용자가 수용 여부를 결정하는 과정이 생략되고, AI가 전적으로 주도해 자동 실행을 해버린다는 점입니다. 예를 들어 차량 시스템이 운전자의 주의 이탈을 감지하고 자동으로 경고음을 울리거나 갓길 주행을 유도하는 기능, 에어팟이 사용자가 대화를 시작하면 자동으로 음악 볼륨을 줄이는 기능, 테슬라가 일정과 패턴을 기반으로 목적지를 자동 설정하는 기능 등이 여기에 해당합니다. 이 단계는 특히 즉각적인 대응이 필요한 상황에서 의미가 크다고 할 수 있습니다.
Proactive AI 레벨, 더 높을수록 무조건 좋은 걸까?
앞서 Proactive AI는 총 네 단계의 레벨로 나눌 수 있다고 말씀드렸습니다. 그렇다면 무조건적으로 가장 높은 수준인 레벨 3(자동 실행)을 제공하는 것이 사용자에게 최선일까요? 답은 그렇지 않습니다.
[더 똑똑한 Proactive 경험보다 중요한 기본: 신뢰성과 투명성]
Proactive AI는 본질적으로 개인화된 응답과 제안을 제공하기 위해 설계되며, 이를 위해서는 데이터 수집과 통합이 필수적입니다. 더 많은 데이터를 수집하고 맥락을 포착할수록 더 높은 수준의 Proactive 기능을 제공할 수 있지만, 동시에 사용자에게 불쾌감을 줄 위험도 커집니다. 따라서 어느 범위까지 데이터를 통합해 개인화 서비스를 제공할지에 대한 권한은 반드시 사용자에게 주어져야 합니다. 이 과정에서 신뢰성과 투명성이 확보되지 않는다면, 오히려 사용자 경험은 악화됩니다.
실제로 이를 뒷받침하는 조사 결과도 많습니다. ‘Privacy Paradox’라는 용어가 등장한 것도 같은 맥락입니다. 고객들은 개인화를 원하면서도, 자신에 대한 정보가 과도하거나 부적절하게 사용된다고 느낄 경우 강한 거부감을 드러냅니다. InMoment(2018)에 따르면 소비자의 75%는 지나친 개인화를 “소름 끼친다(Creepy)”고 답했습니다. Pew Research(2023) 조사에서는 81%가 AI의 개인정보 활용 방식에 불편함을 느꼈고, 80%는 정보가 의도치 않게 활용될 가능성을 우려했습니다. McKinsey(2022)에 따르면 85%의 소비자가 구매 전 기업의 데이터·AI 정책을 확인한다고 응답했으며, Global Consumer State of Mind Report(2021)에서는 전 세계 소비자의 59%(한국은 65%)가 기업이 데이터 활용에서 ‘선을 넘었다’고 느꼈습니다. 또한 55%는 편의성보다 사생활 보호를 택했고, 67%는 데이터 활용 방식을 직접 제어할 수 있는 브랜드를 선호한다고 답했습니다. 이처럼 데이터 통합은 Proactive AI의 핵심 전제 조건이지만, 사용자의 신뢰와 동의가 뒷받침되지 않으면 역효과를 낳습니다.
[신뢰 다음으로 필요한 것: 사용자의 제어권]
서비스 측면에서도 마찬가지입니다. 아무리 AI가 나를 잘 이해한다 해도, 나 자신만큼 내 기분과 의도를 완벽히 알 수는 없습니다. 매일 반복하던 루틴조차 지키고 싶지 않은 날이 있듯, AI가 단순히 패턴만 보고 자동 실행을 해버린다면 사용자는 오히려 그것을 중단하기 위해 더 큰 번거로움을 겪게 됩니다. 자동 실행이 아니더라도, 내가 요청하지 않았는데 계속 연관된 제안을 이어가거나, 쉬고 싶은 순간에도 끊임없이 알림과 선제안을 보내온다면 어떨까요?
실제로 아마존 알렉사의 ‘By the way’ 기능이 대표적인 사례입니다. 이 기능은 사용자가 알렉사에게 질문을 하면, 대답을 마치면서 “그런데(By the way)… 이건 어떠세요?” 하며 추가적인 제안이나 질문을 던집니다. 겉보기엔 먼저 도움을 주는 기능처럼 보였으나 사용자들의 반응은 정반대였습니다. Reddit 같은 포럼에는 “원치 않는 개입이라 성가시다”, “내 허락 없이 들어오는 것 같아 불쾌하다”는 불만과 함께 “이 기능을 끌 방법은 없냐”는 질문이 반복적으로 올라왔습니다.
뿐만 아니라, 실제 프로젝트에서 서비스 시나리오를 작성하며 확인한 점도 있었습니다. 처음에는 자동화 기능을 최대한 제공하는 것이 가장 편리한 경험일 거라 생각했지만, 막상 시나리오로 풀어보니 오히려 강압적으로 느껴질 수 있다는 점을 깨달았습니다. 자동화가 맥락과 시점을 제대로 맞추지 못하면 사용자가 원치 않는 개입으로 받아들일 위험이 크기 때문입니다.
따라서 Proactive AI가 진정한 ‘알잘딱깔센’ 경험을 제공하기 위해서는, 오히려 사용자가 직접 컨트롤할 수 있는 권한이 보장되어야 합니다. 사용자가 알림의 종류·형태·전달 방식·개입 수준을 스스로 조정할 수 있어야 하고, 어떤 도메인이나 주제에서 어느 수준까지 AI가 개입하게 할지도 선택할 수 있어야 합니다. 여기에 데이터 수집과 활용 범위까지 투명하게 고지된다면, 8 사용자는 방해받지 않으면서 원하는 수준의 Proactive 경험을 설계할 수 있고, 서비스는 신뢰를 기반으로 한 초개인화 가치를 제공할 수 있을 것입니다. 9
이어지는 2편에서는, 그렇다면 AI를 통해 proactive한 경험을 주는 서비스는 어떤 방식으로 설계되어야 하는지에 대해 다뤄보도록 하겠습니다.
글. UX Researcher - 최하은, UX Designer - 김슬기
- Understanding Proactive AI Agents, RAPID INNOVATION [본문으로]
- What is Proactive AI?, REP [본문으로]
- Reactive vs. Proactive AI Agents: What’s the Difference?, TEKREVOL Blog [본문으로]
- Reactive vs. Proactive AI Agents: What’s the Difference?, Kodexo labs [본문으로]
- Reactive vs Proactive AI Agents: What Developers Need to Know, GOCODEO [본문으로]
- What’s the difference between reactive and proactive AI agents?, Geeks Insights [본문으로]
- ChatGPT를 위한 메모리와 새로운 제어 기능, Open AI [본문으로]
- Hyper-personalization: a practical UX guide, UX Collective Medium [본문으로]
- Putting the personal back in personalization, PWC and Adobe Alliance Blog [본문으로]