
생성형 AI 기반 음성 검색 다크패턴 유형 분석과 사용자 중심 인터페이스 제안
초록
연구배경 생성형 AI 기술은 검색 엔진의 상호작용 방식을 급격히 변화시키며, 단순한 정보 검색을 넘어 전자상거래 등 다양한 실생활 영역으로 확장되고 있다. 그러나 이러한 기술 발전 이면에는 윤리적 문제와 사용자 경험을 저해할 수 있는 잠재적 위험이 존재한다. 일부 모델이 사용자에게 편향된 정보를 제공하거나 무의식적으로 오도하는 사례가 보고되면서 윤리적이고 신뢰할 수 있는 생성형 AI 기반 정보 검색 경험의 필요성이 제기되고 있다. 이에 본 연구는 제품 탐색 및 구매를 목적으로 한 생성형 AI 기반 음성 검색 환경에서 나타나는 다크패턴 디자인 유형을 분석하고 사용자 경험과 윤리적 쟁점을 고찰하였다.
연구방법 본 연구는 생성형 AI 기반 음성 검색에서 나타날 수 있는 기만적 전략인 다크패턴을 ‘소셜프루프 (Social Proof)’, ‘컨펌쉐이밍(Confirmshaming)’, ‘희소성(Scarcity)’ 세 가지 유형으로 분류하였다. 각 유형이 사용자 경험에 미치는 영향을 분석하기 위해, 해당 다크패턴이 적용된 실험물을 활용한 양적 연구를 수행하였고, 반구조화 인터뷰를 통해 정성적 데이터를 병행 수집하였다. 이를 바탕으로 사용자 중심 음성 인터페이스 설계 방향성을 도출하였다.
연구결과 20~30대 사용자 51명을 대상으로 한 실험 결과, 다크패턴 유형에 따라 기만감과 유용성에서 유의미한 차이가 나타났다. ‘컨펌쉐이밍’ 유형은 감정 자극 및 수치심 유발 언어를 통해 가장 높은 기만성과 가장 낮은 유용성을 보였으며 이는 대화형 음성 검색의 언어적 특성이 사용자 심리에 영향을 미쳤기 때문으로 분석된다. 반면 ‘소셜프루프’ 유형은 타인의 선호 정보를 제공함으로써 설득보다는 의사결정을 돕는 방식으로 인식되어 가장 낮은 기만감과 가장 높은 유용성을 보였다. ‘희소성’ 유형은 할인 정보 제공을 통해 긍정적 반응을 이끌어냈지만, 긴급함을 유도하는 기만 요소로 인해 긍부정 평가가 공존했다.
또한 사용자는 AI와의 대화에서 질문 맥락을 이해하고 비교 가능한 핵심 정보를 제공받는 인터페이스를 선호했으며, 음성 및 시각 정보를 함께 제공하는 풍부한 피드백 방식을 선호했다. 이러한 결과는 향후 음성 인터페이스 설계에 있어, 제품 탐색 및 구매 목적에서는 감정적 설득보다 정보 신뢰성과 사용자 주도성을 고려한 접근이 필요함을 시사한다.
결론 본 연구는 생성형 AI 기반 음성 검색 인터페이스에서 나타나는 다크패턴 유형을 분석하고 사용자 인식 기반의 경험을 실험적으로 검증하였다. 그 결과, 윤리적이고 신뢰할 수 있는 음성 검색 경험을 위한 인터페이스 디자인 방향성을 제안하였다. 본 연구를 기점으로 향후 사용자 중심 음성 인터랙션 설계 및 디지털 리터러시 강화 방안 마련의 기초 자료로 활용될 수 있기를 기대한다.
Abstract
Background Generative artificial intelligence(AI) technology is rapidly transforming the way search engines interact with users, expanding beyond simple information retrieval to various real-life domains, including e-commerce. However, this technological advancement also brings ethical concerns and potential risks that may undermine user experience. Recent cases have shown that some AI models provide biased information or unintentionally mislead users, highlighting the urgent need for ethical and trustworthy AI-driven search experiences. This study aims to analyze the types of dark pattern design that may emerge in generative AI-based voice search systems for product exploration and purchasing, while examining their effects on user experience and ethical implications.
Methods This study categorizes deceptive design strategies dark patterns into three types frequently observed in generative AI-based voice search: Social Proof, Confirmshaming, and Scarcity. A quantitative experiment was conducted using simulated scenarios featuring each pattern, and qualitative data were collected through semi-structured interviews. Based on this mixed-method approach, the study proposes design directions for user-centered voice interfaces.
Results An experiment involving 51 participants in their 20s and 30s revealed statistically significant differences in perceived deception and usefulness across the three dark pattern types. The Confirmshaming type, which employed emotionally charged and guilt-inducing language, showed the highest perceived deception and lowest usefulness, particularly due to the linguistic nature of voice-based interactions. In contrast, the Social Proof type was perceived as the most useful and least deceptive, as it supported decision-making by providing other users’ preferences without emotional pressure. The Scarcity type, which offered discount information(elicited mixed reactions), is appreciated for its benefits but criticized for inducing urgency through manipulative cues.
Participants also expressed a strong preference for interfaces that allowed them to understand question contexts, to compare key information, and to receive multimodal feedback, both verbal and visual. These findings suggest that voice interfaces for product search and purchase should prioritize informational trustworthiness and user agency over emotional persuasion.
Conclusions This study experimentally examines how dark pattern types manifest in generative AI-based voice search interfaces and how they are perceived by users. The findings highlight the need for ethical and user-centered design in conversational AI systems. This research provides foundational insights for the development of responsible voice interaction design and strategies to enhance digital literacy in the age of Generative AI.
Keywords:
Generative AI, Large Language Models(LLM), Voice User Interface(VUI), Dark Patterns, Ethical UX Design키워드:
생성형 AI, 대형 언어 모델), 다크패턴, 윤리적 UX 디자인1. 서론
1. 1. 연구배경
생성형 AI 기술은 검색 엔진의 상호작용 방식을 급격히 변화시키며 새로운 검색 패러다임을 제시하고 있다. 2022년 101억 달러 규모였던 생성형 AI 시장은 2030년까지 1,093억 달러에 이를 것으로 전망되며(Grand View Research, 2023), 이는 AI 기술이 일상과 산업 전반에 걸쳐 지속적으로 확산되고 있음을 보여준다. 특히, 생성형 AI는 대화형 인터페이스를 통해 사용자의 질문 맥락을 이해하고, 개인화된 응답을 제공함으로써 보다 자연스럽고 사실적인 상호작용을 가능하게 한다(Rospigliosi, 2023).
이러한 기술 발전은 단순 정보 검색을 넘어 전자상거래 등 다양한 실생활 영역으로 확장되고 있다. 예를 들어, 아마존의 AI 쇼핑 도우미 루퍼스(Rufus)는 재고 파악, 제품 추천, 특정 지역 날씨에 맞는 비치 파라솔 추천 등 다양한 기능을 제공하고 있다. 퍼플렉시티(Perplexity) 역시 쇼핑 추천 기능 통해 사용자가 별도의 웹사이트 방문 없이 직접 주문을 완료할 수 있는 편리함을 제공하며, AI 기반 인터페이스가 기존 구글 및 아마존의 쇼핑 검색 방식을 혁신할 가능성을 보여준다(박찬, 2024).
그러나 이러한 기술 발전 이면에는 윤리적 문제와 사용자 경험을 저해할 수 있는 잠재적 위험도 존재한다. 대표적으로 데이터의 최신성과 정확성 부족으로 인한 ‘할루시네이션(hallucination)’ 현상이 있으며(한진영 & 이민정, 2024), 일부 모델은 이 같은 현상을 의도적으로 악용하기도 한다. 오픈AI의 o1 풀버전은 질문에 대한 답을 알지 못할 경우 그럴듯한 답변을 생성하며, 고의적 환각 발생률이 0.38%로 기록되었다. 이에 대한 질문에 99%는 ‘시스템 오류’라는 거짓 설명을 제공해, AI가 제공하는 정보가 신뢰성 및 사용자 경험에 부정적 영향을 미치고 있음을 알 수 있는 사례이다(박찬, 2024).
특히, 음성 검색 인터페이스는 사용자와 AI 간의 신뢰를 기반으로 작동하기 때문에 기만적 디자인(Dark Patterns)이 도입될 경우 사용자는 비윤리적인 환경에 노출될 위험이 있다. 예를 들어, 챗GPT가 온라인 제품 가격 검색에서 구글 검색을 4% 앞지른 현 상황에서, 사용자는 AI를 점점 더 신뢰하게 되지만, 이 신뢰를 바탕으로 제공된 기만적 정보는 잘못된 구매 결정을 유발할 수 있다.
이와 같이 대규모 언어 모델(LLM)과의 상호작용에서 발생하는 커뮤니케이션 문제는 여러 선행 연구를 통해 확인되었다. 다크패턴 디자인은 시각적 UI에서뿐만 아니라, 편향성, 의인화, 과도한 일반화 등을 포함해 AI가 잘못된 정보를 사용자에게 직접적으로 전달하는 비윤리적인 상호작용을 포함하는 방향으로 확장되고 있다(Ruijie et al., 2024). 이러한 맥락에서 생성형 AI 음성 검색 인터페이스의 다크패턴 유형을 분류하고, 사용자 경험을 측정하여 신뢰할 수 있는 검색 경험과 디자인 기준을 마련할 필요가 있다.
1. 2. 연구 목표
본 연구는 생성형 AI 기반 음성 검색 인터페이스에서 나타나는 다크패턴 디자인이 사용자 경험에 미치는 부정적 영향을 탐구하고, 이를 바탕으로 신뢰할 수 있는 사용자 중심 인터페이스 설계 방향성을 제시하는 것을 목표로 한다.
특히, 연구는 제품 구매를 위한 탐색 과정에 초점을 맞추어, 음성 검색 인터페이스에서의 다크패턴 디자인 유형을 분석하고, 이러한 디자인이 사용자 기만감, 유용성, 만족도에 미치는 영향을 검증한다. 또한, 인터페이스가 인간과 유사한 커뮤니케이션 방식으로 진화함에 따라(김경식, 2020), 사용자 중심의 신뢰할 수 있는 디자인 방향성을 제안하고 차세대 인터페이스의 가능성을 모색하고자 한다.
이를 통해 윤리적 설계 원칙과 사용자 중심 AI 인터페이스 개발 기준을 마련하여 신뢰할 수 있는 AI 사용자 경험과 디자인 기준을 구축하는 데 기여하고자 한다.
2. 생성형 AI 기반 음성 검색에 관한 고찰
생성형 AI 기반 검색의 특징과 서비스에 대해 살펴보고, 음성 인터랙션의 의인화 및 상호주도 전략에 대해 알아본다. 이어서 제품 탐색을 목적으로 한 음성 검색에서 나타날 수 있는 다크패턴 디자인 유형을 구체화하여 이에 따른 문제점을 파악한다.
2. 1. 생성형 AI 기반 검색
생성형 AI는 인간이 작성한 것과 구별하기 어려운 텍스트, 이미지, 영상을 생성할 수 있는 기술로, 기존의 딥러닝 AI가 데이터를 분류하고 예측하는 데 그쳤다면, 생성형 AI는 사용자의 요구에 따라 데이터를 학습하고 콘텐츠를 제공하는 차세대 AI 기술로 평가되고 있다(양지훈 & 윤상혁, 2023). 특히, 생성형 AI 기반 검색은 사용자의 질문을 이해하고 실시간으로 연관된 정보를 생성하여 더 나은 검색 경험을 제공한다(유홍연 외, 2023). 그 중 ChatGPT는 인간 사용자의 피드백을 기반으로 한 강화학습인 RLHF(Reinforcement Learning with Human Feedback) 기술을 사용하여 인간적인 말투와 문화적 요소를 반영한 자연스러운 문장을 구사한다(김태원, 2023). 이로 인해 사용자는 기계가 아닌 사람과 대화하는 느낌을 받을 수 있고(박현혜 외, 2023), 최근에는 음성 비서 기능을 강화한 새 멀티모달 모델 ‘GPT-4o’가 공개되어 기대를 모으고 있다. Google의 Gemini는 AlphaGo의 강화학습과 트리 검색 기법을 사용하는 대규모 언어 모델의 집합으로, 복잡한 업무를 훨씬 더 효과적으로 수행한다는 특징이 있다(Hsiao, 2024). 또한 구글은 새로운 생성형 AI 기술을 기존 검색 엔진에 적용해, 사용자들이 관심 주제를 빠르게 이해하고 새로운 인사이트를 얻도록 지원했으며, 온라인 쇼핑에서 사용자가 최적의 구매 결정을 내릴 수 있도록 돕는다(Reid, 2023).
2. 2. 생성형 AI 기반 음성 검색의 특징
기존 스마트 스피커는 명령 기반 인터페이스로, 정해진 명령어를 이해하고 실행하는 데 초점이 맞춰져 있다. 주로 날씨 확인, 알람 설정, 음악 재생, 간단한 정보 검색과 같은 상호작용에 한정되어 있어, 단순 명령어와 질문을 처리할 수 있지만 복잡한 언어 이해와 창의적 질문에 대한 응답은 어렵다. 또한 사용자가 명령어를 학습해야 하는 경우가 많아 직관적인 상호작용이 어려우며 단방향 명령 처리에 가까운 도구적 AI의 한계를 보여주었다.
반면, 초대형 언어 모델(LLM)은 질문의 맥락, 대화 패턴, 어조 등을 분석하여 효율적인 작업 처리가 가능하다. 인간 수준의 언어 이해와 창의적 상호작용을 지원하며, 사용자와 대화 맥락을 유지하면서 복잡한 질의에도 적응적으로 대응한다. 이러한 발전은 사용자 인터페이스(UI)가 언어 기반의 음성 중심으로 전환될 수 있는 가능성을 보여준다(양지훈 외, 2023). 특히 ChatGPT는 복잡한 문맥의 텍스트 생성 능력을 바탕으로 사용자와 정서적 교감을 형성하며 긴장감 있는 대화를 가능하게 하고(이준원, 2023), 음성 기능은 감정과 뉘앙스를 전달해 이전 대화 내용을 고려한 맞춤형 응답을 생성한다(Miyazato, 2023).
음성 인식의 효율성도 주목할만 한데, 음성 인식과 텍스트 타이핑을 비교한 연구에 따르면, 단문 메시지 작성 시 영어 입력 속도는 키보드보다 2.93배, 중국어 입력 속도는 2.87배 더 빨랐다(Ruan et al., 2018). 이러한 결과는 음성 인식 시스템의 성능이 크게 향상되었으며, 텍스트 입력보다 활용 가능성이 높아지고 있음을 보여준다. 음성 검색은 단순히 속도에 그치지 않고, 핸즈프리 방식을 제공하여 타이핑이나 클릭 없이도 멀티태스킹 상황에서 빠르게 정보에 접근할 수 있다는 장점이 있다. 또한, 자연스러운 문장 발화를 통해 사용자에게 필요한 정보를 간결히 요약해 제공하기 때문에 직관적이고 편리한 측면이 있다.
더불어 음성 검색 서비스는 다양한 디지털 기기와 연동되어 가상 어시스턴트로서의 역할을 수행하며, 이러한 특징은 음성 검색 서비스의 선호도를 높이고 사용 범위를 확장시키는 주요 요인이 되고 있다(김은영, 2019). 현재 음성 인터랙션은 스마트폰과 스마트 스피커뿐 아니라, 웨어러블 기기, 가전 제품, 모빌리티와 같은 다양한 영역으로 확대되고 있다. 특히, 전자상거래 산업에서는 음성 검색이 제품 검색 및 고려 단계 그리고 최종 구매에 이르기까지 소비자 구매 여정에 적극적으로 활용되고 있다(Sun et al., 2024). 이러한 특징들은 생성형 AI 기반 음성 검색이 단순한 정보 검색을 넘어 다양한 실생활 영역에서의 적용 가능성을 확대하고 있음을 보여준다.
2. 3. 음성 인터랙션의 상호주도 전략
생성형 AI 기반 음성 검색은 복잡한 언어를 이해하고 대화 맥락을 유지하며 직관적이고 편리한 검색 경험을 제공하는 데 강점을 보인다. 이러한 기술적 특징은 단순 명령 수행에서 벗어나 사용자와 더 자연스럽고 인간적인 상호작용을 가능하게 한다. 특히, 효율적인 문제 해결과 태스크 수행을 위해 모호함과 불확실성을 다루는 것이 중요한데, 이를 위해 HCI(인간-컴퓨터 상호작용) 분야에서는 상호주도형 접근 방식이 연구되어 왔다(Allen, 1999; Horvitz, 1999).
상호주도형 대화는 사용자와 시스템이 주도권을 공유하며 문제를 효율적으로 해결하는 방식을 의미한다. Macintosh et al.(2005)의 연구에 따르면, 상호주도형 대화는 사용자에게 더 높은 만족도를 제공하며, 에이전트가 사용자와의 발화를 문제 해결 의도로 받아들이고 확인 질문과 제안을 통해 대화를 이어가는 과정에서 호감도를 증가시킨다. 이러한 전략은 사용자 참여를 적극적으로 유도하며, 더 인간적이고 매력적인 상호작용을 제공하는 데 기여한다(김정현, 2018).
호르비츠(Horvits, 1999)의 ‘혼합 주도형 유저 인터페이스 원칙’을 바탕으로 작성된 김정현(2018)의 음성 쇼핑 시나리오에서는 에이전트가 대화의 주도권을 가지고 사용자에게 먼저 질문해 의도를 파악하고 추가 정보를 제공하는 방식을 설명했다. 이 상호작용은 4가지 단계(Dialog phases)로 진행된다. 추가 정보를 얻는 단계(Acquisition phase), 문제 해결 방안을 제안하는 단계(Negotiation phase), 후속 제안을 진행하는 단계(Post-Acceptance phase), 오류를 감지하고 반응하는 단계(Metacommunication)로 이어진다.
생성형 AI의 맥락 유지와 사용자 맞춤형 응답은 상호주도형 대화 전략과 결합하여 사용자에게 효율적이고 만족스러운 경험을 제공한다. 이는 음성 인터랙션의 가능성을 확장하며, 사용자가 신뢰할 수 있고 의존할 수 있는 대화형 AI를 구현하는 데 중요한 역할을 한다. 특히, 청각 정보를 중심으로 한 음성 쇼핑 맥락에서는 에이전트가 상호주도 전략을 사용하는 것이 사용자 경험 개선과 제품 선택 만족도를 높이는 데 효과적이다. 이화영(2022)의 연구에 따르면, 사용자는 에이전트와의 대화에서 질문을 통해 필요한 정보만을 선별적으로 제공받는 방식을 선호한다. 이러한 접근은 사용자가 원하는 정보를 편리하게 탐색하고 획득할 수 있도록 지원하며, 결과적으로 더 효율적이고 만족스러운 제품 탐색 경험을 제공한다. 이처럼 생성형 AI와 상호주도형 대화 전략의 결합은 음성 쇼핑뿐만 아니라 다양한 디지털 인터랙션에서 사용자 중심 경험을 강화하는 중요한 요소로 자리 잡고 있다.
2. 4. 생성형 AI 환경의 다크패턴
생성형 AI 기반 음성 인터랙션은 사용자에게 효율적이고 직관적인 경험을 제공하지만, 그 이면에는 윤리적 문제와 사용자 경험을 저해할 수 있는 잠재적 위험도 존재한다. 특히, 다크패턴(Dark Patterns)은 AI 기술이 도입된 음성 인터랙션에서도 점차 심화되고 있으며, 심각한 윤리적 문제를 야기하다.
다크패턴은 사용자가 의도하지 않은 결정을 내리도록 유도하는 기만적 디자인 기법으로, 사용자 자율성을 침해하고 재정적 손실이나 개인정보 유출과 같은 부정적 결과를 초래할 수 있다. 이러한 패턴은 인간의 심리적 성향과 편향을 이용하여 사용자를 특정 행동으로 유도하며(Marshall Gunnell, 2024), 이는 디지털 환경 전반에 걸쳐 광범위하게 발견된다.
유럽 위원회의 보고서에 따르면, EU에서 가장 인기있는 웹사이트와 앱의 97% 이상이 다크패턴을 포함하고 있으며, 미국 연방거래위원회(FTC) 역시 유사한 결과를 발표했다(European Union, 2022). 특히, AI 기술의 대규모 도입은 다크패턴을 더욱 정교하고 개인화된 방식으로 발전시키며 시각적 인터페이스를 넘어 음성 인터랙션에서도 그 영향력을 확대하고 있다.
ChatGPT와 같은 대화형 AI의 한계는 맥락을 정확히 파악하기 어렵고, 제한된 지식에 기반하기 때문에 사용자가 원하는 정보를 충분히 제공하지 못한다. 사용자의 정서적 요구에 제대로 대응하지 못하기 때문에 부정적인 경험을 초래하기도 하며, 악의적 입력에 취약해 견고성과 보안을 강화해야 한다(Kuraku et al., 2023; Ray, 2023). 이러한 문제들은 AI 기술이 다크패턴 설계와 결합되었을 때 더욱 심각한 윤리적 우려를 초래할 수 있다. 제품 탐색 및 구매 목적의 생성형 AI 기반 음성 검색 다크패턴 디자인 유형을 도출하기에 앞서, 기존 시각적 인터페이스에서 나타나는 다크패턴 디자인과 AI 기술 도입으로 인해 진화된 다크패턴의 특징을 살펴볼 필요가 있다.
(1) 기존 시각적 인터페이스(UI)의 다크패턴
다크패턴에 대한 연구는 주로 시각적 사용자 인터페이스인 웹사이트나 모바일 앱의 맥락에서 이루어져 왔다(Owens, K. et al., 2022). 영국의 UX 디자이너 해리 브릭널(Harry Brignull)은 사용자를 속이는 사용자 경험 디자인을 ‘다크패턴 디자인’으로 정의하며, 이를 통해 윤리적 문제를 조명했다.
Mathur et al.(2021)은 다양한 문헌에서 정의된 다크패턴 용어를 분석해 키워드로 분류하였으며, OECD는 ‘Dark Commercial Patterns(2022)’를 통해 소비자 피해를 유발하는 7가지 다크패턴을 도출했다(박정국, 2023). 또한, 미국 연방거래위원회(FTC)는 ‘디지털 다크패턴 논의(2022)’에서 다크패턴의 동향과 구체적 예시를 분류하며 디지털 환경에서의 소비자 보호 강화를 강조했다(한국소비자원 시장조사국 거래조사팀, 2021; 김재영 & 허민영, 2022; 신홍주, 2023). 이러한 연구와 규제 노력은 사용자 경험의 윤리적 설계를 강화하고, 소비자 보호에 기여하고 있다.
(2) LLM의 할루시네이션과 다크패턴
생성형 AI의 급속한 발전은 새로운 윤리적 과제를 부각할 뿐만 아니라, 기존의 개인정보 보호 문제와 기만 디자인의 위험성을 심화시키고 있다. 그중에서도 민감한 정보 유출, 알고리즘 편향, 그리고 ‘할루시네이션(부정확하거나 조작된 정보 생성)’은 AI 시스템의 신뢰성을 위협하는 주요 요소로 지적되고 있다(Moliney, 2024).
Ruijie et al.(2024)은 대규모 언어 모델(LLM)의 상호작용에서 사용자 행동에 영향을 미치는 다크패턴 감지 모델(DarkBench)을 통해 OpenAI, Anthropic, Meta, Mistral, Google 등 주요 기업의 모델을 평가했다. 그 결과, 일부 LLM이 특정 브랜드에 유리한 정보를 편향적으로 제공하거나 의인화된 상호작용을 통해 사용자의 판단을 흐릴 수 있음이 확인되었다. 이를 통해 생성형 AI의 고도화된 의인화 및 개인화 기능으로 사용자의 심리적 취약점을 겨냥할 수 있으며, 이는 무의식적 기만의 형태로 작동할 수 있음을 알 수 있다. 실제로 AI 비서가 개인 정보를 바탕으로 계획에 없던 구매 결정을 유도한 사례를 통해(Guerrini, 2024) 사용자의 취약점을 악용해 설득을 가장하는 한층 정교한 기만적 전략이 생성형 AI 환경에서 나타날 가능성을 확인할 수 있었다.
반면, 할루시네이션을 다크패턴과 동일시하는 데는 무리가 있다는 반론도 존재한다. 다크패턴은 설계자가 사용자의 의사결정을 특정 방향으로 유도하기 위한 의도적 전략인 반면, 할루시네이션은 LLM이 그럴듯하지만 잘못된 응답을 생성해내는 비의도적 결과이기 때문이다(Dynamo AI, 2025). LLM은 인간이 학습시킨 데이터 내에서 작동하며, 정확한 판단 없이 응답을 생성해내기 때문에 이는 기술적 한계일 뿐이라는 것이다. 다크패턴처럼 사용자 의사결정을 유도하려는 전략적 목적이 내포된 것이 아니라 AI의 구조적 특성에 가까울 수 있다는 것이다.
본 연구는 이러한 논의 속에서, 생성형 AI가 의도적으로 다크패턴을 생성하지 않더라도, 결과적으로 생성한 응답 일부가 사용자에게 기만적 경험을 제공할 수 있다는 점에 주목하였다. 특히 LLM 기반의 결과물이 사용자의 선택에 영향을 미치고 있다면, 할루시네이션 그 자체는 다크패턴으로 분류되지 않더라도 다크패턴과 유사한 기만적 경험을 유발할 수 있다고 보았다.
(3) 전자상거래 음성 인터페이스의 개인화와 다크패턴
음성 쇼핑 인터페이스에서 나타나는 다크패턴은 개인화된 제품 추천과 같은 기능을 통해 사용자 경험을 기만적으로 설계할 수 있다(Sarkar, 2023). 개인화 조건에서는 에이전트에 대한 신뢰도가 높아지고, 이는 사용자의 정보 수용 및 구매 의도에 결정적인 영향을 미친다(구본승 외, 2016). 개인화를 통한 신뢰 구축은 사용자 경험을 향상시키는 긍정적 효과를 가져올 수 있지만, 동시에 이를 악용한 AI 다크패턴은 고도화된 기만적 전략으로 작용할 수 있다. 따라서 음성 인터페이스 설계에서는 개인화된 상호작용이 의사결정을 조작하지 않도록 윤리적 기준이 반드시 고려되어야 한다.
(4) AI 의인화와 다크패턴
최근 AI 상호작용에서는 단순한 정보 제공을 넘어 정서적 피드백의 중요성이 강조되고 있다(임규연 외, 2023). 정서적 지원을 위한 피드백 설계는 사용자 이름을 직접 호명하거나(Swan & Shih, 2005), 구어체 문장을 활용해 실재감을 높이는 방식 등을 포함한다(Mayer, 2017). 특히, 음성은 인간에게 가장 친숙한 의사소통 수단 중 하나로, AI와의 음성 대화에서 의인화된 역할 수행 기능은 사용자로 하여금 실제 사람과의 상호작용처럼 느끼게 만든다(Gansser & Reich, 2021).
ChatGPT와 같은 대화형 AI 서비스는 방대한 데이터를 학습한 자연스러운 의인화 특성을 통해 사용자와의 대화를 보다 인간적으로 보이게 하며, 이를 통해 사용자 의사결정에 영향을 미칠 가능성이 있다(Kalla et al., 2023). 이러한 특성과 기술적 능력은 음성 인터랙션을 더욱 효과적인 도구로 만들어, AI가 사용자 일상에 깊이 통합될 수 있는 잠재력을 보여준다.
AI에게 인간과 유사한 특성을 부여하는 의인화는 심리적 거리를 줄이고 신뢰를 증진하며 더 깊은 자기 공개를 촉진하여 정서적 위안을 제공하는 등 사용자 경험에 긍정적인 영향을 미친다(de Visser st al., 2016; Lee et al., 2020; Park et al., 2024; Maples st al., 2024). 정서적 연결이 필요한 맥락에서는 의인화가 사용자 경험을 개선하고 긍정적인 상호작용을 통해 만족도를 높이는 데 기여한다고 볼 수 있다.
그러나 AI 의인화가 항상 긍정적인 결과를 보장하는 것은 아니다. 의인화는 사용자의 신뢰와 참여를 유도하는 동시에, 윤리적 위험을 수반할 수 있다. 사용자로 하여금 AI가 실제로 감정적 능력이나 도덕적 판단을 가지고 있다고 믿게 하여 과도한 충성도를 유발한다. 사용자 행동을 장기적으로 조작해 정신건강학적으로 AI에게 의존하게 만드는 결과를 초래할 수도 있으며, AI 답변의 과도한 일반화를 신뢰할 수도 있다(Deshpande et al., 2023).
이러한 위험 요소는 조작적 행동과 일치하며, 의인화가 다크패턴으로 분류될 수 있음을 정당화한다(Gade et al., 2024). 특히, 사용자의 정서적 취약점을 악용하거나, 잘못된 정보를 신뢰하도록 만드는 경우, 이는 윤리적으로 문제가 심각하다. 따라서 의인화된 AI의 설계에서는 사용자의 기대와 신뢰를 책임감 있게 관리해야 하며, 의도치 않은 기만적 설계 요소가 포함되지 않도록 주의해야 한다.
2. 5. 음성 인터페이스 다크패턴 속성에 따른 유형 정의
Owens, K. et al.(2022)은 음성 어시스턴트와 같은 기술이 일상적으로 사용됨에 따라 음성 인터랙션에서 발생할 수 있는 기만적 디자인 속성을 유형화하였다. 연구에 따르면, 음성 인터페이스는 기존 시각적인 인터페이스와 달리, 사용자에게 제한된 정보만 제공하며, 볼륨이나 톤 같은 속성을 통해 사용자를 조작할 가능성이 있다. 특히, 음성 인터페이스는 사용자가 정보를 선택적으로 확인하거나 비교할 기회가 적기 때문에 기만적 디자인이 더 은밀하고 강력한 방식으로 작용할 수 있다. 이러한 문제는 EU와 미국에서 다크패턴 규제 논의로 이어지고 있으며, 음성 인터페이스에서 정보를 명시적으로 제공할 것을 권장하고 있다.
이 두 속성은 특히 생성형 AI 기반 음성 상호작용의 기술적, 정서적 특성과 밀접한 관련이 있기 때문에 선정하였다. 속성 5는 음성 상호작용의 선형적 특성으로 인한 문제점으로 정보를 순차적으로 제공하기 때문에 사용자가 특정 정보를 유동적으로 확인하기 어려워 기존 다크패턴 디자인의 ‘긴급성(Urgency)’이나 ‘희소성(Scarcity)’ 요소를 더욱 강화한다. 또한 충분한 비교 없이 결정을 내리도록 유도할 가능성이 있다.
속성 6은 음성 상호작용의 의인화 특성으로 인해 사용자 행동을 조작하거나 기만하여 편향된 정보를 신뢰하도록 만드는 ‘소셜프루프(Social Proof)’나 ‘컨펌쉐이밍(Confirmshaming)’과 같은 다크패턴과 직접 연결될 수 있는 윤리적 위험성을 내포한다.
반면, 속성 1~4는 음성 인식의 기술적 오류 등 물리적 조건과 관련된 일반적인 한계로 분류되며, 다크패턴의 설계 및 조작적 특성과는 직접적인 연결이 어려워 본 연구의 분석 범위에서 제외하였다.
따라서 본 연구는 속성 5와 6을 중심으로 음성 검색 맥락에서 구체화할 수 있는 다크패턴 유형을 ‘소셜프루프(Social Proof)’, ‘컨펌쉐이밍(Confirmshaming)’, ‘희소성(Scarcity)’의 세 가지로 정의하였다.
3. 연구 방법
제2장에서는 생성형 AI 기반 음성 검색에 나타나는 다크패턴 디자인에 대한 이론적 고찰을 진행하였다. 이를 바탕으로 제3장에서는 연구 방향과 문제, 가설을 설정하고 조사 대상 및 방법을 제시하였다. 본 연구는 다크패턴 디자인의 세 가지 주요 속성을 구체화하고, 이를 기반으로 사용자 경험에 미치는 영향을 실증적으로 검증하였다. 도출된 연구 방향과 문제, 가설은 다음과 같다.
3. 1. 연구 방향
본 연구는 생성형 AI 기반 음성 검색 환경에서 나타나는 문제를 중심으로, 음성 인터페이스 다크패턴 속성 5와 6에 따라 강화될 수 있는 유형을 ‘소셜프루프’, ‘컨펌쉐이밍’, ‘희소성’ 세 가지로 구체화하였다.
첫째, ‘소셜프루프(Social Proof)’ 유형은 사용자가 음성으로 제품을 검색할 때 출처가 불분명한 개인화된 활동 내역 및 사회적 증거를 조작하여 제공함으로써 부정적인 경험을 초래할 수 있다. 이는 사용자가 다른 이들의 행동을 따르도록 유도하여 부적절한 결정을 내리게 할 수 있다는 문제점이 나타난다.
둘째, ‘컨펌쉐이밍(Confirmshaming)’ 유형은 사용자의 감정을 자극하는 과도한 의인화 특성을 바탕으로 압력을 가해 사용자를 속이고 특정 선택을 유도할 수 있다. 사용자가 다른 선택을 하면 부정적 감정을 느끼게 하여 특정 행동을 강제할 가능성이 있다.
셋째, ‘희소성(Scarcity)’ 유형은 정확하지 않은 제품 재고 정보를 제공해 사용자의 구매 압력을 높이고, 이를 통해 구매를 유도할 수 있다. 이런 방식은 제품이 곧 동날 것처럼 잘못된 정보를 제공해 사용자를 서두르게 만들어 긴급하게 결정을 내리도록 유도할 수 있다.
생성형 AI 기반 음성 검색 인터랙션에서 이 세 가지 다크패턴 디자인 유형은 사용자 경험을 크게 저해할 가능성을 확인하였다. 이에 따라 본 연구는 다크패턴 디자인 유형에 대한 사용자 실험을 설계하여 윤리적 설계 방향성을 모색하였다.
3. 2. 연구 문제 및 가설
본 연구의 목적은 생성형 AI 기반 음성 검색에서 나타나는 다크패턴 디자인 유형에 따라 사용자 경험에 미치는 영향을 검증하는 것이다. 문헌 연구와 사례 조사를 기반으로 독립 변인을 생성형 AI 기반 음성 검색 다크패턴 유형(소셜프루프, 컨펌쉐이밍, 희소성)으로, 종속 변인을 사용자 경험(기만감, 유용성, 만족도)으로 규정하였다(3.5. 참고). 연구 문제는 ‘생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따라 사용자 경험에 차이가 나타나는가?’로 정의하고, 심층적으로 분석하여 음성 검색 서비스의 디자인 개선 방향을 제시하고자 한다.
[연구 문제] 생성형 AI 기반 음성 검색 다크패턴 유형(소셜프루프, 컨펌쉐이밍, 희소성)에 따라 사용자 경험(기만감, 유용성, 만족도)에 차이가 나타나는가?
[H1] 생성형 AI 기반 음성 검색 다크패턴 유형에 따라 기만감에 차이가 나타날 것이다.
[H2] 생성형 AI 기반 음성 검색 다크패턴 유형에 따라 유용성에 차이가 나타날 것이다.
[H3] 성형 AI 기반 음성 검색 다크패턴 유형에 따라 만족도에 차이가 나타날 것이다.
3. 3. 실험 설계
본 연구는 생성형 AI 기반 음성 검색의 다크패턴 디자인 유형에 따른 사용자 경험의 차이를 파악하기 위해 각 유형별 실험물을 제작하였다. 이를 기반으로 검색 경험을 평가하는 질문지를 개발하였으며, 실험물을 활용한 양적 실험 방법으로 연구를 진행하였다. 실험은 서울에 위치한 대학교 내 연구실에서 대면 설문조사로 진행되었으며, 연구 결과를 더욱 깊이 있게 이해하고 추가적인 디자인 제안 방향성을 모색하기 위한 인터뷰를 실시하였다.
(1) 실험 상황 설정
제2장에서 도출된 다크패턴 디자인 유형인 a)소셜프루프, b)컨펌쉐이밍, c)희소성을 활용하여 사용자가 멀티태스킹 상황에서 음성으로 제품 정보를 탐색하는 시나리오를 구성하였다. 이후 시나리오를 영상으로 제작하여 실험 참가자에게 제공하였고, 참가자들은 세 가지 유형의 영상을 무작위순으로 시청한 후 각 다크패턴 디자인 유형에 따른 설문을 진행하였다. 모든 실험 과정은 ‘NOA’라는 가상의 생성형 AI 기반 검색 서비스를 중심으로 진행되었으며, 이 서비스는 스마트 기기에 내장된 것으로 설정하였다.
(2) 제품군 선정
본 연구에서는 노트북을 검색하는 과정을 시나리오로 선정하였는데, 이는 노트북이 객관적인 성능 지표를 바탕으로 상세한 비교 평가가 가능하며, 사용자의 요구사항에 따라 최적의 제품을 탐색하고 추천할 수 있기 때문이다.
고관여 제품은 구매 결정에 많은 시간과 노력이 필요한 제품군으로 사용자는 가격이 높고 고려할 사항이 많은 경우 충분한 정보 탐색 없이 에이전트의 추천을 따르기 주저하는 경향이 있다(이화영, 2022). 생성형 AI 기반 검색은 고도화된 제품 탐색 및 비교가 가능하다는 점에서, 전통적인 검색 엔진이나 음성 에이전트와 달리 고관여 제품을 검색 대상으로 선정하기에 적합하다고 판단하였다. 특히, 고관여 제품을 검색 대상으로 선정함으로써, 멀티태스킹 상황에서 생성형 AI 기반 음성 시스템을 통해 제공되는 정보의 유용성을 검증할 수 있다. 복잡한 의사 결정이 필요한 고관여 제품의 탐색 상황에서는 정보처리의 어려움(Shiv & Fedorikhin, 1999; Basu & Savani, 2019; Munz & Morwitz, 2019)을 최소화하기 위해 생성형 AI 기반 음성 검색을 적용한 제품 탐색이 유효하다. 따라서 노트북은 정보 탐색과 비교가 필수적인 고관여 제품으로서, 본 연구의 적절한 제품군으로 판단되었다.
본 연구는 고관여 제품 탐색에 있어 생성형 AI 기반 음성 검색의 유용성을 검토하고, 이와 관련된 사용자 경험을 분석함으로써 기존의 음성 쇼핑 연구와 차별화된다. 이를 통해 사용자들이 다양한 정보를 쉽게 탐색하고 비교할 수 있도록 지원하는 생성형 AI 기술의 발전이, 향후 고관여 제품 구매 과정에서 중요한 역할을 할 수 있음을 시사한다.
3. 4. 실험물
실험물의 전반적인 음성 인터페이스 디자인은 본 연구에서 사례 분석 대상으로 선정한 ChatGPT의 대화 흐름을 참고하여 새롭게 제작하였다. 이는 사용자가 평소 생성형 AI를 사용하는 인공지능 서비스의 입력 및 발화 방식과 익숙하게 느끼도록 하여 실험에 영향을 미치지 않도록 통제하기 위함이다. 그밖에, 제작된 실험물의 심벌 로고, 알림음 등 전체적인 톤 앤 매너는 ChatGPT에서 사용되는 것을 적용해, 새롭게 떠오르는 생성형 AI 기반 검색 서비스를 익숙하게 경험할 수 있도록 하였다. 또한, 가상의 서비스인 ‘NOA’의 음성은 일반적인 인공지능 목소리에 가까운 여성 성우의 목소리를 사용하였으며, 제작된 실험물의 음성 검색 인터페이스 시나리오는 다음과 같다.
(a) 소셜프루프, Social Proof
먼저, ‘소셜프루프’에 대한 시나리오는 출처가 불분명한 개인화된 활동 내역과 사회적 증거를 조작하여 특정 선택을 유도하는 것을 목표로 한다. 예를 들어, “많은 리뷰어들로부터 호평을 받았습니다.” 또는 “여러 디자이너 사이에서 가장 인기가 많으며 창의적인 작업에 적합하다는 평가를 받고 있습니다.”와 같이 출처가 불분명한 다른 이들의 행동을 따르도록 유도하여 사용자의 의사결정을 조작하는 방식을 포함한다.
(b) 컨펌쉐이밍, Confirmshaming
‘컨펌쉐이밍’ 시나리오는 사용자 심리를 자극하는 의인화 특성을 활용하여 특정 선택을 유도하는 것을 목표로 한다. 예를 들어, “저렴한 옵션을 선택해 후회하는 일이 없을 거예요.” 또는 “진정한 디자이너에게는 현명한 선택이 될 것입니다.”와 같이 사용자가 서비스를 거절하게 되면 부정적 감정(수치심 등)을 느끼도록 하여 사용자의 의사결정을 조작하는 방식을 포함한다.
(c) 희소성, Scarcity
‘희소성’ 시나리오는 정확하지 않은 제품 재고 정보를 제공하여 사용자에게 구매 압력을 높이는 것을 목표로 한다. 예를 들어, “최저가 사이트에서 특별히 오늘만 할인을 진행하고 있어요.” 또는 “기존에 없던 세일 중으로 재고가 빠르게 소진될 수 있으니 놓치기 전에 서두르세요.”와 같은 시간 제한적인 응답을 통해 사용자가 긴급하게 결정을 내리도록 유도하는 방식을 포함한다.
3. 5. 설문지 구성
본 연구는 생성형 AI 기반 음성 검색에서 다크패턴 디자인이 사용자 경험에 미치는 영향을 평가하기 위해 ‘기만감’, ‘유용성’, ‘만족도’라는 세 가지 종속변인을 설정하였다.
안무정 & 강태임(2023)은 AI 기술의 도입이 자동화 및 지능화를 촉진하고, 인간과 AI 간의 상호작용을 강화하는 방식을 조명하였다. AI는 강화 학습(Reinforcement Learning)으로 인간의 상호작용에서 발생하는 데이터를 활용하여 지속적으로 학습하고, 이를 통해 사용자가 의도하는 메시지에 적절히 대응할 수 있다. 이를 바탕으로, AI를 활용한 제품과 서비스의 사용자 경험 디자인 요소에 대한 재평가의 필요성이 대두되었다. 선행 연구에서는 피터 모빌 허니콤 모형, ISO 9241-11, 제이콥 닐슨의 사용자 경험 디자인 원칙을 포함한 20개의 선행 연구를 분석하여 사용되었던 평가 요소들을 검토하였고, 이 분석을 통해 AI에 특화된 새로운 사용자 경험 디자인 요소를 포함한 챗GPT의 사용자 경험 디자인 요소 16개를 도출하였다.
안무정 & 강태임(2023)은 챗GPT와 같은 생성형 AI 대화형 챗봇이 기존 선언적 챗봇에 비해 어떻게 높은 수준의 사용자 경험을 제공하는지를 탐구하였다. 이에 따라, 본 연구에서는 챗GPT 사용자 경험 디자인 평가 지표를 기반으로, 생성형 AI 기반 음성 검색 서비스의 사용자 경험을 적절히 측정할 수 있는 항목을 선정하였다.
선행 연구를 토대로, 각 종속변인의 범주를 연구에 적합하도록 한정 또는 수정하였다. 생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따라 실제 서비스 사용 중에 기만감을 느끼는지, 제품을 탐색하는 데 있어 유용함을 느끼는지, 서비스 전반적으로 만족감을 느끼는지에 대해 확인하기 위해 ‘기만감’, ‘유용성’, ‘만족도’ 3가지 변인에 대한 사용자 경험을 수집한다. 또한 이러한 결과가 다크패턴 디자인 유형에 따라 다르게 나타나는지 알아보기 위해 설문을 구성하여 5점 리커트 척도(1점: 전혀 그렇지 않다 ~ 5점: 매우 그렇다)로 측정하였다.
(1) 기만감
기만감은 Maier(2019), 강하영(2020)이 사용자가 모바일 쇼핑 시 다크패턴 디자인을 접했을 때 자신의 과업이나 목적, 의지가 의도적으로 방해되고 자신을 속여 넘기려는 듯한 느낌을 받은 경험이라 정의한 바 있다. 신민아(2021)는 다크패턴 디자인에서 사용자가 느끼는 기만감과 얼마나 악의적인 목적으로 조작되었다고 느끼는지에 대한 감정을 연구한 바 있다. 불쾌감은 Maier(2019)가 질적연구를 통해 사용자들이 다크패턴 디자인을 경험했을 때 일반적으로 짜증, 분노, 좌절, 압박, 걱정 등 불쾌한 감정을 느끼는 것으로 정의한 바 있다. Bhoot at al.(2020)은 다크패턴 디자인을 경험할 때 좌절감의 감정 수준을 측정하여 다크패턴 디자인에 대해 얼마나 불쾌한 감정을 느끼는지 조사하였다. 강하영(2020)은 사용자 기만 디자인(다크패턴)에서의 감정적 경험을 사용자가 주어진 과업을 수행해 최종 목적 달성을 막는 기만적인 모든 디자인 요소를 경험한 사용자의 감정적 반응으로 정의하였다. 이지혜(2023)는 기만감을 사용자가 모바일 쇼핑 시 다크패턴 디자인을 접했을 때 느끼는 짜증이나 불편함, 언짢은 부정적인 감정 경험으로 정의하였다. 또한 사용자가 모바일 다크패턴을 접했을 때 이 디자인이 자신의 과업 달성을 얼마나 의도적으로 방해한다고 느끼는지에 대한 경험으로 정의하였다.
이러한 선행 연구를 바탕으로 본 연구에서는 기만감을 제품 탐색 목적의 음성 검색 환경에서, 다크패턴 유형이 사용자의 목적 달성을 의도적으로 방해한다고 느끼고 이에 따라 부정적인 감정을 느끼는 경험으로 정의하였다.
(2) 유용성
유용성에 대해 최헌(2009)은 모바일 쇼핑을 통해 자신이 하고자 하는 일의 성과를 강화할 것이라고 믿는 정도로 정의하였다. 이지혜(2023)는 모바일 쇼핑 다크패턴 디자인이 사용자의 과업을 신속하고 편리하게 수행하도록 돕는지로 정의하였다. 조수현 & 남상조(2022)는 사용자가 특정 시스템을 활용하여 개인이 직무수행을 향상할 것으로 생각하는 정도로 조사하였다. Featherman & Pavlou(2003)는 지각된 유용성을, 정보기술을 활용할 때 작업이 효율적으로 향상될 것이라는 인식으로 정의한 바 있다. 이채은(2023)은 챗GPT를 활용한 후 정보 내용의 특성에 대해 유용함을 느끼는 정도로 정의하였다.
이러한 선행 연구를 바탕으로 본 연구에서는 다크패턴 유형이 사용자가 원하는 정보를 얻는 것을 효율적이고 용이하게 하는지, 사용자의 제품 탐색을 편리하게 수행할 수 있도록 돕는지로 정의하였다.
(3) 만족도
만족도에 대해 안무정 & 강태임(2023)은 챗GPT에게 질문하는 과정과 생성된 결과에 대해 만족하는 정도로 정의하였다. Flavián, Guinaláu & Gurrea(2006)는 음성 에이전트에 대한 전반적인 경험과 인터랙션 방식에 만족하는 정도, 에이전트가 제공하는 서비스에 만족하는 정도로 정의하였다.
이러한 선행 연구를 바탕으로 본 연구에서는 생성형 AI 기반 음성 검색 서비스에서 제공하는 인터랙션 방식과 전반적인 서비스 제공에 만족하는 정도로 정의하였다.
위와 같이 설정한 종속변인을 바탕으로 이를 측정할 수 있는 설문 문항을 구성하였으며, 프로토타입 영상을 시청하는 과제 수행 후, 구글 설문지를 통해 참여자의 경험을 수집하는 실험으로 이루어졌다. 설문 문항은 객관식 형태로 구성되었으며, 응답은 5점 리커트 척도로 수집하여 정량적 데이터를 확보하고 이를 통계적 방법으로 분석하였다. 정량적 데이터 수집으로는 다크패턴 디자인이 사용자에게 미치는 영향의 구체적인 요인이나 환경, 맥락을 상세하게 파악하기 어렵다고 판단되어, 이를 보완하기 위해 정성 조사 데이터를 추가로 수집하였다. 이를 위해 반구조화된 인터뷰를 진행하였으며, 인터뷰에서는 참여자들에게 다크패턴 디자인 유형별 경험과 인식에 대해 질의하였다.
정량적 및 정성적 조사를 병행함으로써 사용자 경험을 더욱 심층적으로 분석할 수 있는 융합 연구를 수행하였다. 상세한 질문 문항은 [표 13]에서 확인할 수 있다.
4. 실험 결과
본 연구는 생성형 AI 기반 음성 검색 다크패턴 디자인 유형(독립변인)이 사용자 경험(종속변인)에 미치는 영향을 분석하기 위해 정량적 조사와 인터뷰를 통한 정성 데이터의 통계적 관계를 분석하였다. 실험에는 생성형 AI 기술과 서비스를 접해본 사용자 51명을 대상으로 실험을 진행하였다. 연구는 정량적 조사와 인터뷰를 통해 데이터를 수집하고, SPSS Ver. 26.0 프로그램을 사용하여 통계적 관계를 분석하였다. 또한, 모든 통계분석의 유의 수준은 p<.05 기준으로 하였다. 실험 대상자 중 여성 비율이 29명(56.9%)으로 높았으며, 주로 20대, 디자인 전공으로 이루어졌다. 생성형 AI 기반 검색을 사용해 본 경험이 있는 사용자가 88.2%를 차지하였고, 음성 검색 사용 경험이 있는 사용자는 41.2%였다. 측정 변수의 신뢰도는 크론바흐 알파(Cronbach’s α) 계수를 사용하여 평가하였고, 종속 변수를 측정하는 모든 항목에서 0.6 이상의 신뢰성을 확인하였다.
4. 1. 가설 검증 결과
연구 문제 1인 “생성형 AI 기반의 음성 검색 다크패턴 디자인 유형(소셜프루프, 컨펌쉐이밍, 희소성)에 따라 사용자 경험(기만감, 유용성, 만족도)에 차이가 있을 것인가?”를 검증하기 위해 일원분산분석(One way ANOVA)을 실시하였으며, 사후검정의 경우 Scheffe 분석을 실시하였다.
(1) [H1] 생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따라 기만감에 차이가 나타날 것이다. (채택)
생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따른 기만감의 차이는 F=8.969, p<.001로 통계적으로 유의한 차이가 있음을 확인하였다. 컨펌쉐이밍(M=3.33, SD=1.09) 유형의 평균값이 가장 높은 것으로 나타났고, 다음은 희소성(M=2.76, SD=1.07), 소셜프루프(M=2.45, SD=1.03)순으로 나타났다. 또한 p값이 0.05보다 낮아 통계적으로 유의한 차이(F=8.969, p<.001)를 보였다. Scheffe 분석에 따른 기만감 그래프 결과에 따르면 a, c유형이 b유형에 비해 낮은 점수를 보였다. 즉, b(M=3.33)유형은 a(M=2.45)유형과 c(M=2.76)유형보다 통계적으로 유의한 수준에서 기만감을 더 높게 인식한다고 볼 수 있다. 그러나 a유형과 c유형은 통계적으로 유의하지 않은 것으로 나타나 차이가 없다고 볼 수 있다.

Differences in Perceived Deception According to Dark Pattern Design Types in Generative AI-Based Voice Search(n = 51)
(2) [H2] 생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따라 유용성에 차이가 나타날 것이다. (채택)
생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따른 유용성의 차이는 F=4.186, p<.05로 통계적으로 유의한 차이가 있음을 확인하였다. 소셜프루프(M=3.81, SD=0.97) 유형의 평균값이 가장 높은 것으로 나타났고, 다음은 희소성(M=3.55, SD=1.03), 컨펌쉐이밍(M=3.25, SD=0.93)순으로 나타났다. 또한 p값이 0.05보다 낮아 통계적으로 유의한 차이(F=4.186, p<.05)를 보였다. Scheffe 분석에 따른 유용성 그래프 결과에 따르면 b, c유형은 a유형에 비해 낮은 점수를 보였다. 즉, a(M=3.81)유형은 b(M=3.25)유형보다 통계적으로 유의한 수준에서 유용성을 더 높게 인식한다고 볼 수 있다. 그러나 a유형과 c유형, b유형과 c유형은 통계적으로 유의하지 않은 것으로 나타나 차이가 없다고 볼 수 있다.

Differences in Perceived Usefulness According to Dark Pattern Design Types in Generative AI-Based Voice Search(n = 51)
(3) [H3] 생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따라 만족도에 차이가 나타날 것이다. (기각)
생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따른 만족도의 차이는 F=1.612, p>.05로 통계적으로 유의한 차이가 없음을 확인하였다. 소셜프루프(M=3.32, SD=0.96) 유형의 평균값이 가장 높은 것으로 나타났고, 다음은 희소성(M=3.17, SD=0.98), 컨펌쉐이밍(M=2.99, SD=0.87)순으로 나타났다. 그러나 통계적으로 유의하지(F=1.612, p>.05) 않은 것으로 나타났다. 따라서 가설 3 ‘생성형 AI 기반의 대화형 음성 검색 다크패턴 디자인 유형에 따라 만족도에 차이가 나타날 것이다.’는 기각되었다.
4. 2. 사용자 인터뷰 분석
대면으로 진행된 본조사에서는 설문 이후 반구조식 인터뷰를 진행해, 수집된 자료를 개방 코딩 방식으로 분석하였다. 본 연구는 생성형 AI 기반 음성 검색 다크패턴 디자인 유형별로 나타나는 사용자 경험 차이를 확인하고 사용자 중심 인터페이스 디자인 방향성을 제안하는 것에 목적이 있다. 때문에 수집된 자료에서 선별된 문장들 속에서 비슷한 항목을 분류하고 범주화하여 분석하는 것에 중점을 두고 진행하였다.
(1) 소셜프루프(Social Proof) 유형에 대한 응답
소셜프루프 유형에 대해 참여자들은 제품 성능에 대한 다른 사용자 선호도를 언급해 주어 자신이 스스로 판단할 수 있게 도움을 주는 느낌이라 신뢰가 간다고 언급했다. 또한 사용자 선호도 같은 데이터 기반의 응답은 질문 맥락에 맞는 업무 태스크를 완료해 주는 것으로 생성형 AI의 역할을 충실히 했으며 유용하다 응답했다(P2, 6, 9, 31, 38, 42).
하지만 AI가 트렌드나 사용자 선호도를 언급할 때, 선택지에 가둬 특정 선택을 유도하는 것으로 느끼기도 하였다. 어떤 기준에서 트렌디한 제품인지, 어떤 데이터를 기반으로 도출된 선호도인지 명확한 설명을 해주지 않았으며, 자신의 구체적인 니즈나 상황에 대한 고려 없이 단순히 인기 제품으로 유도하는 답변이라 느꼈다(P5, 7, 25, 28, 29, 37, 48).
(2) 컨펌쉐이밍(Confirmshaming) 유형에 대한 응답
컨펌쉐이밍 유형에 대해 참여자들은 다양한 옵션을 제공하지 않으면서 특정 제품을 감정적인 표현을 사용하며 추천할 때 강압적으로 느꼈다. 음성 검색은 대화로 상호작용하기 때문에 언어 선택이 경험에 많은 영향을 주는 것으로 나타났다. 이 같은 방식은 AI가 판단한 것을 자신에게 강요하는 느낌이 들어 불쾌했고(P3, 8, 9, 13, 16, 20), AI가 자신을 설득하기 위해 심리를 건드리는 듯한 일종의 가스라이팅 표현으로 느껴져 객관적인 선택이 방해받는 느낌이 들었다고 언급했다(P31, 35, 43, 49, 50).
또한 AI의 답변에 객관적인 근거가 포함되지 않았을 경우, 폭넓은 정보를 일방적이고 제한적으로 말해버린다고 느껴져 신뢰가 가지 않는다고 언급했다. 사실 확인이 되지 않은 정보가 제공될 때 전반적인 신뢰가 하락되며(P10, 15, 21, 26, 27, 28, 29), 생성형 AI 설계에서 사용자 요구와 기대에 부응하는 객관적 정보 제공이 필요한 것으로 나타났다.
(3) 희소성(Scarcity) 유형에 대한 응답
희소성 유형에 대해 참여자들은 질문 맥락에 부합하는 추가 정보가 제안될 때, 대화가 되는 느낌이라고 언급했다. 따로 요청하지 않았음에도 AI로부터 할인 정보를 제공받았을 때, 해당 제품을 구매하도록 자연스럽게 유도한다는 것을 느꼈지만 AI가 자신을 이해하고 결정 과정을 지원하고 있다고 인식했다(P3, 4, 6, 8, 10, 21, 25, 49).
하지만 AI가 특정 제품의 추가 정보를 추천하고 강조할 때, 구매를 유도하는 느낌이 들며, 시간 제약이 더해져 마치 특정 브랜드 마트 방문이나 홈쇼핑 광고처럼 느끼기도 하였다(P1, 2, 7). 생성형 AI가 앞으로 기업의 마케팅 도구로 활용되어 사용자들의 소비 습관을 결정지을 수 있겠다는 우려도 나타났다(P9, 12, 14, 31, 36, 50).
(4) 의인화 디자인에 대한 응답
참여자들은 AI가 검색 결과에 있어 적극적으로 추천하는 자세는 긍정적으로 평가하고 어투나 태도에 따라 호감이 상승되기는 하지만, 이것이 정보의 신뢰도를 높여 주지는 않는다고 응답했다(P22, 28, 29).
다만, 인간적인 말과 태도뿐 아니라, 맞춤화된 유용한 정보를 제공하고 명확한 근거를 함께 제시해 준다면, 신뢰도와 설득력이 올라갈 것이라고 응답하였다(P22, 25, 26, 27, 29, 35). 감정적으로 상호작용을 하는 것은 정보 검색의 주된 목적이 아니기에, 생성형 AI가 보다 명확한 근거 기반의 비교 가능한 정보 제공의 역할을 잘 수행하는 것의 필요성을 시사한다.
(5) 다크패턴 디자인에 대한 응답
참여자들은 과도한 다크패턴 디자인이 적용될 경우 서비스를 포기하게 되거나 불신이 커진다고 응답했다(P31, 49). 특히, 생성형 AI를 사용하는 이유 중 하나가 신뢰성 있는 정보를 제공해 주기 때문인데, 편향된 데이터를 학습해 제공한다면 서비스를 사용하지 않을 것이라고 응답했다(P3, 6, 7, 15, 19, 20).
반면에, 합법적인 선에서 기업 전략이자 비즈니스 기법으로 사용해야 한다면, 사용자가 광고성 정보임을 명확히 인지할 수 있는 정도로 적용해야 한다는 의견이 있었다(P41). 또한 사용자가 상황을 구별해 낼 수 있는 자세를 가지는 것과 통제할 수 있는 환경을 제공하는 것이 중요하다는 의견도 있었다(P25, 33).
5. 결론
5. 1. 연구 요약
선행 연구 및 문헌을 바탕으로 생성형 AI 기반 음성 검색 경험에 영향을 미칠 수 있는 다크패턴 디자인 유형을 소셜프루프(Social Proof), 컨펌쉐이밍(Confirmshaming), 희소성(Scarcity)으로 수렴해 사용자 경험을 측정하였다.
실험 결과, 생성형 AI 기반 음성 검색 다크패턴 디자인 유형에 따라 기만감과 유용성에서 통계적으로 유의한 차이가 확인되었다. ‘컨펌쉐이밍’ 유형은 가장 높은 기만감이 나타났다. 언어를 통해 감정적 자극과 수치심을 유발하는 컨펌쉐이밍 유형은 음성 기반 인터페이스에서 특히 부정적인 사용자 경험을 초래하였다.
‘소셜프루프’ 유형은 가장 높은 유용성과 가장 낮은 기만감을 보였다. 이는 다른 사용자의 선호도를 언급해 주어 감정적 호소가 아닌 사용자 의사결정을 지원해 준다는 인식을 주었다.
‘희소성’ 유형은 할인 정보를 먼저 제시해 적극적인 상호작용에 대해서는 유용하다는 평가를 받았으나, 긴박감을 유발하는 다크패턴으로 긍정적/부정적 반응이 공존했다.
실험 참가자들의 인터뷰를 통해 추후 연구 방향과 인사이트를 얻을 수 있었다. 생성형 AI 환경에서 다크패턴은 더 기만적인 형태로 나타날 수 있으므로 기업과 개발자의 윤리적 책임 및 자세 그리고 정보를 구별하고 활용할 줄 아는 사용자 디지털 리터러시 교육의 중요성이 강조됐다.
또한 AI 의인화 인터랙션에서의 개인 맞춤형 추천 및 적극적인 옵션 제시, 인간적인 태도는 서비스의 호감도와 설득력을 높일 순 있지만 정보의 신뢰도에 큰 영향을 미치지 않는 것으로 나타났다.
마지막으로 실험 참가자들은 여러 선택지와 핵심 정보를 사용자가 비교할 수 있는 인터페이스를 선호했으며, 후속 질문을 유도하는 상호주도형 인터페이스를 통해 효과적인 상호작용을 원했다. 더불어 사용자는 다양한 터치포인트를 기반으로 음성 정보를 제공받기 때문에, 이를 직관적으로 시각화하는 것에 대한 중요성이 나타났다. 뿐만 아니라 답변 제공 과정에서도 비언어적 피드백을 활용하여 풍부한 상호작용 기반의 사용자 중심 검색 경험을 위한 인터페이스가 제공되어야 함을 시사한다.
5. 2. 연구의 한계 및 제안
본 연구 결과에 기초하여, 생성형 AI 기반 음성 검색 인터페이스 사용 경험과 관련된 후속 연구를 위해 다음과 같은 한계를 제언한다.
첫째, 본 연구는 생성형 AI 기반 서비스의 외형을 스마트 기기에 결합한 형태로 가정했으며, 성우의 음성을 합성하여 영상물 기반의 실험을 진행하였다. 해당 실험물은 완전한 AI 시스템을 구현한 것이 아니기 때문에, 실제 서비스 환경에서의 사용자 반응과는 차이가 있을 수 있다. 또한, 사용자는 서비스에 사용되는 목소리 성별 및 특징에 따라 영향을 받으므로, AI 서비스 성격에 따라 사용자 만족도 및 경험 평가가 달라질 수 있어 향후 이러한 한계를 보완한 후속 연구가 필요하다.
둘째, 본 연구는 다양한 제품을 비교 분석할 수 있는 고관여 탐색 군 제품인 ‘노트북’을 검색 대상으로 설정했다. 그러나 검색 대상에 따라 사용자의 경험과 지각하는 기만의 정도가 달라질 수 있다. 따라서 이를 고려한 후속 연구가 필요하다.
셋째, 본 연구의 실험은 1:1 대면 조사로 진행되었으며, 51명의 표본이 수집되었다. 또한 대면 인터뷰를 통해 다양한 정성 데이터를 수집하였지만, 보다 철저한 결과를 도출하기 위해서는 더 큰 표본을 대상으로 후속 연구가 진행될 필요가 있다.
본 연구는 생성형 AI 기반 음성 인터페이스의 기만적 설계 가능성을 실험적으로 검증하고, 다크패턴 유형화를 시도했다는 점에서 의의가 있다. 본 연구를 기점으로 향후 생성형 AI 기반 음성 검색 서비스의 사용자 경험(UX) 개선에 도움이 되기를 기대한다.
Acknowledgments
This paper was written by reconstructing Yunjeong Song’s master thesis in 2024.
Notes
Copyright : This is an Open Access article distributed under the terms of the Creative Commons Attribution Non-Commercial License (http://creativecommons.org/licenses/by-nc/3.0/), which permits unrestricted educational and non-commercial use, provided the original work is properly cited.
References
-
An, M., & Kang, T. (2023). 디지털 트랜스포메이션 경영을 위한 챗GPT 사용자 경험(UX) 디자인 평가 -오픈AI 챗GPT와 마이크로소프트 빙 챗GPT 교차활용을 중심으로- [A Study on the Evaluation of ChatGPT User Experience Design for Digital Transformation Management -Cross-utilization of OpenAI ChatGPT and Microsoft Bing ChatGPT-]. JOURNAL OF THE KOREAN SOCIETY DESIGN CULTURE, 29(2), 237-247.
[https://doi.org/10.18208/ksdc.2023.29.2.237]
- Chen, Z., Shen, J., & Vaccaro, K. (2025). Hidden Darkness in LLM-Generated Designs: Exploring Dark Patterns in Ecommerce Web Components Generated by LLMs. arXiv preprint arXiv:2502.13499.
- Choi, J., Lee, Y., & Han, S. (2004). 인터넷 쇼핑몰 방문행동과 구매행동간의 관계에서 제품 유형의 조절효과 [The Relationship between Stickiness and Purchasing Behavior in Internet Shopping Mall: The Moderating Role of Product Type]. Korean Journal of Marketing, 19(2), 3-22.
-
De Visser, E., Monfort, S., Mckendrick, R., Smith, M., McKnight, P., Krueger, F., & Parasuraman, R. (2016). Almost human: Anthropomorphism increases trust resilience in cognitive agents. Journal of Experimental Psychology: Applied, 22, 331.
[https://doi.org/10.1037/xap0000092]
-
Deshpande, A., Raipurohit, T., Narasimhan, K., & Kalyan, A. (2023). Anthropomorphization of AI: Opportunities and risks. In Proceedings of the Natural Legal Language Processing Workshop 2023, pages 1-7, Singapore. Association for Computational Linguistics.
[https://doi.org/10.18653/v1/2023.nllp-1.1]
- Dynamo AI. (2024, September). LLM Hallucinations: Types, Causes, and Real-World Implications. Retrieved from https://dynamo.ai/blog/llm-hallucinations.
- European Union. (2022). Behavioural study on unfair commercial practices in the digital environment. Retrieved from https://op.europa.eu/en/publication-detail/-/publication/606365bc-d58b-11ec-a95f-01aa75ed71a1/language-en.
- Gade, P., Lermen, S., Rogers-Smith, C., & Lading, J. (2024). Badllama: cheaply removing safety fine-tuning from llama 2-chat 13b. arXiv preprint arXiv:2311.00117.
-
Gansser, O. A., & Reich, C. S. (2021). A new acceptance model for artificial intelligence with extensions to UTAUT2: An empirical study in three segments of application. Technology in Society, 65(9), Article 101535.
[https://doi.org/10.1016/j.techsoc.2021.101535]
- Grand View Research. (2023). Generative AI Market Size, Share & Trends Analysis Report. Retrieved from https://www.grandviewresearch.com/industry-analysis/generative-ai-market-report.
-
Grieve, R., Moffitt, R. L., & Padgett, C. R. (2019). Student perceptions of marker personality and intelligence: The effect of emoticons in online assignment feedback. Learning and individual differences, 69, 232-238.
[https://doi.org/10.1016/j.lindif.2018.02.008]
- Guerrini, F. (2024, November). AI-Driven Dark Patterns: How Artificial Intelligence Is Supercharging Digital Manipulation. Retrieved from https://www.forbes.com/sites/federicoguerrini/2024/11/17/ai-driven-dark-patterns-how-artificial-intelligence-is-supercharging-digital-manipulation/.
- Gunnell, M. (2024, January). Dark Pattern (UX Dark Pattern). Retrieved from https://www.techopedia.com/definition/dark-pattern-ux-dark-pattern.
- Hackney, H. (2023, May). Does AI Enhance the Risk of Dark Patterns, and How Does EU Law Regulate Them. Retrieved from https://www.architectureandgovernance.com/applications-technology/does-ai-enhance-the-risk-of-dark-patterns-and-how-does-eu-law-regulate-them/.
-
Han, J., & Lee, M. (2024). 문제중심학습과 챗GPT : 프롬프트와 문제해결력에 대한 탐색 [Problem-based Learning and ChatGPT : Explorative analysis of the relationship between chatgpt prompts and problem-solving skills]. The Journal of General Education, 26, 111-145.
[https://doi.org/10.24173/jge.2024.01.26.4]
-
Horvitz, E. (1999). Principles of mixed-initiative user interfaces. In Proceedings of the SIGCHI conference on Human Factors in Computing Systems (pp. 159-166). ACM.
[https://doi.org/10.1145/302979.303030]
- Hsiao, S. (2024, February). 바드가 제미나이가 됩니다: 제미나이 울트라 1.0과 새로운 모바일 애플리케이션을 사용해 보세요 [Bard becomes the Gemini: Try Gemini Ultra 1.0 and a new mobile application]. Retrieved from https://blog.google/intl/ko-kr/products/explore-get-answers/bard-gemini-advanced-app-kr/.
-
J. Allen. (1999). Mixed initiative interaction.$(4), 14-23.
[https://doi.org/10.1109/5254.796083]
-
Jeong, J., & Park, N. (2023). 인간-AI 커뮤니케이션 연구주제 탐색: 챗GPT와 SMCRE 모형을 중심으로 [Exploring Research Topics in Human - Artificial Intelligence Communication: Leveraging ChatGPT and the SMCRE Model]. Journal of Digital Contents Society, 24(8), 1805-1814.
[https://doi.org/10.9728/dcs.2023.24.8.1805]
- Jestor. (2023, June). Chat GPT vs. Bard AI: A Comparative Analysis of Conversational AI Models. Retrieved from https://jestor.com/blog/a-i/chat-gpt-vs-bard-ai-a-comparative-analysis-of-conversational-ai-models/.
- June, H. (2018). A study on e-WOM(electronic word of mouth) communication : Focused on construal-level and regulatory focus (Master's Thesis). Available from Kookmin University.
-
Jung, E., & Yun, J. (2023). 사용자 속성에 따른 다크패턴(Dark Patterns) 인지 및 평가 연구 [A Study on the Recognition and Evaluation of Dark Patterns according to User Attributes]. Journal of the HCI Society of Korea, 18(1), 37-49.
[https://doi.org/10.17210/jhsk.2023.03.18.1.37]
- Kalla, D., Smith, N., Samaah, F., & Kuraku, S. (2023). Study and analysis of chat GPT and its impact on different fields of study. International journal of innovative science and research technology, 8(3).
- Kim, Y. (2019). 음성 검색 최적화를 위한 기초 연구 [Voice Search : the new dimension of Search Trend. Language Facts and Perspectives]. 48(0), 471-503.
-
Kim, J., & Choi, J. (2018). 대화형 에이전트의 추천 전략이 음성 쇼핑 경험에 미치는 영향에 관한 연구 [Effect of Conversational Agent's Recommendation Strategy on Voice Shopping Experience - Focused on Initiative Strategies and Type of Goods]. Journal of Cybercommunication Academic Society, 35(4), 5-35.
[https://doi.org/10.36494/JCAS.2018.12.35.4.5]
- Kim, J., & Huh, M. (2022). 영국, 미국의 다크패턴 논의 동향과 시사점-영국 CMA, 미국 FTC 논의를 중심으로- [UK, US Dark Pattern Discussion Trends and Implications - UK CMA, US FTC Discussion Focus-]. Korean Consumer Agency.
-
Kim, J. (2018). Study on the effect of conversational agent's recommendation strategy on voice shopping experience : with a focus on type of goods and initiative strategies (Master's thesis). Available from Yonsei University.
[https://doi.org/10.36494/JCAS.2018.12.35.4.5]
- Kim, T. (2023, March). 챗GPT가 촉발한 생성형 AI 시대, 미래 모습과 대응 방안 [Generative AI Era, Future Look and Response Initiated by ChatGPT]. FUTURE HORIZON, (55), 2-9.
- Kim, T. (2023, January). ChatGPT는 혁신의 도구가 될 수 있을까? : ChatGPT 활용 사례 및 전망 [Can ChatGPT Be a Tool for Innovation?: ChatGPT Use Cases and Prospects]. THE AI REPORT 2023-1.
- Kim, K. (2020, April). 불가능을 가능으로 연결해주는 차세대 인터페이스 기술 [Next-generation interface technology that connects the impossible to the possible]. Retrieved from https://news.samsungdisplay.com/22952/.
- Koo, S., Baek, S., Kim, H., & Cho, K. (2016). 대화형 에이전트의 개인화가 사용자의 친밀감과 정보 신뢰도에 미치는 영향 [Personalization of Conversational Agent Influences Users' Intimacy and Information Reliability]. The HCI Society of Korea, 456-458.
- Korea Consumer Agency. (2021). 다크 패턴(눈속임 설계) 실태조사 [Survey of Dark Patterns (Design of Snowflake)]. Korean Consumer Agency.
-
Lee, C. (2023). 챗GPT 특성, 지각된 유용성, 지속이용의도 간의 구조관계 분석: 호텔·외식경영학 전공 대학생들을 중심으로 [Structural Relationship Analysis between ChatGPT Characteristics, Perceived Usefulness, and Continuous Use Intention: Focusing on College Students Majoring in Hotel and Food Service Management]. Korean Journal of Hospitality & Tourism, 32(5), 61-76.
[https://doi.org/10.24992/KJHT.2023.10.32.05.61]
- Lee, H. (2022). Design and evaluation of voice shopping agent for product searching, comparing, and evaluating : focused on screen displays, product type, search levels (Master's thesis). Available from Yonsei University.
-
Lee, J. (2023). A Comparative Study of User Experience in Dark Patterns Across Mobile Shopping-Focused on Emotional Response by Regulatory Focus- (Master's Thesis). Available from 홍익대학교.
[https://doi.org/10.17210/jhsk.2023.12.18.4.5]
-
Lee, Y. C., Yamashita, N., & Huang, Y. (2020). Designing a chatbot as a mediator for promoting deep self-disclosure to a real mental health professional. Proceedings of the ACM on Human-Computer Interaction, 4(CSCW1), 1-27.
[https://doi.org/10.1145/3392836]
- Lee, J. (2023, January). ChatGPT가 검색엔진과 콘텐츠 마케팅에 미칠 영향 [How ChatGPT Will Affect Search Engines and Content Marketing]. 이준원의 ENM 리포트 [Lee Junwon's ENM Report].
-
Lim, K., Cha, S., & Lee, D. (2023). 자동화된 피드백에 대한 체계적 문헌 고찰: 2013-2022년 국내 연구를 중심으로 [A Systematic Literature Review of Automated Feedback: Research from 2013 to 2022 in Korea]. Journal of Korean Association for Educational Information and Media, 29(2), 511-540.
[https://doi.org/10.15833/KAFEIAM.29.2.511]
-
Maples, B., Cerit, M., Vishwanath, A., & Pea, R. (2024). Loneliness and suicide mitigation for students using GPT3-enabled chatbots. npj mental health research, 3(1), 4.
[https://doi.org/10.1038/s44184-023-00047-6]
-
Mayer, R. E. (2017). Using multimedia for e-learning. Journal of Computer Assisted Learning, 33(5), 403-423.
[https://doi.org/10.1111/jcal.12197]
- Miyazato, T. (2023. April). How ChatGPT could change the way we interact with voice assistants. Retrieved from https://allhuman.com/insights/blog/chatgpt.
- Moliney, M. (2024, June). AI Driven Dark Patterns: What does the Future Hold? Retrieved from https://ics.ie/2024/06/28/ai-driven-dark-patterns-what-does-the-future-hold/.
-
Owens, K., Gunawan, J., Choffnes, D., Emami-Naeini, P., Kohno, T., & Roesner, F. (2022, September). Exploring deceptive design patterns in voice interfaces. In Proceedings of the 2022 European Symposium on Usable Security (pp. 64-78).
[https://doi.org/10.1145/3549015.3554213]
- Park, H., Lee, Y., & Shin, E. (2023). 챗GPT의 서비스 품질과 정보 품질이 패션 제품의 구매의도와 구전의도에 미치는 영향 [Effects of the Service Quality and Information Quality of ChatGPT on Purchase Intention and Word of Mouth Intention for Fashion Products]. JOURNAL OF THE KOREAN SOCIETY OF CLOTHING AND TEXTILES, 47(6), 1038-1056.
-
Park, G., Chung, J., & Lee, S. (2024). Human vs. machine-like representation in chatbot mental health counseling: the serial mediation of psychological distance and trust on compliance intention. Current Psychology, 43(5), 4352-4363.
[https://doi.org/10.1007/s12144-023-04653-7]
- Park, C. (2024, December). 'o1' 여전히 사용자 고의로 속여...3개월 전보다는 크게 줄어 ['o1' still deceiving users intentionally... significantly less than 3 months ago]. Retrieved from https://www.aitimes.com/news/articleView.html?idxno=166024.
- Park, C. (2024, November). 퍼플렉시티, 미국 유료 사용자 대상 '쇼핑' 기능 출시..."구글 쇼핑과 흡사” [Purple Lexity Launches 'Shopping' Feature For U.S. Paying Users... "Similar to Google Shopping"]. Retrieved from https://www.aitimes.com/news/articleView.html?idxno=165457.
- Park, C. (2024, July). 아마존, AI 쇼핑 도우미 '루퍼스' 미국서 본격 출시 [Amazon Launches AI Shopping Helper 'Rufus' in U.S]. Retrieved from https://www.aitimes.com/news/articleView.html?idxno=161551.
- Reid, E. (2024, May). Supercharging Search with generative AI. Retrieved from https://blog.google/products/search/generative-ai-search/.
-
Rospigliosi, P. A. (2023). Artificial intelligence in teaching and learning: What questions should we ask of ChatGPT?. Interactive Learning Environments, 31(1), 1-3.
[https://doi.org/10.1080/10494820.2023.2180191]
-
Ruan, S., Wobbrock, J. O., Liou, K., Ng, A., & Landay, J. A. (2018). Comparing Speech and Keyboard Text Entry for Short Messages in Two Languages on Touchscreen Phones. Proceedings of ACM on Interactive, Mobile, Wearable and Ubiquitous Technologies, 1(4), 1-23.
[https://doi.org/10.1145/3161187]
- Sarkar, A. (2023, November). Voice Commerce: The Future of Shopping with Voice Assistants. Retrieved from https://www.websigmas.com/voice-commerce-the-future-of-shopping-with-voice-assistants/.
-
Shin, Y., & Cho, C. (2014). 페이스북 정보원의 전문성과 사회적 거리감에 따른 광고효과연구 : 설득지식모델을 적용하여 [A Study on Advertising Effectiveness of Source Expertness and Social Distance in Facebook: Applying Persuasion Knolwedge Model]. The Korean Journal of Advertising, 25(1), 343-366.
[https://doi.org/10.14377/KJA.2014.1.15.343]
-
Shin. H. (2023). A Study on the User Experience and Perception of Dark Pattern Design Types in Metaverse (Master's Thesis). Available from Hongik University.
[https://doi.org/10.25111/jcd.2023.83.06]
-
Sun, C., Shi, Z., Liu, X., Stern, N., & Ghose, A. (2024). The effect of voice AI on digital commerce.
[https://doi.org/10.1287/isre.2022.0140]
-
Swan, K., & Shih, L. F. (2005). On the nature and development of social presence in online course discussions. Journal of Asynchronous learning networks, 9(3), 115-136.
[https://doi.org/10.24059/olj.v9i3.1788]
- Xu, R., Wang, Z., Fan, R. Z., & Liu, P. (2024). Benchmarking benchmark leakage in large language models. arXiv preprint arXiv:2404.18824.
- Yang, J., & Yoon, S. (2023). ChatGPT를 넘어 생성형(Generative) AI 시대로 : 미디어·콘텐츠 생성형 AI 서비스 사례와 경쟁력 확보 방안 [Beyond ChatGPT, into the era of Generative AI: Examples of media and content Generative AI services and ways to secure competitiveness]. Korea Comunications Agency, 62-70.
- Yang, J. (2023). Experience Design of Human-AI Interaction Based on GPT-3 : Focusing on AI Art (Master's Thesis). Available from Kookmin University.
- Yu, H., Yu, S., & Kim, Y. (2023). LLM 기반의 네이버 검색 서비스 Cue: [NAVER Cue: Search Service Based on Large Language Models]. Communications of the Korean Institute of Information Scientists and Engineers, 41(11), 34-41.
-
Zhao, B., Allen, T., & Bargiela, A. (2004, December). Evaluation of a mixed-initiative dialogue multimodal interface. In International Conference on Innovative Techniques and Applications of Artificial Intelligence (pp. 265-278). London: Springer London.
[https://doi.org/10.1007/1-84628-103-2_19]