CONTENTS

커뮤니케이션대학원 졸업논문

추천 시스템의 설명가능 인공지능 UI에 관한 연구: 지식그래프를 시각화한 설명 인터페이스를 중심으로
  • 저자명|황신희
  • 학위|석사
  • 졸업연도|2021
  • 담당교수|강연아

주제어

인공지능, 설명가능 인공지능, 설명 인터페이스, 지식그래프, 사용자 인터페이스 디자인

국문초록

인공지능은 인간의 지능을 컴퓨터 프로그램으로 구현한 기술로 IT 산업은 물론 비즈니스 전반에서 활용되며 그 성능이 입증되었다. 하지만 인공지능 모델의 정보처리 과정이 복잡하여 인간이 이해할 수 없는 블랙박스라는 한계점이 있으며, 이는 인공지능이 도출한 결과에 대한 신뢰성을 하락시켜 인간의 의사결정 과정에 활용되는 것을 저해한다. 설명가능 인공지능은 인공지능의 정보처리 과정을 사용자가 이해할 수 있는 형태로 설명하여 이러한 문제를 해결한다. 추천 시스템을 대상으로 하는 설명가능 인공지능 분야에서 지식그래프는 사용자와 사용자에게 추천된 아이템 사이에 수많은 설명 경로를 생성하여 그 관계를 추론한다. 그러나 기존의 지식그래프 기반의 설명가능 인공지능 연구는 정확한 경로를 도출하는 방법을 연구하는데 집중되어 있으며, 사용자에게 설명 모델이 도출한 결론을 효과적으로 전달하기 위한 설명 인터페이스 측면의 연구는 부족하다. 본 연구의 목표는 추천시스템에서 지식그래프를 시각화한 설명 인터페이스, KGXI를 개발하는 것이다. 이를 위하여, 본 연구에서는 선행 연구를 바탕으로 지식그래프가 생성한 설명 경로의 구조를 파악하고, 이를 바탕으로 KGXI의 구조, 구성 요소, 인터페이스의 인터랙션을 정의한다. 그리고 사용자를 대상으로 평가 및 워크숍을 진행하여 인터페이스와 인터랙션에 대한 사용자의 인지를 연구한다. 연구 과정에서 도출된 인사이트는 인터랙티브 프로토타입 개발 및 평가에 활용된다. 본 연구는 지식그래프 기반의 설명가능 인공지능을 사용자 인지적 관점에서 접근하여 연구하고, 인터페이스 프로토타입 개발 과정에서 발생할 수 있는 문제점까지 확인했다는 점에서 의의가 있으며, 관련 연구에 참여하는 연구진 및 실무자에게 유의미한 연구가 될 것으로 기대한다.

영문초록

The emergence of machine learning techniques has accelerated the development and adoption of AI-enabled services and systems in many areas. Despite their high performance, however, the lack of transparency has been a weak point of AI systems. Hence, users are unable to understand, appropriately trust, and effectively manage the emerging generation of AI systems. Explainable AI(XAI) aims to overcome such limitations and justify decisions, by providing a transparent explanation of AI’s decision-making process. The goal of XAI is to give AI applications the ability to explain not just what decisions they have made but also why they have made them. However, AI models often cannot be explained directly due to their nature of being black-boxes. For recommendation systems, researchers started using knowledge graphs(KG) to generate explaining paths between users and recommended items. Existing research for KG-based XAI has been focused on improving the accuracy of the explanatory model, and there is insufficient research on explanation interfaces to deliver the explanation to the end-user. The goal of this paper is to develop a knowledge graph based explanation interface, KGXI. For this goal, first, we defined visualized explainable interface structures, elements, and interactions among elements based on previous research. Next, we conducted user evaluations and participatory design workshops to study users’ perception of interfaces and interactions. Lastly, we developed and evaluated interactive prototypes using Amazon data based on insights from the research process. We believe the importance of this study comes from an approach to KG-based XAI in users’ cognitive point of view. In addition, it is also important that we can find potential problems from the prototype development process, thus providing meaningful results for researchers and practitioners in the field of XAI.

비고 : DIT-21-11