XR을 이용한 상호작용 중심의 자율주행 기술 교안 개발

XR을 이용한 상호작용 중심의 자율주행 기술 교안 개발

주관기관

주관기관

한국기술교육대학교 미래교육혁신처

한국기술교육대학교 미래교육혁신처

참여기간

참여기간

2024.08 ~ 2024.12

2024.08 ~ 2024.12

학위

학위

박사 과정

박사 과정

개요

  • 본 연구는 XR(확장현실) 기술과 자율주행 로봇 기술을 융합하여, 학습자가 몰입형 환경에서 로봇 제어 및 자율주행 원리를 학습할 수 있는 XR 기반 자율주행 실습 교안을 개발하는 연구로,

  • HoloLens 2와 ROS 기반 Limo Pro 로봇 간 통신 및 공간 정합 기술을 구현하여, XR 환경에서 실제 로봇의 상태와 위치를 실시간으로 시각화함

  • 또한 XR UI 및 핸드 제스처, 포인팅 기반 인터랙션을 통해 로봇 제어와 SLAM, 객체 감지 등의 실습을 포함함

  • 본 포트폴리오는 교안의 내용보다는 교안 개발을 위해 개발된 XR–로봇 융합 교육 시스템의 구현 결과에 초점을 두어 기술함

연구 목적 & 필요성

  • 로봇의 자율주행 기술은 인공지능, 센서 융합, 공간 인식 등 복합적 기술 발전에 따라 스마트 모빌리티와 서비스 로봇 등 다양한 분야의 핵심 기술로 대두되고 있으며, 이에 대한 교육적 수요 또한 급격히 증가하고 있음

  • 동시에 XR(확장현실) 기술은 실감형 인터페이스와 몰입형 학습 환경을 제공하는 차세대 교육 기술로 주목받고 있으며, 산업 전반에서 그 활용 가치가 높아지고 있음

  • 그러나 기존의 교육은 로봇 제어나 자율주행, XR 기술 중 개별 기술에 국한된 실습 중심 교육에 집중되어 있으며, 두 기술을 융합하여 학습자가 자율주행 로봇을 XR 환경에서 직접 제어하고 상호작용할 수 있는 통합 교육은 거의 전무한 실정임

  • 이에 본 연구는 XR과 자율주행 로봇 기술을 융합한 상호작용 중심의 실습 교안을 개발하여, 학습자가 실시간 공간 정합 및 인간-로봇 상호작용(HRI)을 통해 XR 기술과 로봇 기술을 활용하는 방법을 직관적으로 이해하고 실습중심으로 학습할 수 있는 교육 환경을 구축하고자 함

연구 내용

  • 본 연구는 교내 보유 중인 HoloLens 2 및 LIMO Pro 로봇 장비를 활용하여 XR–로봇 융합 교육을 위한 실습 교안 개발을 수행함

  • XR 환경은 UWP(Universal Windows Platform) 기반의 Unity 엔진을 통해 구현되었으며, 로봇은 Ubuntu 18.04 기반 ROS1 Melodic을 통해 개발함

  • 교안 개발을 위해 포함된(구현된) XR–로봇 융합 교육 시스템은 크게 1) 객체 감지 기능, 2) 네비게이션 기능, 3) 사용자 제스처 및 버튼 UI 기반 주행 제어 기능, 4) 사용자 포인팅 기반 주행 제어 기능으로 구성됨

  • 이를 통해 XR 공간 내에서 사용자의 제스처 및 UI 입력에 따라 로봇이 실시간으로 반응·주행하는 인터랙션 교육 환경을 구현

Young man carrying a paddleboard at night
Young man carrying a paddleboard at night
Young man carrying a paddleboard at night

XR UI 기반 로봇 주행 제어

  • 본 기능은 HoloLens 2 기반 XR 환경에서 사용자의 버튼 입력을 TCP 통신을 통해 ROS 시스템으로 전달하여,

  • LIMO Pro 로봇의 전진·후진·회전 등 기본 주행 동작을 실시간으로 제어하는 인터랙션 기능

  • HoloLens 2(UWP + Unity) 환경에서 구현된 버튼 UI를 통해 사용자는 XR 공간 내에서 직관적으로 로봇을 제어할 수 있으며,

  • 입력된 제어 신호(Flag 값)는 TCP 프로토콜을 통해 ROS 환경으로 전송됨

  • ROS 환경에서는 수신된 Flag 값을 기반으로 토픽을 발행하여 선속도(linear velocity)와 각속도(angular velocity)를 제어함

제스처 기반 로봇 주행 제어

  • 본 기능은 HoloLens 2 기반 XR 환경에서 사용자의 제스처 인식을 통해 로봇 주행을 제어하는 인터랙션 기능

  • HoloLens 2(UWP + Unity) 환경에서 구현된 Hand Tracking을 활용하여,

  • 사용자의 Fist, V, Thumbs up 핸드 제스처를 인식함

    • Fist: 정지

    • V: 회전

    • Thumbs up: 주행

  • 인식된 제스처를 제어 신호(Flag 값)로 변환하여 TCP 통신을 통해 ROS 환경으로 전송되며,

  • ROS 환경에서는 수신된 Flag 값에 따라 토픽을 발행하여 로봇의 선속도(linear velocity)와 각속도(angular velocity)를 제어함

로봇 안내 기능

  • 본 기능은 HoloLens 2 기반 XR 환경에서 사용자가 설정한 다중 목적지 정보를 바탕으로 로봇이 지정된 위치까지 자율주행하도록 하는 안내(Navigation) 기능

  • 초기 사용자는 XR 환경에서 여러 개의 목적지 좌표를 설정하면, 로봇은 이를 내부 데이터베이스에 저장함

  • 이후 다른 사용자가 XR 인터페이스 내 UI 버튼을 통해 원하는 목적지를 선택하면,

  • 해당 정보가 TCP 통신을 통해 ROS 환경으로 전송되고,

  • ROS 환경에서는 SLAM 맵 내 최적 경로를 탐색·생성하고 장애물을 피해가며 로봇이 선택된 목적지까지 안내함

XR-로봇 공간정합 및 포인팅 기반 로봇 주행 제어

  • 본 기능은 HoloLens 2의 포인팅(Pointing) 제스처를 통해 지정된 위치로 로봇을 이동시키는 공간정합(Spatial Registration) 기반 로봇 주행 제어 기능

  • HoloLens–Server–로봇 간 다중 좌표계 정합 구조로 구성됨

  • HoloLens에서는 사전에 3D Point Cloud 형태의 공간 맵을 생성 및 저장하고, 로봇 측에서도 2D Lidar 기반 Point Cloud map을 생성 및 저장함

  • Server는 두 맵을 ICP 알고리즘(Iterative Closest Point)으로 정합(Registration)하여 하나의 통합 글로벌 좌표계를 구성하며,

  • 이 글로벌 좌표계 내에서 HoloLens, 로봇, 포인팅 좌표의 상대적 위치를 하나의 공간 내에서 실시간으로 관리·갱신함

  • HoloLens는 자신의 위치 좌표를 Server로 주기적으로 전송하며, Server는 이를 글로벌 좌표계 기준으로 변환함 (변환행렬을 통해)

  • (본 ICP에서는 로봇의 Point Cloud map에 홀로렌즈 Point Cloud map을 정합하였음, 따라서 로봇의 map(좌표계)을 글로벌 좌표계로 정의)

  • 사용자가 XR 환경에서 포인팅 제스처로 바닥을 지정하면, HoloLens는 해당 지점의 Local 좌표를 Server로 송신하고,

  • Server는 이를 글로벌 좌표로 변환 (변환행렬을 통해)한 뒤 ROS 시스템에 전달함

  • ROS 측에서는 수신된 좌표를 기반으로 Path Planning을 수행하고, 로봇은 해당 지점으로 이동을 수행함

  • 추가적으로, Server(PC)에서는 세 좌표 (Hololens, Robot, Pointing position)을 실시간으로 시각화하여 하나의 공간내에서 위치를 확인할 수 있도록 시각화 프로그램을 개발함

역할

  • 본 프로젝트에서는 박사 과정 연구원으로서 XR–로봇 융합 교육 시스템의 설계·개발, 및 교안 개발 전반을 주도하였다. HoloLens 2와 LIMO Pro 로봇 간 통신 구조(UWP–ROS) 설계, 버튼·제스처·포인팅 기반 로봇 제어 기능 개발, 및 ICP 기반 공간정합 알고리즘 구현을 직접 수행하였으며, Server–HoloLens–로봇 간 좌표 변환 및 데이터 통신 시스템을 구축하여 XR-로봇 융합 기술을 개발하였다. 또한 개발된 시스템을 교육에 적용하기 위한 ROS 제어·SLAM·객체 감지·제스처 제어 등 실습 교안을 직접 설계 및 제작하였다. 이를 통해 XR과 로봇 시스템의 통합 개발 전 과정을 수행할 수 있는 실무 역량을 강화하였으며, 실시간 통신 구조 설계, 공간정합 알고리즘, UWP(Unity)·ROS 개발 역량 및 교육 콘텐츠 개발 프로세스에 대한 깊이 있는 이해를 확보할 수 있었다.

본 연구는 한국기술교육대학교 미래교육혁신처의 "XR을 이용한 상호작용 중심의 자율주행 기술 교안 개발" 연구 과제로 수행되었습니다.

View more projects

View more projects

View more projects

Contact

Email:

skgocks5729@gmail.com

Time for me:

Contact

Email:

skgocks5729@gmail.com

Time for me:

Contact

Email:

skgocks5729@gmail.com

Time for me: