본문바로가기

A Study on Classification of the Preferred Areas of Head-Up Display (HUD) while Driving

Abstract

Objective: The aim of this study is to provide classification of the areas in the Driver's windshield that will enhance your intuitive understanding.

Background: Self-driving vehicles are emerging as a result of technological advances, and the range of human behavior is expanding. The collateral information on driving is increasing, and HUD is coupled with an augmented reality to convey information to the driver. Interference between the actual driving environment and the displayed information can cause distraction. Research is required to find out that which areas in driver's WS are optimum, preferred and restricted to be displayed when displaying information.

Method: Proceeding a test for 9 areas, which is carried out as a classification and grouping of the relevant factors in existing HUD researches, on driver's side WS. The number of 18 participants have been acted LCT with driving simulator, and being measured by completion time and MCH handling quality.

Results: In the intuitive perspective the vertically middle areas were the dominant positions all the time. Also the traffic congestion and participant's state had affected on the interaction to areas.

Conclusion: There are many legal regulations locating the HUD area to the middle on the WS, so this study proposed a secondary solution suggest and designated the worst area on considering LOA. For preparing new era of autonomous car industry, this study proposes the initial classification of the HUD location on driving.

Application: Moreover, the purpose of this study is being the basis of the study that founds the groups of the optimum, preferred, restricted HUD areas for the near future with Autonomous Driving.



Keywords



Lane change task Field of view in automobile HUD Autonomous cars



1. Introduction

과거 차량에 제시되는 정보는 운전자가 우선적으로 주행에 집중하는 가운데 차량 내 정보를 동시에 파악해야 하므로 운전과 주의 분산을 고려하여 단순한 정보 위주로 제공되었다. 하지만 현재 자율주행화가 진행됨에 따라 차량 내에서 표시되는 정보의 복잡도가 크게 증가하고 있다. 확장된 정보 표시를 통해 운전자는 운전 중에도 다양한 작업을 수행할 수 있게 된 반면, 이러한 환경이 운전자의 작업 부하와 수행도에 어떤 영향을 미치는지에 대한 안전 관련 이슈 역시 부상하고 있다(Strayer et al., 2017). 그러므로 차량 내 수용 가능한 다양한 정보를 체계적으로 윈실드에 표시하고 운전자의 시선 분산을 줄여 줄 수 있는 HUD (Head-Up Display)가 대두되고 있다(Charissis and Papanastasiou, 2010; Häuslschmid et al., 2015).

HUD는 윈실드나 별도의 광학적 요소들을 사용하여 운전자의 시계에 가상 이미지를 전달하는 시스템이다(Yoo, 1999). 대부분의 HUD는 심볼 형태로 표시되고 있지만, 기술 진보에 따라 더 다양한 정보 전달이 가능해지고 있으며, 증강 현실을 통해 주행 환경에서도 가상 정보가 제공될 수 있다. 증강 현실과 결합된 HUD 기술은 늘어나고 있는 자동차 정보의 양에 맞추어 운전자에게 전달할 수 있는 잠재성을 지니고 있다(Plavšic et al., 2009; Stevens et al., 2002; Tönnis et al., 2009).

한편 실제 자동차와 관련된 사고는 대개 적절한 피드백과 운전자와 원활한 인터랙션이 일어나지 않을 때 발생한다. 시각적 요소가 중요시 되는 주행 상황에서 안전 운전을 위해 주행 중 제공되는 정보는 운전자가 시각으로 최대 90%까지 인지할 수 있어야 하며, 디스플레이는 복잡한 시스템 내 초점 주의를 방해하는 요소들을 억제하고 분할 주의를 지원하도록 설계되어야 한다(Beggiato et al., 2015; Lee and See, 2004; Wickens et al., 2015). 통계적으로 주행 중 다른 활동을 하거나 운전자의 부주의에 의해 주의 산만이 유발되고 이러한 주의 산만으로 인하여 교통사고가 발생하는 경우가 많다(National Highway Traffic Safety Administration, 2016).

따라서, 운전자가 정보를 탐색하고 조작하는 과정에서 차내 디스플레이가 도로 정보와 중첩이 될 경우(Driver mirror, instrument panel 등) 시각적 주사를 줄이면서 주의 분산과 같은 안전 주행에 방해가 되는 요소들을 최소화할 수 있는 인터페이스 설계가 필요하다(Japanese Automobile Manufacturers Association, 2004; Lansdown, 1997). HUD는 운전자의 시선 분산을 줄이면서 보다 다양한 정보를 제공할 수 있는 인간공학적 설계 대안으로 주목할 필요가 있다. 본 연구에서는 주행성능 및 효율성 관점에서 운전자가 주행 상황을 인지하는 가운데 HUD의 선호 및 적용 가능 영역을 제시하여 미래 윈실드 내 디스플레이 정보 배치 효율화에 이바지하고자 한다.

2. Related Studies

2.1 Research related on HUD

네비게이션, 멀티미디어 등 차량 내에 각종 정보시스템이 적용됨에 따라 일차적인 주행기능 이외에 운전자에게 제공되는 정보의 양이 급격하게 늘어나고 있다. 현재까지는 주로 센터페시아 디스플레이 및 컨트롤을 통해 차량 내 정보 관련 과업을 수행해 왔으나 운전자의 시선 분산 등 안전상의 문제점이 지적되어 왔다. 따라서 주행에 미치는 영향을 최소화 하면서 보다 다양한 정보탐색 및 인지를 위한 설계 방안으로써 자동차 HUD에 대한 연구가 광범위하게 이루어져 왔다.

우선 HUD 상에 운전자 필요로 하는 정보의 종류 및 효용성을 판단하는 근본적인 연구들이 수행되어 왔다(Beck and Park, 2018; Guo et al., 2014; Huang et al., 2013). 이를 통해 운전자들은 HUD 상에서 차량속도, 회전지시, 제한속도, 전방 충돌 경고 등의 정보가 우선적으로 제공되기를 원하는 것으로 나타났다. 다음으로는 HUD의 기술적 적용 방식에 대한 방향성을 연구한 사례가 있다(Betancur et al., 2018; Blankenbach, 2018). 기존 HUD에 제시되는 정보는 상대적으로 작은 Field of View (FOV) 및 투영 거리를 포함하는데 관련 연구에 따르면 미래 HUD의 FOV는 증강 현실과 3D 투사 기술을 통해 상당 부분 증가할 수 있음이 밝혀졌다.

또한 HUD의 사용으로 인해 운전자에게 미치는 심리적 영향을 분석한 연구도 존재하였다(Hwang et al., 2016; Jose et al., 2016). 기존 연구들에서 다룬 HUD의 역할은 단순히 앞선 차량을 따라가거나 보행자의 사고위험 수준의 정보를 제공하는 정도이기에 HUD에 대한 세부 정보 수준과 작업 난이도가 제한적이었다. 물론 HUD에 제시되는 텍스트 문장에 따라 조정되는 난이도로 시각적 탐색 작업을 수행함에 따라 운전자의 인지된 작업 부하와 주의 산만에 미치는 영향을 조사한 연구도 있었다(Smith et al., 2017). 하지만 동적인 추적 과업과 같은 비교적 복잡한 상황에서 운전자의 작업 부하가 어떻게 변하는 가에 대한 연구는 현재 미비하다.

초기 인간공학적 HUD 연구는 사용자의 반응시간과 사용성을 중심으로 항공기분야에서 선행되었고(Enderby and Wood, 1992; Fadden et al., 2001), 또한 차량 자율주행화로 운전보조시스템 연구가 활발히 진행되었으며(Carsten et al., 2012; Kohlhaas et al., 2013), 최근에는 운전자 편의시스템 이슈까지 확장되어 디스플레이 방식 특히, 그 중에서도 윈실드 내 정보배치가 중요시 되고 있다(Park et al., 2015).

운전자는 차량 내 다목적 시스템 정보를 통해 차량과의 인터랙션을 실시간으로 유지 가능하며, 이동상의 안전성 향상과 더불어 편리한 인포테인먼트를 이용할 수 있다. 이와 같은 트렌드의 변화로 최근 HUD 연구 이슈 중 하나는 차선 변경 과업(LCT: Lane Change Task) 시 어떠한 정보배치를 제공할 것인가에 관한 연구가 대두되고 있다(Knott et al., 2015).

2.2 Research related to distraction and performance on driving

동적 시각적 주의 연구를 통하여 사람들은 주변시를 통해 빠르게 주의를 이동시킬 수 있다는 것이 밝혀졌다(Krose and Julesz, 1990; Saarinen, 1993; Saarinen and Julesz, 1991). 특히 운전자는 자동에서 수동 운전으로 제어권 변환이 될 경우 도로 중심으로 시각적 주의를 재 이동해야 하는데 이 과정에서 주행 관련 위험율을 줄이는 방안이 필요하다(Victor et al., 2005).

주행 중 앞차 간 거리를 보조해주는 시스템은 수동 운전과 비교 시 운전자의 정신적 작업 부하에 큰 차이가 없지만, 차선을 변경하는(Lateral) 시스템은 운전자의 작업 부하를 감소시키는 경향이 있다(Young and Stanton, 2002). WSD (Wind Shield Display)와 기존의 HUD를 비교하여 LCT를 기준으로 탐색시간을 측정한 결과 HUD보다 넓은 영역인 윈실드에 정보를 띄워줄 경우 사용자의 사용성이 높다는 것이 밝혀졌다(Knott et al., 2015).

LCT 시 운전자에게 오류 정보 제시에 대해 운전자 측 윈실드 영역별로 알아본 실험 결과 최적 영역은 운전자 측 시계를 기준으로 중앙 수평 좌우 시계 5도 정도가 가장 적당한 것으로 나타났다(Green et al., 1994; Park et al., 2015). 추가로 정보 속성별로도 윈실드 내 영역을 다르게 주어야 하는데, FOV를 고려할 경우 SNS (Social Network Service) 정보는 운전석 측 윈실드 우측 하단에, 속도 또는 RPM과 같은 주행 정보는 정면 하단에 배치되는 것이 선호되었다(Betancur, 2011). 앞으로 운전자의 정보수용 확대와 안전을 동시에 보장하기 위해서는 HUD를 활용한 윈실드 내 정보배치 연구가 필요하다.

3. Method

3.1 Participants

사용성 평가를 위한 총 18명의 실험참여자는 운전을 주로 하는 20~54세의 연령대 그룹으로 구성되어 있다. 실험참여자는 남성은 10명, 여성은 8명이었으며, 평균 나이는 27.7 (SD=6.95)세였다. 실험참여자들은 모두 현재 운전이 가능하고, 운전면허증을 소지하였으며 시력과 청각에 이상이 없었다. 또한 실험참여자는 운전 경력 2년 이상인 사람을 대상으로 모집하였으며 평균적으로 일주일에 3회 이상 운전을 하는 사람이 12명, 1~3회 사이로 운전을 하는 사람이 6명 이었다. HUD 사용경험 관련해서는 총 3명으로 확인되어 실험참여자 전원에게 충분한 사전 연습시간이 주어졌다.

3.2 Apparatus

본 실험을 위하여 구성된 환경은 Figure 1과 같이 Logitech사의 드라이빙 시뮬레이터 장비와 프로젝터를 연동하여 운전석 중심의 주행 환경을 구성하였다. 추가로 Logitech G27 컨트롤러를 사용해 스티어링휠, 페달, 기어가 연동되도록 환경을 조성하였으며, PNS GTs Plus 휠 거치대 및 시트가 실험에 사용되었다. 주행 영상은 가로 90cm, 세로 78cm 길이의 운전자 측 윈실드 영역을 구현한 패널을 통해 투사되었으며 시뮬레이터와 운전자 안구 간 거리는 1.0m로 고정하였다.

Figure 1. Driving simulator

3.3 Experimental task

기존 항공기 HUD 관련 연구에서 운전자의 반응속도와 정확성을 판단하는데 활용되어 온 숫자식별과제를 적용해 자극을 준 후 실험참가자가 자극을 인식 후 LCT를 하는 과제를 수행하였다. 각 숫자식별과제의 구성은 속도와 정확성을 동시 고려한 과제인 것과, 찾아야 하는 개체가 많아질수록 탐색시간이 증가하는 경향을 고려하였다(Nunes, et al., 2006; Remington et al., 2000). 따라서 운전에 과부하를 일으키지 않으면서 실험 과제의 난이도를 일정 수준 유지하기 위해 각 영역별로 4개의 숫자를 배치하였다. 해당 숫자식별과제는 윈실드 상에 수직 5.5°(30cm 간격), 수평 12.5°(15cm 간격)를 기준으로 구분된 총 9개의 영역 내에 정사각형 구도로 배치된 4개의 숫자(좌상부터 우하 순서, 50~90대의 숫자가 하나씩 랜덤하게 배치되어 있음) 중에서 좌상, 우하 혹은 우상, 좌하에 해당하는 2개의 숫자를 구두로 제시하면 실험참가자가 숫자를 식별한 후 LCT를 수행하는 방식으로 진행되었다. 실험참여자의 학습효과 대한 오염요인을 최소화하기 위해 실험제시 순서를 윈실드 상의 상, 중, 하 영역이 무작위로 조합되도록 통제하였다. 이와 같은 counter-balancing을 통하여 숫자식별과제를 진행함에 있어서 난이도를 동일한 수준으로 유지하고자 하였다.

3.4 Experimental design

3.4.1 Independent variable

Areas of HUD

윈실드 상에서의 운전자 정보 탐색에 영향을 미치는 주요 실험변수로 HUD의 표시 영역을 선정하였다. Figure 2에 나타낸 것과 같이 한 AOI (Area of interest)에서 다른 AOI로 주의를 변경할 때 드는 정보 접근 노력(IAE: Information Access Effort) 정도를 고려하여 HUD의 표시 영역을 9개로 구성하였다. 정중앙(5영역)을 기준으로 수직으로는 상하 5.5° (30cm), 수평으로는 좌우 12.5° (15cm) 간격으로 각 영역을 배치하였다. 이는 AOI 간 시각도와 차량 내 환경에서 관심 영역에 대한 시각적 주의를 할당하는 방법에 대한 예측을 위해 활용되었던 SEEV 모형(Wickens, 2014; Wickens and Horrey, 2008)을 응용해 본 실험 환경에 적용한 것이다. 시각적 주의에 대한 현저함, 노력, 기대치, 가치에 대한 4가지 요소를 고려해 총 9개 영역으로 구분하였다. 5 영역은 눈의 움직임 없이 인지할 수 있고, 2, 8, 4, 6 영역은 눈의 움직임만으로 인지가 가능하며, 1, 3, 7, 9 영역은 머리와 눈을 모두 이동시켜야 인지할 수 있는 특성을 고려해 배치되었다. 자세한 실험 구성은 Figure 3과 같다.

Figure 2. Spatial separation between two items(degrees of visual angle; Left) and Classification for areas of HUD (Right)
Figure 3. Number layout by area of windshield panel

Driving status

본 연구에서는 운전상태 역시 윈실드 상에서의 시각적 탐색 반응에 영향을 미칠 것으로 가정하였다. Table 1과 같이 3가지(1 상태: 수동 운전, 2 상태: 모니터링 도중 take-over, 3 상태: 주의 분산 도중 take-over) 운전상태로 구분했다. 운전자의 행동은 인간의 정보처리 과정을 고려하여, 1, 2 상태에서는 5 영역을 보면서 모니터링 하게 하였고, 3 상태에서는 핸드폰으로 문자 보내기를 하다가 take-over 상황을 주었다. 핸드폰 사용의 경우 관심이 있는 내용의 대화는 더 많은 주행간섭이 일어나므로 형식적 문자 보내기로 과제를 한정하였다(Horrey and Wickens, 2006; Rendón-Vélez, et al., 2008).

Driving condition

Whether take-over or not

Monitoring

Driver behavior

1 (Manual driving)

X

O

Keep eyes forward

2 (Take-over during monitoring)

O

O

Keep eyes forward

3 (Take-over during distraction)

O

X

Use a cell phone

Table 1. Three levels of driving status

Traffic congestion

교통 혼잡도는 Figure 4와 같이 드라이빙 시뮬레이터에서 제공하는 고속도로 상황(혼잡)과 한적한 도로 상황(혼잡하지 않음)을 반영하였다. 다시 말해 직선도로 구간 내 차량의 흐름 및 정체상태를 기준으로 혼잡도 변수의 수준을 결정하였다.

Figure 4. Level of traffic congestion: Congested (Left), Not congested (Right)

3.4.2 Dependent variable

Task completion time

과업 완료시간은 과제 수행에 있어 특정 수행도를 측정하는 가장 객관적 평가지표 중 하나이기에 숫자식별과제에 대한 종속변수로 선정하였다(Fitts, 1966). Figure 5에 도식화 한 것과 같이 구두로 숫자식별과제를 요청할 시 운전자가 제시된 자극(숫자식별과제 요청)을 인식한 후 LCT를 수행하는 순서로 진행이 된다. 따라서 본 실험에서의 과업 완료시간은 자극으로부터 인식하는데 걸리는 시간과 인식한 이후로 LCT 과업을 완료하는데 걸리는 총 시간으로 정의하였다.

Figure 5. Definition of task completion time

Subjective workload

실험참가자 느끼는 주관적인 작업 부하를 측정하고자 Table 2에 설명되어 있는 MCH (Modified Cooper-Harper handling scale)를 적용하였다(Wierwille and Casali, 1983). 각 숫자식별과제마다 LCT를 1회 수행하며 평가를 진행하였다. MCH의 평가척도는 10 수준으로 이루어져 있으며 큰 수준일수록 어려움이 커지는 척도이다. 세부적으로 Rating 9, 10은 디스플레이 되는 정보가 쉽게 수용되기 힘들어 필수적으로 재 디자인이 필요한 수준, 6~8은 상황을 분석하기 위해 디스플레이 되는 정보에 대한 결함이 개선되어야 하는 수준, 3~5는 의사결정을 용이하게 해주기 위해 디스플레이 되는 정보에 대한 결함이 개선되어야 하는 수준, 1, 2는 의사결정을 돕는 정보의 디스플레이가 가능한 수준이다.

Rating

Adequacy for selected interaction

Display characteristics

1

Display is acceptable

Excellent & highly desired

2

Display is acceptable

Good with negligible deficiencies

3

Deficiencies warrant improvement

Minor but tolerable deficiencies

4

Deficiencies warrant improvement

Moderately objectionable deficiencies

5

Deficiencies warrant improvement

Very objectionable deficiencies

6

Deficiencies require improvement

Major deficiencies

7

Deficiencies require improvement

Major deficiencies

8

Deficiencies require improvement

Major deficiencies

9

Mandatory redesign

Major deficiencies

10

Mandatory redesign

Major deficiencies

Table 2. Modified Cooper Harper scale definition

3.5 Experimental procedure

실험 절차는 실험참가자들에게 연구목적과 주요 과제에 대해 설명을 한 후 숫자식별과제를 9개 영역에 걸쳐 9회 실시하고, 과업 완료시간과 주관적 작업부담에 대한 데이터를 수집하고 사후 인터뷰를 진행하는 방식으로 진행되었다. 실험 순서는 counter balanced되어 랜덤하게 진행되었고 실험참가자 별 독립변수 수준조합(HUD 표시 영역(9) x 운전상태(3) x 교통 혼잡도(2))에 따라 54회에 걸쳐 반복 수행되었다. 또한, 반복 수행에 따른 피로도 제거를 위해 18회 마다 휴식시간을 15분씩 부여하였다.

운전실력에 대한 개인차와 편향효과를 줄이고자 본 실험에서는 다음과 같이 실험 진행을 유도하였다(Green, 2010; Jipp and Ackerman, 2016). (1) 운전숙련자의 경우 더 먼 곳을 바라보고 도로 상황을 파악하는 경향이 있기 때문에 윈실드 내 정 중앙(5 영역)을 보며 주행을 지시함으로써 주사 거리에 대한 편차를 줄임, (2) 학습효과와 자동화 문제를 방지하고자 일관성 있는 수행을 지시, (3) 실험자 간 경쟁이 아닌 것을 사전에 알려 과도한 행동을 방지하고 사고 발생 시 상황 자체에 대한 낙담에 대해 진정시켜 개인 수행도 편향 제거, (4) 실험 환경과 무관한 좌, 우측 차선 변경 관련 선호되는 방향에 대한 개인 편향은 배제해달라고 지시하였다.

4. Results

4.1 Task completion time

과업 완료시간에 대한 분산분석(ANOVA) 결과, Table 3과 같이 유의수준 0.05에서 영역, 운전상태, 교통 혼잡도 변수 모두 유의한 차이가 있는 것으로 분석되었다. 요인 간 교호작용은 영역과 운전상태 사이의 교호작용(p=.001)과 영역과 혼잡도 사이의 교호작용(p=.015)은 유의했으나 운전상태와 혼잡도 사이의 교호작용(p=.158)은 유의하지 않았다.

Source

DF

F-value

p-value

Area

8

1711.983

<.000*

Driving condition

2

494.327

<.000*

Traffic congestion

1

276.204

<.000*

Area* Driving condition

16

2.530

.001*

Area* Traffic congestion

8

2.392

.015*

Driving condition * Traffic congestion

2

1.848

.158

Area* Driving condition * Traffic congestion

16

1.202

.260

Table 3. ANOVA results for task completion time *: Significant at α=0.05

Figure 6에서 보는 바와 같이 혼잡하지 않은 조건 하에서 과업 완료시간은 운전상태가 2일 때 짧고 3일 때 길어지는 경향을 보였다. 또한 영역 4, 5, 6에서 과업 완료시간이 짧은 그룹으로, 영역 1, 3, 7, 9에서 과업 완료시간이 긴 그룹으로 나타났다.

Figure 6. Task completion time according to driving conditions when traffic is not congested

Figure 7에서 보는 바와 같이 혼잡한 조건 하에서 과업 완료시간은 운전상태가 2일 때 짧고 3일 때 길어지는 경향을 보였다. 더불어 영역 4, 5, 6에서 과업 완료시간이 짧은 그룹으로, 영역 1, 3, 7, 9에서 과업 완료시간이 긴 그룹으로 나타났다.

Figure 7. Task completion time according to driving conditions when traffic is congested

윈실드 상에 구현하기 위한 HUD 표시 영역에 따른 과업 완료시간의 통계적 차이를 확인하기 위해서 Scheffe 사후분석을 실시하였다. Figure 8에 제시된 것과 같이 각 영역에 따른 평균 과업 완료시간에 대해 사후분석 결과를 토대로 그룹핑한 결과 영역 7, 1, 9, 3은 디스플레이 제한 영역, 영역 2, 8은 디스플레이 확장 가능 영역, 영역 4, 6, 5는 디스플레이 적정 영역으로 분류할 수 있었다.

Figure 8. Results of post-analysis on task completion time by area

4.2 Subjective workload

주관적인 작업 부하에 대한 분산분석(ANOVA) 결과, Table 4와 같이 유의수준 0.05에서 영역, 운전상태, 혼잡도 모두 측정한 MCH scale 점수에 대해 유의한 차이가 있는 것으로 분석되었다. 요인 간 교호작용은 영역과 운전상태 사이의 교호작용(p<.001)과 영역과 혼잡도 사이의 교호작용(p=.001)은 유의했으나 운전상태와 혼잡도 사이의 교호작용(p=.343)은 유의하지 않았다.

Source

DF

F-value

p-value

Area

8

399.046

<.000*

Driving condition

2

671.350

<.000*

Traffic congestion

1

851.732

<.000*

Area* Driving condition

16

10.144

<.000*

Area* Traffic congestion

8

3.396

.001*

Driving condition * Traffic congestion

2

1.072

.343

Area* Driving condition * Traffic congestion

16

0.310

.996

Table 4. ANOVA results for completion time *: Significant at α=0.05

Figure 9에서 보는 바와 같이 혼잡하지 않은 조건 하에서 MCH scale 평가 점수는 운전상태가 2일 때 낮고 3일 때 높아지는 경향을 보였다. 또한 영역 4, 5, 6에서 주관적 작업 부하가 낮은 그룹으로, 영역 1, 3, 7, 9에서 주관적 작업 부하가 높은 그룹으로 나타났다.

Figure 9. Subjective workloads depending on driving conditions when traffic is not congested

Figure 10에서 보는 바와 같이 혼잡한 조건 하에서 MCH scale 평가 점수는 운전상태가 2일 때 낮고 3일 때 높아지는 경향을 나타냈다. 더불어 영역 4, 5, 6에서 주관적 작업 부하가 낮은 그룹으로, 영역 1, 3, 7, 9에서 주관적 작업 부하가 높은 그룹으로 나타났다.

Figure 10. Subjective workloads depending on driving conditions when traffic is congested

윈실드 상에 구현하기 위한 HUD 표시 영역에 따른 주관적 작업 부하의 차이를 확인하기 위해서 Scheffe 사후분석을 실시하였다. Figure 11에 제시된 것과 같이 각 영역에 따른 평균 MCH scale에 대한 사후분석 결과를 토대로 그룹핑한 결과 영역 1, 7, 9, 3은 디스플레이 제한 영역, 영역 2, 8은 디스플레이 확장 가능 영역, 영역 4, 6, 5는 디스플레이 적정 영역으로 분류할 수 있다.

Figure 11. Results of post-analysis on subjective workloads by area
5. Discussion

최근 자율주행차량 개발과 함께 차량 내 운전자에게 더 많은 정보를 제공하는 이슈로 HUD에 대한 관심이 증가하고 있다. 특히 주행 상황에서는 운전자와 차 간 인터랙션이 중요하기 때문에 HUD를 통한 운전자의 시선 분산이나 피로도 감소 관련 연구가 활발하게 진행되고 있다. 기존 HUD 관련 연구가 과거부터 상당 부분 진행되었고, 이를 바탕으로 상용화되고 있지만 주행 상황의 특수성 때문에 안전과 운전부수적 정보를 작업 용도에 맞춰 적합한 영역에 표시해 주어야 하기에 HUD 영역은 더 이상 최적 배치에 국한되지 않고 제한 영역과 확장 가능 영역까지를 포함하여 분류되어야만 한다.

관련 연구들을 통해서도 HUD 정보의 표시 영역에 따른 운전자의 반응을 살펴보고 선호 영역에 대한 설계 가이드라인을 제시하고자 하였음을 알 수 있다. 기존 선행 연구에서는 HUD 상에서 제시되는 경고 이미지의 표시 영역에 따른 운전자의 반응시간과 선호도 변화를 분석하였다(Park et al., 2015; Watanabe et al., 1999). 관련 연구에서 제시한 HUD 선호 영역의 결과를 종합해 보면, 정 중앙을 포함하여 좌측과 우측 방향의 영역이 수행도가 우수하거나 선호되는 것으로 나타났다. 이와 같은 결과는 본 연구에서 도출된 결과와 경향성 측면에서 일정 수준 일치하였다.

하지만 HUD 이미지의 위치에 따른 운전자의 선호도 차이를 파악한 기존의 선행 연구 결과와 달리 본 연구에서는 좌측 하단 또는 우측 하단 영역에서의 수행도가 상대적으로 낮게 분석되었다. 이에 대한 이유로 먼저 본 연구에서 제시한 과업은 실제 도로 상에서의 차선 변경을 실시함에 따라 기존 연구에 적용된 단순한 도로 응시 상황과 비교해서 난이도에 차이가 존재한다. 이러한 이유로 해당 영역에서 주행 시에 HUD 이미지와 도로 사이에 중첩이 발생하게 되기 때문에 경고 표시와 같은 단순하거나 고정된 형태의 시각적 이미지를 활용한 기존 연구와 차이가 존재한다. 단적인 예로 Park et al. (2015)의 연구에서는 주행 중에 단일 선상의 스크롤링 리스트 상에서의 객체 탐색 및 선택을 수행하는 방식을 통해 HUD 이미지의 위치에 따른 운전자의 선호도 변화를 살펴보았다. 그러나 본 연구에서는 실제 운전 상황 시 도로 주행에 방해가 되지 않는 한도 내에서 운전자의 주의 분산이 적절히 반영된 과업 난이도가 적용되었기 때문에 운전자에게 보다 인터랙티브한 상황을 부여했다고 볼 수 있다.

한편 Morita et al. (2007)의 연구와 같이 운전자에게 경고 표시를 주고 반응을 알아보는 유형의 실험에서는 가운데 영역보다 4~5° 아래의 영역을 가장 선호하는 경향도 있었지만, 객체 탐색 및 선택을 수행하는 방식의 연구에서는 가운데 영역이 최적인 것으로 나타났다. 이는 Weintraub et al. (1985)의 항공기 조종사의 HUD 속도계 인식 및 조종에 관한 연구에서도 최적 영역은 가운데 영역인 것과도 일치한다. 따라서 인지적 작업 부하가 증가할수록 가운데 영역이 최적인 것으로 해석할 수 있다. 다음으로 운전자 측 윈실드 영역에서만 과제를 부여했는지 여부에 따라 결과의 차이가 존재했다. 운전자 측 윈실드 영역만 고려할 경우 전체의 영역을 고려했을 때보다 공간적으로 정밀하고 세분화된 영역 조사가 가능하며 운전자 주의 분산을 최소화함으로써 과제 자체에 대한 정확도를 올릴 수 있다. 실제 Wittmann et al. (2006)의 연구처럼 운전자 측 영역의 윈실드보다 넓은 영역의 범위를 다루었을 경우 선호 영역 범위가 다양한 수준으로 도출되지 않음을 알 수 있었다. 운전자 측 윈실드 영역만을 다룬 연구(Tretten, 2011; Yoo, 1999) 결과들을 참조하면 선호 영역이 가운데 영역뿐만 아니라 수평 시계 내 좌우 영역 또한 선호되는 것으로 나타나 본 연구의 결과와 유사하게 도출되었다.

본 연구의 제약사항을 언급하면 다음과 같다. 본 연구에서는 운전석 중심의 시뮬레이터 환경 구축에 따른 제한점을 보완하기 위해 실험 진행 시 다음의 사항을 준수하였다. 우선 피실험자들에게 스티어링휠의 조작이 실제 자동차 운전 환경에서처럼 윈실드 중앙부로부터 충분히 좌측에서 이루어지고 있음을 실험 시작 전에 고지하였다. 이에 따라 피실험자들은 각자 연습 주행을 통해 실험 환경에 대한 인지 및 적응을 실시하였다. 더불어 동승자석 위치에 대한 윈실드 구현의 제약사항으로는 운전자의 전방 시야가 실제 주행 환경에 비해서는 줄어드는 점을 들 수 있다. 현재 자동차에서 상용화되고 있는 HUD의 적용 사례를 조사해 보았을 때 아직은 운전석 중심의 시야 범위에서 대부분 표현되고 있음을 알 수 있었다. 따라서 본 연구에서 실험 환경의 한계점을 최소화 하는 한편, HUD 적용의 경우 운전자의 안전이 유지되어야 하는 측면이 크므로 주요 과업에 시야를 최대한 집중하도록 유도하였다.

6. Conclusion

본 연구의 세부적인 결과는 다음과 같다. 먼저 HUD의 표시 영역은 운전자의 수행도에 큰 영향을 미치며, 실험 참가자들은 가운데 영역을 기준으로 수평 영역인 4, 5, 6 영역에서 좋은 수행도를 보였다. 이는 주관적 평가에서도 비슷한 경향을 보였다. 과업 완료시간, 주관적 작업 부하에 대한 실험변수인 디스플레이 영역, 운전상태, 교통 혼잡도 세 가지 변수 모두 통계적으로 유의한 효과가 나타났다. 다음으로 실험참가자는 자동에서 수동운전으로 제어권 전환 시 도로 상황을 모니터링 하고 있을 때는 수동 운전 시보다 좋은 수행도를 보였으나, 자동에서 수동 운전으로 제어권 전환 시 모니터링을 하지 않을 시 오히려 수동 운전 시보다 수행도가 떨어지는 경향성을 보였다. 사후분석 결과를 토대로 그룹핑한 결과 최종적으로 4, 5, 6 영역은 적정 영역, 2, 8 영역은 확장 가능 영역, 1, 3, 7, 9 영역은 디스플레이 제한 영역으로 분류할 수 있었다. 본 연구에서 차선책으로 분류된 2, 8 영역의 경우 운전자 전방 시야를 기준으로는 가운데 영역에 해당하며 전체 윈실드를 기준으로 하면 좌측 영역에 해당하기에 실제 정보 배치를 고려할 때는 운전자 측 윈실드의 영역 사이즈를 고려해 디스플레이 해 줄 필요가 있다.

본 연구 결과는 차량 내 운전자에게 HUD 정보를 디스플레이 할 시에 적정 영역 분류에 대한 기초적인 연구가 될 것으로 기대한다. 추가적으로 아이트래커 등의 장비를 이용해 도로 환경변수들을 고려한 실제 차량에서의 운전자 반응 및 주의 분산에 대한 디스플레이 영역 연구가 요구된다. 또한 향후 운전 상황에서 적용할 수 있는 보다 다양한 시나리오와 정보 표현 방식을 고려한 추후 연구가 필요하다.



References


1. Beck, D. and Park, W., Perceived Importance of Automotive HUD Information Items: a Study with Experienced HUD Users. IEEE Access, 6, 21901-21909, 2018.
Crossref  Google Scholar 

2. Beggiato, M., Hartwich, F., Schleinitz, K., Krems, J., Othersen, I. and Petermann-Stock, I., What would drivers like to know during automated driving? Information needs at different levels of automation. In 7. Tagung Fahrerassistenzsysteme, 2015.
Crossref 

3. Betancur, J.A., Physical Variable Analysis Involved in Head-Up Display Systems Applied to Automobiles. In Augmented Reality-Some Emerging Application Areas. InTech. ISO 690, 2011.
Crossref  Google Scholar 

4. Betancur, J.A., Villa-Espinal, J., Osorio-Gómez, G., Cuéllar, S. and Suárez, D., Research topics and implementation trends on automotive head-up display systems. International Journal on Interactive Design and Manufacturing, 12, 199-214, 2018.
Crossref  Google Scholar 

5. Blankenbach, K., Automotive Displays from Direct View to AR Head-Up. In: Proc. of IEEE International Conference on Consumer Electronics, 2018.
Crossref  Google Scholar 

6. Carsten, O., Lai, F.C., Barnard, Y., Jamson, A.H. and Merat, N., Control task substitution in semiautomated driving: Does it matter what aspects are automated?. Human Factors, 54(5), 747-761, 2012.
Crossref  Google Scholar 

7. Charissis, V. and Papanastasiou, S., Human-machine collaboration through vehicle head up display interface. Cognition, Technology & Work, 12(1), 41-50, 2010.
Crossref  Google Scholar 

8. Enderby, C. and Wood, S., Head-Up Display in Automotive/Aircraft Application. SAE Technical Paper, 920740, 1992.
Crossref  Google Scholar 

9. Fadden, S., Ververs, P.M. and Wickens, C.D., Pathway HUDs: are they viable?. Human Factors, 43(2), 173-193, 2001.
Crossref  Google Scholar  PubMed 

10. Fitts, P.M., Cognitive aspects of information processing: III. Set for speed versus accuracy. Journal of Experimental Psychology, 71(6), 849-857, 1966.
Crossref  Google Scholar 

11. Green, P., Levison, W., Paelke, G. and Serafin, C., Suggested Human Factors Design Guidelines for Driver Information Systems. The University of Michigan Transportation Research Institute (UMTRI). Ann Arbor, Michigan, 1994.
Crossref  Google Scholar 

12. Green, P.A., Driver Distraction/Overload Research and Engineering: Problems and Solutions. SAE International Journal of Passenger Cars-Electronic and Electrical Systems, 3(2010-01-2331), 141-153, 2010.
Crossref  Google Scholar 

13. Guo, H., Zhao, F., Wang, W. and Jiang, X., Analyzing drivers' attitude towards HUD system using a stated preference survey. Advances in Mechanical Engineering, 6, 380647, 2014.
Crossref  Google Scholar 

14. Häuslschmid, R., Osterwald, S., Lang, M. and Butz, A., Augmenting the Driver's View with Peripheral Information on a Windshield Display. In Proceedings of the 20th International Conference on Intelligent User Interfaces (pp. 311-321). ACM, 2015.
Crossref  Google Scholar 

15. Horrey, W.J. and Wickens, C.D., Examining the impact of cell phone conversations on driving using meta-analytic techniques. Human Factors, 48(1), 196-205, 2006.
Crossref  Google Scholar 

16. Huang, C.H., Chao, C.W., Tsai, T. and Hung, M.H., The effects of interface design for head-up display on driver behavior. Life Science Journal, 10(2), 2058-2065, 2013.
Crossref  Google Scholar 

17. Hwang, Y., Park, B.J. and Kim, K.H., Effects of Augmented-Reality Head-up Display System Use on Risk Perception and Psychological Changes of Drivers. ETRI Journal, 38(4), 757-766, 2016.
Crossref  Google Scholar 

18. Japanese Automobile Manufacturers Association (JAMA), Guideline for In-Vehicle Display Systems-Version 3.0, 2004.
Crossref 

19. Jipp, M. and Ackerman, P.L., The impact of higher levels of automation on performance and situation awareness: a function of information-processing ability and working-memory capacity. Journal of Cognitive Engineering and Decision Making, 10(2), 138 -166, 2016.
Crossref  Google Scholar 

20. Jose, R., Lee, G.A. and Billinghurst, M., A Comparative Study of Simulated Augmented Reality Displays for Vehicle Navigation. In: Proc. Of the 28th Australian Conference on Computer-Human Interaction, pp. 40-48, 2016.
Crossref  Google Scholar 

21. Knott, V.C., Demmelmair, S. and Bengler, K., Distraction and Driving Behavior by Presenting Information on an "Emissive Projection Display" Compared to a Head-Up Display. In International Conference on Engineering Psychology and Cognitive Ergonomics (pp. 13-23). Springer International Publishing, 2015.
Crossref  Google Scholar 

22. Kohlhaas, R., Schamm, T., Lenk, D. and Zöllner, J.M., Towards driving autonomously: Autonomous cruise control in urban environments. In Intelligent Vehicles Symposium (IV), IEEE (pp. 116-121), 2013.
Crossref  Google Scholar 

23. Krose, B.J.A. and Julesz, B., Automatic or voluntary allocation of attention in a visual search task. Visual Search, 21-28, 1990.
Crossref 

24. Lansdown, T.C., Visual allocation and the availability of driver information. Traffic and Transport Psychology. Theory and Application, 1997.
Crossref  Google Scholar 

25. Lee, J.D. and See, K.A., Trust in automation: Designing for appropriate reliance. Human Factors, 46(1), 50-80, 2004.
Crossref  Google Scholar 

26. Morita, K., Sekine, M., Tsukada, Y., Okada, T. and Toyofuku, Y., Consideration on Appropriate Display Area for Head-Up Displays (No. 2007-01-3512). SAE Technical Paper, 2007.
Crossref  Google Scholar 

27. National Highway Traffic Safety Administration., Agency Request for Approval of a New Information Collection: Recruitment and Debriefing of Human Subjects for Head-Up Displays and Distraction Potential. Washington, DC, 141-142, pages, 2016. https://www.federalregister.gov/documents/2016/01/04/2015-33022/agency-request-for-approval-of-a-new-information-collection-recruitment-and-debriefing-of-human
Crossref 

28. Nunes, A., Wickens, C. and Yin, S., Examining the viability of the Neisser search model in the flight domain and the benefits of highlighting in visual search. In Proceedings of the Human Factors and Ergonomics Society Annual Meeting (Vol. 50, No. 1, pp. 35-39). Sage CA: Los Angeles, CA: Sage Publications, 2006.
Crossref  Google Scholar 

29. Park, J., Cho, C., Baek, S. and Park, W., Effect of automotive head-up display (HUD) imagery location on driver preference associated with use of scrolling list while driving. In Proceedings 19th Triennial Congress of the IEA (Vol. 9, p. 14), 2015.
Crossref  Google Scholar 

30. Plavšic, M., Duschl, M., Tönnis, M., Bubb, H. and Klinker, G., Ergonomic design and evaluation of augmented reality based cautionary warnings for driving assistance in urban environments. Proceedings of International Ergonomics Association, 2009.
Crossref 

31. Remington, R.W., Johnston, J.C., Ruthruff, E., Gold, M. and Romera, M., Visual search in complex displays: Factors affecting conflict detection by air traffic controllers. Human Factors, 42(3), 349-366, 2000.
Crossref  Google Scholar 

32. Rendón-Vélez, E., Horváth, I. and Opiyo, E.Z., Current Progress in Advanced Driver Assistance Systems: A Structured Analyis, 2008.
Crossref 

33. Saarinen, J. and Julesz, B., The speed of attentional shifts in the visual field. Proceedings of the National Academy of Sciences, 88(5), 1812-1814, 1991.
Crossref  Google Scholar  PubMed 

34. Saarinen, J., Shifts of visual attention at fixation and away from fixation. Vision Research, 33(8), 1113-1117, 1993.
Crossref  Google Scholar  PubMed 

35. Smith, M., Gabbard, J.L., Burnett, G. and Doutcheva, N., The Effects of Augmented Reality Head-Up Displays on Drivers' Eye Scan Patterns, Performance, and Perceptions. International Journal of Mobile Human Computer Interaction, 9(2), 1-17, 2017.
Crossref  Google Scholar 

36. Stevens, A., Quimby, A., Board, A., Kersloot, T. and Burns, P., Design guidelines for safety of in-vehicle information systems. TRL Limited, 2002.
Crossref  Google Scholar 

37. Strayer, D.L., Cooper, J.M., Goethe, R.M., McCarty, M.M., Getty, D. and Biondi, F., Visual and Cognitive Demands of Using In-Vehicle Infotainment Systems, 2017.
Crossref  Google Scholar 

38. Tönnis, M., Klinker, G. and Plavšic, M., Survey and classification of head-up display presentation principles. Proceedings of the International Ergonomics Association (IEA), 2009.
Crossref  Google Scholar 

39. Tretten, P., Information design solutions for automotive displays: focus on HUD (Doctoral dissertation, Luleå tekniska universitet), 2011.
Crossref  Google Scholar 

40. Victor, T.W., Harbluk, J.L. and Engström, J.A., Sensitivity of eye-movement measures to in-vehicle task difficulty. Transportation Research Part F: Traffic Psychology and Behaviour, 8(2), 167-190, 2005.
Crossref  Google Scholar 

41. Watanabe, H., Yoo, H., Tsimhoni, O. and Green, P., The effect of HUD warning location on driver responses. In Sixth World congress on Intelligent Transport Systems, Toronto, Canada, 1999.
Crossref  Google Scholar 

42. Weintraub, D.J., Haines, R.F. and Randle, R.J., Head-up display (HUD) utility, II: Runway to HUD transitions monitoring eye focus and decision times. In Proceedings of the Human Factors Society Annual Meeting (Vol. 29, No. 6, pp. 615-619). Sage CA: Los Angeles, CA: SAGE Publications, 1985.
Crossref  Google Scholar 

43. Wickens, C.D. and Horrey, W.J., Models of attention, distraction, and highway hazard avoidance. Driver Distraction. Theory, Effects and Mitigation, 249-279, 2008.
Crossref  Google Scholar 

44. Wickens, C.D., Noticing events in the visual workplace: The SEEV and NSEEV models. Handbook of Applied Perception, 2014.
Crossref  Google Scholar 

45. Wickens, C.D., Hollands, J.G., Banbury, S. and Parasuraman, R., Engineering Psychology & Human Performance. Psychology Press, 2015.
Crossref  Google Scholar 

46. Wierwille, W.W. and Casali, J.G., A validated rating scale for global mental workload measurement applications. In Proceedings of the Human Factors society Annual Meeting (Vol. 27, No. 2, pp. 129-133). Sage CA: Los Angeles, CA: Sage Publications, 1983.
Crossref  Google Scholar 

47. Wittmann, M., Kiss, M., Gugg, P., Steffen, A., Fink, M., Pöppel, E. and Kamiya, H., Effects of display position of a visual in-vehicle task on simulated driving. Applied Ergonomics, 37(2), 187-199, 2006.
Crossref  Google Scholar 

48. Yoo, H., Display of HUD warnings to drivers: Determining an optimal location, 1999.
Crossref  Google Scholar 

49. Young, M.S. and Stanton, N.A., Malleable attentional resources theory: a new explanation for the effects of mental underload on performance. Human Factors, 44(3), 365-375, 2002.
Crossref  Google Scholar 

PIDS App ServiceClick here!

Download this article