두뇌 인지과정 두 번째 |경로 탐색

 

두뇌 인지 과정 경로 탐색 

두뇌인지 과정 두 번째 - 경로 탐색


- 우리가 무엇을 보는지 생각하는 방법의 논리적 확장은, 공간에서 우리는 어디쯤 있는가를 이해하는 것이다. 우리 뇌의 상당 부분은 공간 정보를 표현하는 일에 전념한다. 

물리 공간과 가상 공간에서의 경로 탐색


- 우리는 현재의 위치가 어디인지, 어디로 가고자 하는지, 목적지에 어떻게 도달할지 결정해야 한다. 이를 위해 우리 뇌의 위치 체계가 사용된다. 위치체계는, 포유류의 피질 중에 가장 큰 부위 중 하나다. 

물리적 세계의 공간을 지도화하는 이 놀라운 능력이 우리 안에도 내장되어 있다면 디지털 세계, 즉 가상 공간에서 길을 찾을 때도 이런 잠재 능력을 활용하는 것이 당연할 것이다. 


 - 3D공간과 시간의 경과에 따른 움직임을 활용하는 물리적 공간에서의 경로 탐색
 - 가상 세계에서의 경로 탐색과 이동 


- 두 가지 개념 사이에는 중복되는 부분도 분명 존재한다. 그러나 좀 더 주의 깊게 연구해 보면, 우리는 이것이 단순한 일대일 매핑이 아니라는 점을 깨닫게 된다. 스마트폰과 웹 브라우저 등 대부분의 인터페이스에 존재하는 오늘날의 가상 세계는, 

랜드마크와 단서에 의한 경로 탐색 방법이 통하지 않는다. 웹 페이지, 앱, 알렉사나 시리 같은 음성 경험 내에서 우리의 위치를 언제나 명확하게 파악할 수 있는 것은 아니다. 우리가 원하는 위치에 도달하는 방법, 그리고 우리의 현 위치를 마음의 지도로 그려보는 방법 역시 명확하지 않다. 

그러나 현재의 위치를 파악하고, 실제 또는 가상 환경에서 이동하는 방법을 이해하는 것은 최상의 경험을 구축하는 데 있어 매우 중요하다. 


어디로, 어떻게 가야 하나?


- 물리적인 세계에서는 확실한 단서가 없으면 어디에도 가기 힘들다. 공항에서는 탑승구 번호, 고속도로 표지판, 둘레길의 산책로 표지판은 일상에서 편하게 사용되는 작지만 실질적인 단서다. 

새로운 디지털 인터페이스로 탐험하는 것은, 쇼핑몰에서 지도 없이 돌아다니는 것과 같다. 내가 지금 여기에서 어디에 있는지 알려 주는 확실한 단서가 별로 없어서 길을 잃어버리기 쉽다. 

걸어서 이동하는 방법을 알고 있는 현실과는 달리, 디지털에서는 입이나 운영 체제 등의 제품에 따라 완전히 달라지기 때문에 경로 탐색이 훨씬 어렵다. 스마트폰에서 원하는 동작을 발생시키기 위해 제품의 버튼을 누르고, 제품 전체를 흔들고, 가운데 단추를 누르고, 

오른쪽으로 화면을 스와이프하는 등의 작업을 수반하는 것을 예로 들 수 있다. 


- 또 인터페이스 중 현실에서의 경로 탐색 시 필요한 것보다 훨씬 복잡한 경우가 많다. 예를 들어, 나이가 많은 사람의 대부분은 인스타그램 같은 플랫폼을 탐색하는 것이 매우 어렵다고 생각한다. 

한 장소에서 다른 장소로 이동할 수 있는 직접적인 버튼이나 링크가 없으므로, 원하는 장소에 도달하려면 클릭하거나 스와이프하는 위치를 찾아야 하는데, 도통 방법을 모르는 것이다. 


- 가상 세계를 물리적 세계와 동등하게 연결할수록, 가상 세계는 더욱 발전할 것이다. 증강 현실AR, 가상 현실VR, 스크린 화면 가장자리에 삐져나온 핀터레스트 사진과 같은 작은 힌트를 통해서도 가능하다. 

인터페이스를 더욱 좋은 방향으로 개선할 수 있는 기회 역시 많아졌다. 뉴스 포털이 섹션별로 조금씩 다른 배경을 적용하는 것처럼, 가상 공간의 미세한 차이 혹은 힌트와 같은 기본적인 정보 역시 우리가 보다 수월하게 경로 탐색을 할 수 있도록 돕는 요소로 작용한다. 


- 디자이너들이 충분히 활용하지 못하는 탐색 힌트 중 하나는 바로 '3D 공간 감각'이다. 가상 공간을 실제로 "걸을" 필요는 없겠지만, 3D공간의 단서를 사용하는 흥미로운 방법이 있을 수 있다. 

원근감을 줌으로써 자동인지처리 시스템을 가동하게 만드는 것이다. 

인터페이스 테스트


- 인터페이스를 테스트 해서 만든 메타포(metaphor,은유), 즉 고객의 위치와 고객이 제품/서비스와 상호작용하는 방식이 명확한지 확인하는 일은 매우 중요하다. 터치스크린 노트북을 사용해서 진행된 초기 연구중에 사용자들이 앱이나 웹 사이트의 가상 공간에서 어떻게 

이동할 수 있다고 생각하는지를 알아보기 위한 테스트의 가치를 입증하는 연구가 하나 있었다. 터치스크린 노트북을 처음 접할 때 참여자는 본능적으로 물리적 세계의 메타포를 사용했다. 

연구 참여자는, 선택하려는 항목을 터치하고, 실제로 스크롤이 있는 것처럼 위아래 드래그하며, 무언가 입력하기 위해 화면을 터치했다. 그러나 단순히 예상할 수 있는 작업을 수행하는 것 외에도, 테스트를 통해 예상하지 못했던 사항들을 발견할 수 있었다. 

참여자는 모니터의 양쪽에 손을 대고, 화면 양쪽에 있는 두 엄지손가락을 사용해서 인터페이스를 위아래로 밀었다. 

터치스크린 테스트 2가지 특징 


1) 고객이 새로운 도구와 어떻게 상호작용할지 완벽하게 예측할 수 없으므로 실제 고객의 제품 테스트와 고객 반응을 관찰하는 것이 매우 중요하다. 

2) 사람들이 가상 공간을 표현하는 방법과 가상 공간에서 이동할 수 있는 상호작용이 무엇인지 아는 것은 매우 중요하다. 


- 현실에서는 무언가를 움직일 때 지체되는 게 없기 때문에 사용자는 당연하게 가상 공간에서도 무언가를 선택하면 시스템이 즉시 반응할 것을 기대한다. 가상 공간의 뭔가를 화면에서 클릭했을 때 몇 초 동안 아무 변화가 없으면, 

뇌는 이내 당황하게 되고 본능적으로 기대와 다르다는 사실에 집중해서 의도했던 가상 경험과 거리감을 느끼게 된다. 

음성 인터페이스에 '위치'가 있을까?


- 구글 홈, 아마존 알렉사, 애플 시리, 마이크로소프트 코타나와 같은 음성 기반 인터페이스는 무수한 가능성을 지닌다. 하지만 이런 음성 인터페이스를 테스트하는 과정에서 우리는 새로운 사용자들이 음성 인터페이스를 접할 때 기기가 듣고 있다는 실질적인 단서가 없으니

불안해한다는 점을 발견할 수 있었다. 시스템의 상호작용과 반응 타이밍이 사용자가 예상하는 인간적인 반응과 차이가 크다는 점도 불안함의 원인 중 하나였다. 


- 일대일 대응으로 음성 기반 인터페이스를 업무나 개인 용도로 테스트 했을 때 음성 인터페이스에 앞서 몇 가지 중요한 해결 과제가 있는 것을 발견할 수 있다. 

1) 오프라인에서나 스크린 기반의 인터페이스와는 다르게 시스템상에서 사용자의 대략적인 위치를 알려 주는 단서가 없다. 몇 가지 예외 상황을 제외하면, 음성 인식 시스템은 매 대화를 완전히 새로운 맥락에서 시작한다. 

대화의 흐름을 파악하는 경우는 거의 없는 것이다. 


2) 시스템이 특정 주제나 알렉사 음성 인터페이스를 사용하면서 스포티파이의 기능같이 특정 앱의 영역에 들어가면 물리적인 공간에서와 달리, 그 영역의 어디에 있는지를 앙ㄹㅇ 수 있는 단서가 없다. 

어떻게 사용할 수 있는지 상호작용은 어떻게 하는지 알 방법도 없다.



- 제품/서비스 디자이너는 문제를 해결하려고 하지만 사용자들이 겪는 새로운 문제는 미처 생각하지 못한다. 가상 공간에서 사용자가 무엇을 인지 하건 간에 우리는 그들의 사용자 경험과 일치시키기 위해 최선을 다해야 한다. 

사용자가 다른 무언가와 소통하던 방식으로 서비스를 맞춰야 한다. 








댓글 쓰기