UI, 과거와 현재 그리고 미래
사용자 인터페이스(UI, User Interface)는 인간과 컴퓨터 사이의 경계면으로
사용자와 컴퓨터 간 의사소통의 효과와 효율성을 극대화하기 위해 인간, 환경, 기술 요소를 통합하는 활동이다.
UI의 중요성은 사물인터넷의 발전과 각종 첨단 서비스 실현을 위해 점점 더 커지고 있다.
UI는 명령과 출력이 테스트 형태로 이뤄지는 CUI(Character User Interface), 아이콘이나 메뉴를 마우스로 선택해 작업을 수행하는 그래픽 환경의 GUI(Graghical User Interface), 사용자의 말이나 행동으로 기기를 조작하는 NUI(Natural User Interface)로 구분할 수 있다.
CUI는 UI의 시초로, 명령어를 입력해서 컴퓨터를 조작하는 방식이다. 명령어를 일일이 입력해야 하는 번거로움이 있었지만, 초창기에는 컴퓨터와 대화하는 유일한 방법으로 사용되었다. CUI 방식의 대표 운영체제로는 유닉스(UNIX)의 셀, DOS(disk operating system)의 명령 프롬프트가 있다.
1963년, 더글러스 엥겔바트는 최초의 마우스인 ‘X-Y축 표시기’를 개발했다. 마우스는 명령어를 모르면 사용하기 어려운 CUI의 단점을 보완할 수 있었고, 아이콘을 클릭하는 등 그래픽을 이용해 컴퓨터와 정보를 교환하는 GUI가 등장하는 계기가 됐다. 이때부터 키보드와 함께 마우스도 사용 가능하도록 인터페이스가 바뀌기 시작한 것이다.
GUI의 동작은 일반적으로 그래픽 요소의 직접 조작을 통해 수행되는데, 마우스 등을 이용해 화면에 있는 메뉴를 선택하는 작업을 예로 들 수 있다. 우리에게 친숙한 Windows와 MAC 운영체제들이 그래픽 사용자 인터페이스를 지원한다. 스마트폰에 적용되는 터치 화면도 GUI라고 할 수 있다.
NUI은 별도의 장치 없이 인간의 감각이나 행동, 인지능력을 통해 디지털 기기를 제어하는 자연스러운 상호작용에 의한 사용자 인터페이스로, 센서 기술과 인공지능 기술이 발전함에 따라 사용자의 행동을 직접 입력할 수 있게 되면서 주목받고 있다. 이런 인터페이스 방식은 AI, 멀티 터치, 크게는 증강현실 등으로 발전하고 있다.
NUI는 크게 장착형과 비장착형으로 나눌 수 있다. 장착형은 신체에 직접 부착해 사용하는 형태로 스마트 워치를 예로 들 수 있다. 몸에 부착하기 때문에 체온의 변화나 맥박 등 직접적인 정보를 체크 할 수 있고, 정보를 합쳐서 그에 맞는 서비스나 위급상황을 알릴 수 있다.
비장착형은 대부분 동작 인식 기반의 기기를 의미하며 신체에 직접적으로 접촉하지 않고 카메라, 적외선센서, 마이크 등과 같은 센서를 이용해 사람을 인식한다. 골격 인식, 안면인식, 뇌파인식, 눈동자 인식, 음성인식, 음성출력(TTS) 등을 예로 들 수 있다.
BCI(Brain-Computer Interface)는 뇌파로 컴퓨터를 사용할 수 있는 인터페이스다. 두뇌의 정보처리 결과인 의사결정을 언어나 신체 동작을 거치지 않고, 사용자가 결정한 특정 뇌파를 시스템의 센서로 전달해 컴퓨터에서 해당 명령을 실행하게 된다.
BCI는 침습형과 비침습형으로 나뉜다. 침습형은 뇌에 직접 마이크로칩을 이식하는 형태로, 정확도는 높지만 뇌에 직접 이식하다 보니 부작용 우려가 크다. 비침습형은 헤드셋이나 헬멧 형태의 장비만 쓰면 돼 침습형보다 위험이 적다.
BCI는 특히 의료 분야에서 활발히 연구되고 있다. 뇌 질환을 예방하거나 치료하는 용도로 사용되기도 하고, 신경 손상 환자 재활에도 활용 가능하다. 손상된 뇌 기능 일부를 대신하는 칩을 이식해 뇌 질환을 치료한다거나, 사지가 마비된 사람이 생각만으로 컴퓨터를 조작하는 게 가능하다.
시장조사기관 그랜드뷰리서치에 따르면, 지난 2019년 기준 전 세계 BCI 시장은 12억 달러 규모였다. 2027년에는 37억 달러까지 성장할 것으로 전망된다. 키보드, 마우스가 아닌 뇌파로 컴퓨터를 조작하는 방법은 장애 등으로 신체를 사용하지 못할 때 유용하게 사용될 수 있기 때문에 BCI에 대한 연구는 끊임없이 진행되고 있다.