홈페이지 » UI / UX » (거의) 여기에있는 차세대 사용자 인터페이스

    (거의) 여기에있는 차세대 사용자 인터페이스

    컴퓨팅에서 사용자 인터페이스 (UI)에 관해 이야기 할 때, 우리는 컴퓨터 프로그램이나 시스템이 사용자에게 어떻게 나타나는지, 일반적으로 그래픽, 텍스트 및 사운드를 통해. 우리는 마우스 커서로 바탕 화면의 아이콘과 상호 작용하는 전형적인 Windows 및 Apple 운영 체제에 익숙합니다. 그 전에는 구식 텍스트 기반 명령 줄 프롬프트가있었습니다..

    텍스트에서 그래픽으로의 전환은 1984 년 Apple의 설립자 인 Steve Jobs가 그의 유명한 Macintosh 운영 체제로 시작한 도약이었습니다. 최근 몇 년 동안 우리는 터치 (예 : 스마트 폰) 사용과 관련된 혁신적인 UI를 목격했습니다. 음성 (예 : Siri) 및 심지어 제스처 (예 : Microsoft Kinect). 그러나 그들은 개발의 주요 단계에 있습니다..

    그럼에도 불구하고 그들은 UI의 다음 혁명이 어떻게 될지에 대한 단서를 제공합니다. 이상한? 여기있다. 차세대 UI의 8 가지 핵심 기능:

    1. 제스처 인터페이스

    2002 년 공상 과학 소설 Minority Report는 컴퓨터 시스템과의 상호 작용이 주로 제스처를 사용하는 미래를 묘사했습니다. 미래의 장갑을 착용하고있는 톰 크루즈 (Tom Cruise)는 컴퓨터 시스템에서 이미지, 비디오, 데이터 시트를 조작하기 위해 손으로 다양한 제스처를 수행하는 것으로 나타났습니다.

    10 년 전만해도 공간 동작이 매우 원활하게 감지되는 사용자 인터페이스를 사용하는 것은 다소 거리가 먼 것처럼 보였을 것입니다. 오늘날 Wii 리모콘, Kinect 및 PlayStation Move와 같은 모션 감지 장치의 출현으로 인해 2010 년에는 미래의 사용자 인터페이스가 바로 그 방향으로 나아갈 수 있습니다.

    제스처 인식에서, 입력은 현재까지 장치, 터치 스크린 또는 음성을 통해 여전히 입력되는 컴퓨팅 작업을 수행하기 위해 손이나 다른 신체 동작의 형태로 제공됩니다. 그만큼 기존의 2 차원 UI에 z 축 추가 의심 할 여지없이 인간 - 컴퓨터 상호 작용 경험을 향상시킬 것입니다. 얼마나 많은 함수가 우리 몸 움직임에 매핑 될 수 있는지 상상해보십시오..

    음, g-speak의 데모 비디오입니다. John Underkoffler가 디자인 한 Minority Report의 컴퓨터 인터페이스 프로토 타입입니다. John Underkoffler가 실제로이 영화의 과학 고문이었습니다. 손짓을 통해 3D 평면에서 수천 장의 사진을 탐색하고 동료 팀원들과 팀 작업에 어떻게 협력하는지보십시오. 흥분한? Underkoffler는 그러한 UI가 향후 5 년 내에 상업적으로 이용 가능할 것이라고 믿습니다..

    2. 두뇌 - 컴퓨터 인터페이스

    우리의 두뇌는 모든 종류의 전기 신호를 우리의 생각과 함께 발생시킵니다. 각각의 특정 생각에는 자체 브레인 웨이브가 있습니다. 무늬. 이들 고유 한 전기 신호를 매핑하여 특정 명령을 수행 할 수 있습니다. 생각을 생각하면 실제로 설정 명령을 수행 할 수 있습니다..

    Emotiv Lifescience의 공동 설립자이자 사장 인 Tan Le가 만든 EPOC 신경 헤드 세트에서 사용자는 생각에 의해 생성 된 그들의 뇌파를 탐지하는 미래 지향적 인 헤드셋.

    이 데모 비디오에서 볼 수 있듯이 생각에 의해 실행 된 명령은 매우 원시적입니다 (즉, 사용자쪽으로 큐브를 당기는 것). 그러나 탐지는 몇 가지 어려움에 직면 해있는 것처럼 보입니다. 이 UI가 적절하게 개발되는 데 다소 시간이 걸릴 것으로 보입니다..

    어쨌든, (먼) 미래를 상상해보십시오. 생각만으로 컴퓨터 시스템을 운영한다.. 아침에 침대에서 나오지 않고도 조명을 켜고 끌 수있는 '스마트 홈'의 개념부터 뇌파를 통해 기분에 맞는 궁극적 인 게임 경험에 빠져드는 아이디어에 이르기까지, 그러한 멋진 UI의 잠재력은 실질적으로 무한합니다..

    3. 유연한 OLED 디스플레이

    스마트 폰의 터치 스크린이 견고하고 명령에 충분히 응답하지 않는 경우 유연한 OLED (유기 발광 다이오드) 디스플레이를 시험해 보는 것이 가장 먼저 할 수 있습니다. OLED는 압연되거나 늘어난 상태에서도 빛을 발산 할 수있는 유기 반도체입니다. 플라스틱으로 구부릴 수있는 기판 위에 붙이면 새롭고 덜 단단한 스마트 폰 화면을 갖게됩니다..

    또한이 새로운 화면은 컴퓨터 시스템과 상호 작용하기 위해 비틀어 지거나 구부러 지거나 접힐 수 있습니다. 휴대폰을 구부리거나 축소하려면 구석을 뒤틀어 볼륨을 높이고, 다른 구석을 뒤집어서 아래로 돌리거나, 양면을 뒤틀어 사진 등을 스크롤하십시오.

    이러한 유연한 UI 덕분에 우리 손에 터치 스크린 사용에 너무 몰두 한 경우에도 자연스럽게 스마트 폰과 상호 작용합니다.. 이것은 gloved 손가락을 향한 스마트 폰 스크린의 감도 (또는 부족함)에 대한 해답 일 수도 있고 손가락이 너무 커서 오른쪽 버튼에 도달 할 수 없을 때의 해답 일 수도 있습니다. 이 UI를 사용하면 전화를 받기 위해 손바닥으로 전화기를 쥐어 짜기 만하면됩니다..

    4. 증강 현실 (Augmented Reality, AR)

    Wikitude와 같은 일부 스마트 폰 앱에 대해서는 이미 AR을 경험하고 있지만 개발 초기 단계에 있습니다. AR은 곧 출시 될 Google의 Project Glass (안경 착용 가능 안경)를 통해 인지도가 가장 향상되었습니다. 가상 확장 기능보기 당신이 상호 작용할 수있는 현실을 기대할만한 멋진 데모가 있습니다..

    AR은 안경 이외의 것일 수 있습니다. 실시간으로 실제 환경과 상호 작용한다.. 유용한 정보를 제공하기 위해 물건, 건물 및 주변을 견딜 수있는 투명 장치를 그림으로 그립니다. 예를 들어 외국 간판을 발견하면 유리 장치를 통해 쉽게 읽을 수 있도록 번역 된 것을 볼 수 있습니다.

    AR은 자연 환경을 이용하여 디스플레이를 벽이나 자신의 손으로 투사하여 상호 작용할 수있는 모바일 사용자 인터페이스를 만들 수 있습니다.

    SixthSense, AR을 사용하는 MIT에서 개발 한 착용 식 제스처 인터페이스 프로토 타입.

    5. 음성 사용자 인터페이스 (VUI)

    1979 년 크리스 슈만트 (Chris Schmandt)의 'Put That There'비디오 프레젠테이션 이후로 음성 인식은 혁명적 인 성공을 거두지 못했습니다. VUI에 대한 가장 최근의 선전은 Siri가되어야합니다. Siri는 Apple의 iOS에 통합 된 개인 비서 애플리케이션입니다. 음성 인식 기능을위한 자연어 사용자 인터페이스를 사용하여 Apple 장치에서만 작업을 수행합니다..

    그러나 Google Glass와 같은 다른 사용자 인터페이스 기술에서도 지원 행위로 간주됩니다. 글래스는 기본적으로 스마트 폰처럼 작동하며, 손가락을 단단히 잡고 들지 않아도됩니다. 대신에 안경으로 당신을 붙잡고 음성 명령으로 명령을 받는다..

    현재 VUI에서 부족한 것은 네가하는 말 인식의 신뢰성. 완벽하고 미래의 사용자 인터페이스에 통합 될 것입니다. 스마트 폰 기능이 현재 확장되고 발전하고있는 속도에서 VUI가 인간 - 컴퓨터 상호 작용의 주요 형태 모든 컴퓨팅 시스템 용.

    6. 유형 사용자 인터페이스 (TUI)

    컴퓨터 시스템을 가지고 있다고 상상해보십시오. 현실 세계의 물체를 인식 할 수 있도록 물리적 환경을 디지털 영역과 융합시킨다.. Microsoft Pixelsense (이전에는 Surface라고 함)에서 대화 형 컴퓨팅 표면은 화면에 배치 된 개체를 인식하고 식별 할 수 있습니다.

    Microsoft Surface 1.0, 물체의 빛이 여러 개의 적외선 카메라에 반사 됨. 이것은 시스템 화면에 놓인 아이템을 포착하고 반응한다..

    고급 버전의 기술 (Microsoft PixelSense가 장착 된 Samsung SUR40)에서는 화면에 다음과 같은 내용이 포함되어 있습니다. 센서 대신 카메라가 화면을 터치하는 것을 감지. 이 표면에서는 실제 브러시 팁에 의한 입력을 기반으로 페인트 브러시로 디지털 페인팅을 만들 수 있습니다.

    이 시스템은 또한 크기와 모양을 인식하고 내장 태그와 상호 작용하도록 프로그래밍 예 : 화면에 태그가 달린 명함이 표시되면 카드의 정보가 표시됩니다. 표면에 배치 된 스마트 폰은 전화기의 갤러리에있는 이미지를 화면에 원활하게 표시하도록 시스템을 트리거 할 수 있습니다..

    7. 착용 식 컴퓨터

    이름에서 알 수 있듯이 웨어러블 컴퓨터는 액세서리 또는 의류처럼 착용 할 수있는 전자 장치. 장갑, 안경, 시계 또는 정장 일 수 있습니다. 웨어러블 UI의 핵심 기능은 손을 자유롭게해라. 당신의 일상 활동을 방해하지 않을 것입니다. 다른 말로 표현하면 2 차 활동 언제든지 액세스 할 수 있습니다..

    스마트 폰처럼 작동하는 시계가 있다고 생각하십시오. 소니는 이미 올해 초 안드로이드 폰과 함께 블루투스를 통해 페어링 할 수있는 안드로이드 탑재 스마트 워치를 출시했다. 새 이메일 및 트윗에 대한 알림을 제공 할 수 있습니다. 모든 스마트 폰과 마찬가지로 쉽게 호환되는 응용 프로그램을 Sony SmartWatch에 다운로드하여 쉽게 사용할 수 있습니다.

    스마트 기능을 지닌 마이크로 칩이 나노 크기로 성장하고 일상적인 착용에 적합하므로 가까운 장래에 착용 가능한 UI를 기대하십시오..

    8. 센서 네트워크 사용자 인터페이스 (SNUI)

    다음은 컬러 LCD 화면, 내장 가속도계 및 IrDA 적외선 트랜시버로 구성된 콤팩트 타일이 여러 개있는 유체 UI의 예입니다. 가까운 곳에 둘 때 서로 상호 작용한다.. 이것을 간단하게 만들어 보겠습니다. 서로 옆에 놓았을 때 데이터를 반영하도록 변경되는 화면이있는 스크래블 타일과 같습니다..

    Siftables의 데모 비디오에서 볼 수 있듯이 사용자는 틸팅, 흔들기, 들어 올리기 및 범핑으로 타일과 물리적으로 상호 작용합니다. 다른 유사한 타일들과 함께. 이 타일들은 고도로 상호 작용할 수 있습니다. 학습 도구 그들의 행동에 즉각적인 반응을 얻을 수있는 어린 아이들을 위해.

    SNUI도 좋습니다. 게임 플레이에 타일 이동 및 회전이 포함 된 간단한 퍼즐 게임 이기다. 그런 다음 이 타일을 그룹화하여 이미지를 물리적으로 정렬합니다. 귀하의 선호도에 따라. 더 많은 군중 지원 TUI입니다. 한 화면 대신 몇 개의 작은 화면으로 구성되어 서로 상호 작용합니다..

    가장 기대되는 UI?

    이러한 UI가 새로운 세대의 사용자에게보다 직관적이고 자연스러워지면서, 우리는 공유해야하는 지식의 홍수를 소화하는 능력을 지속적으로 테스트하는보다 몰입 형 컴퓨팅 경험으로 대우 받고 있습니다. 그것은 압도적 일 것이고, 때로는 흥미 진진 할 것이고, 앞으로 올 새로운 기술에서 기대할만한 것입니다..

    더!

    미래가 우리를 위해 무엇을 가지고 있는지보고 싶습니까? 아래의 링크를 확인하십시오..

    • 교육을위한 5 가지 주요 증강 현실 앱
    • 미래의 스마트 폰에서 기대할 수있는 5 가지 주요 특징
    • Jaw-Dropping TED 비디오를 놓치지 마세요.

    다음 중 가장 멋진 UI는 무엇입니까? 또는 차세대 사용자 인터페이스에 대한 다른 아이디어가 있습니까? 댓글에서 의견을 공유하십시오..