눈 움직임으로 아이폰 쓴다…애플, 아이트래킹 기술 공개
신체 장애 사용자 위해 눈만으로 아이폰 등 탐색 가능…하반기 출시
청각 장애 사용자 위한 음악 햅틱, 맞춤형 명령 등 기능도 추가 예정
올해 하반기 출시될 예정인 애플의 새로운 손쉬운 사용 기능에는 사용자가 오직 눈만 사용해 아이패드와 아이폰을 탐색할 수 있는 눈 추적이 포함된다. (사진=애플 제공) *재판매 및 DB 금지
[서울=뉴시스]윤현성 기자 = 애플이 신체적 장애가 있는 사람들을 위해 눈으로만 아이폰, 아이패드를 제어할 수 있는 AI(인공지능) 기반 기술을 선보인다.
애플은 눈 추적 기술을 비롯해 올 하반기 출시 예정인 새로운 손쉬운 사용 기능을 17일 공개했다.
AI를 기반으로 구현되는 눈 추적은 사용자가 오직 눈만 사용해 아이폰과 아이패드를 탐색할 수 있게 해주는 기본 탑재 옵션이다. 신체적 장애가 있는 사용자를 위해 고안된 눈 추적은 전면 카메라를 사용해 몇 초 만에 설정 및 조정을 마칠 수 있도록 돕는다.
눈 추적 설정 과정에 활용되는 모든 데이터는 온디바이스 머신 러닝을 통해 기기 자체에 안전하게 보관되고 애플에 공유되지 않는다.
눈 추적은 아이패드OS 및 iOS 앱에서 작동하며 다른 하드웨어나 액세서리는 불필요하다. 사용자는 눈 추적을 통해 앱의 다양한 요소를 탐색할 수 있고, 잠시 멈춤 제어를 사용해 각 요소를 활성화한 뒤 오직 자신의 눈만으로 물리 버튼, 스와이프, 기타 제스처 등 다양한 기능에 접근할 수 있다.
청각 장애 또는 난청이 있는 사용자가 아이폰으로 음악을 경험할 수 있는 '음악 햅틱' 기능도 추가된다. 이 손쉬운 사용 기능을 켜면, 아이폰의 탭틱 엔진이 음악 소리에 따라 탭, 텍스처 및 섬세한 진동을 구현한다. 음악 햅틱은 애플 뮤직 카탈로그에 있는 수백만 곡의 음악에서 작동한다. 향후에는 수많은 개발자들이 제작한 앱에서 음악에 대한 접근성을 높일 수 있도록 개발자용 API로도 지원될 예정이다.
아이폰과 아이패드 사용자는 이제 음성 단축어를 사용해 시리가 단축어를 실행하고 복잡한 작업을 수행하도록 이해할 수 있는 맞춤형 명령을 지정할 수 있다.
또 다른 새로운 기능인 '리슨 포 에이티피칼 스피치(Listen for Atypical Speech)'는 사용자에게 음성 인식 기능을 향상하는 옵션을 제공해 말하는 방식을 한층 다양화한다. 이 기능은 온디바이스 머신 러닝을 활용해 사용자의 말하기 패턴을 인식한다.
뇌성마비, 루게릭병, 뇌졸중 등 언어 능력에 영향을 미치는 후천적 또는 점진적 질환을 보유한 사용자를 위해 개발된 이 기능들은 언어 장애가 있거나 관련 위험에 처한 사용자를 위해 iOS 17에 도입된 기능에 구현돼 새로운 수준의 사용자화 및 제어 수단을 제공할 예정이다.
또 올해에는 비전OS에 청각 장애 또는 난청이 있는 사용자를 포함한 모든 사람이 실시간 채팅과 앱 내 오디오의 음성 대화 내용을 이해할 수 있는 시스템 전방위적 실시간 자막이 포함된다.
이외에도 ▲멀미를 줄여주는 '차량 모션 큐' ▲음성 명령, 색상 필터, 소리 인식 등 새로운 카플레이(CarPlay) 기능 ▲보이스오버의 새로운 음성 및 맞춤형 볼륨 조절 기능 ▲점자 화면 개선 ▲복잡한 단어도 지원하는 음성 명령 등 손쉬운 사용 기능들이 추가될 예정이다.
팀 쿡 애플 CEO(최고경영자)는 "우리는 혁신을 통한 변화의 힘이 삶을 더욱 풍성하게 만든다고 확신한다. 애플이 손쉬운 사용을 하드웨어와 소프트웨어의 핵심 기능으로 탑재함으로써 포용적인 디자인 개발에 애쓰는 것도 바로 이러한 이유 때문"이라며 "우리는 쉬지 않고 기술의 경계를 확장해나갈 것이며, 이 새로운 기능들은 모든 사용자에게 가능한 최고의 경험을 선사하고자 하는 우리의 오랜 노력을 반영할 것"이라고 말했다.
◎공감언론 뉴시스 [email protected]
Copyright © NEWSIS.COM, 무단 전재 및 재배포 금지