Search
Duplicate

소리로 더 잘 보이는 세상 🔍

Apple은 지난 6월 열린 WWDC에서 사용자가 현실 세계 및 주변 사람들과의 연결성을 유지하도록 지원하면서 디지털 콘텐츠와 물리적인 세계를 매끄럽게 어우러지게 하는 혁신적인 공간 컴퓨터인 Apple Vision Pro를 발표했습니다. 사용자의 눈, 손, 음성을 통해 제어되는 인터페이스를 통해 디지털 콘텐츠가 마치 실제 공간에 물리적으로 존재하는 것과 같은 느낌을 사용자에게 제공할 수 있는 공간 컴퓨터의 등장은 많은 이들의 주목을 받았습니다.
(이미지 출처: Official Apple Website)
비전 프로의 등장이 시사하는 점 중 하는 디지털 콘텐츠가 단순히 시각 정보로 전달되기보다는, 다양한 오감을 다루게 되었다는 점입니다. 특히나 최첨단 오디오 경험을 통해 더 다양한 정보를 전달할 수 있게 되면서 사람들은 시각 정보의 한계를 넘어 더 풍부한 인사이트를 외부로부터 전달받을 수 있게 된거죠.
하지만 아직 비전 프로도 먼 미래 같은데, 음향 정보가 줄 수 있는 풍부한 인사이트도 어떤 것인지 와닿지 않으신다고요? 그렇다면 오늘은 Cochl과 함께 음향 정보가 어떻게 우리의 세계를 확장할 수 있을지 알아보도록 하겠습니다!

1. Listen to drive

(이미지 출처: Pixabay)
현대의 자동차는 이동 수단의 개념을 넘어서고 있습니다. 이 중심에는 특히나 고도화된 ‘인포테인먼트’ 환경이 있는데요, 주행과 관련된 정보 및 즐길 거리를 동시에 서비스하며 새로운 공간으로서의 의미를 자동차에 부여하고 있습니다. 인포테인먼트 시스템이 점점 더 발달해감에 따라 자동차에서 발생하는 ‘소리’의 중요성도 함께 주목받고 있습니다.
운전자는 운전 중에는 안전을 위해 전방을 항시 주시해야 하므로 시각적으로 받아들일 수 있는 정보의 한계가 있습니다. 또 자동차에서 나는 소리는 그 소리 각각에 따라 어떤 문제가 있는지 알 수 있습니다. 특히나 F1과 같은 스포츠카 레이싱을 떠올려보세요. 그런 레이싱 경기에서는 차에서 나는 온갖 소리가 정보이자, 경기의 승패를 좌우하는 변수로 작동하기도 하죠.
가령, 여러분이 운전 중일 때 내 옆에 있는 차가 차선 변경하려고 하는 경험을 해보신 적 있으실 거예요. 이때 눈으로 힐끔 쳐다보고 어떤 상황인지 알아차릴 수 있지만, 어떨 때는 아예 무슨 일이 일어나고 있는지 모를 때도 있습니다. 그런 상황에서 네비게이션 음성이 내 귓가에 대고 옆에 있는 차량이 차선 변경을 진행하려고 한다고 말해준다면, 굳이 보지 않아도 상황을 직관적으로 이해할 수 있을 것입니다.
인포테인먼트 시스템에서 알려주는 시청각 신호들은 전반적인 운전 경험을 더욱 향상해줄 뿐만 아니라, 더 직관적으로 필요한 정보를 운전자에게 제공해줄 수 있습니다.

2. Listen to be safe

(이미지 출처: Pixabay)
우리 주위를 둘러보면 CCTV를 설치하지 않은 곳을 찾기 어려울 만큼 우리는 CCTV와 함께 살아가고 있습니다. 이런 환경이 우리에게 안정감을 주지만, 동시에 어디선가 사건 사고가 발생했다는 이야기를 듣게 되면 또 불안함에 떨게 됩니다.
CCTV가 우리 주변에 많지만 왜 여전히 우리는 불안에 떨고 있는 걸까요? CCTV는 모든 것을 보고 있는데도 말이죠. 아마 CCTV는 시각 정보만을 바탕으로 상황을 판단하기 때문에 상황이 안전한지 판단하는 데 많은 시간이 걸려서 그런 게 아닐까요? 예를 들어 사람들이 갑자기 한 방향으로 달린다면 CCTV는 사람들이 ‘왜’ 달리는지 이유를 파악하는 데 오래 걸립니다. 하지만 만약 음향 정보가 함께 지원된다면, 어떤 상황이 발생했을 때 ‘왜’ 그런 상황이 발생하는지에 대한 이유를 빠르게 파악할 수 있습니다.
만약 CCTV가 사람들의 비명 또한 들을 수 있다고 가정해 볼게요. 사람들의 비명이 어디서부터 시작되어서 어디로 이동하는지, 어느 정도의 크기인지 등의 정보를 통해 원인이 ‘어디’에 있는지 알 수 있다면 어떤 사고가 발생했을 때, 이 사고의 배경과 맥락에 대한 이해력을 크게 향상할 수 있고, 빠른 대응을 쉽게 하여 전반적인 안전성을 강화할 수 있습니다.

3. Listen to widen accessibility

건물 밖으로 나가 거리를 걷는 순간 많은 다양한 소리를 들을 수 있습니다. 새가 지저귀는 소리, 자동차가 빵빵 거리는 소리, 공사하는 소리 등 세상은 여러 소리로 가득 차 있으니까요. 좁은 길, 뒤에서 다가오는 차를 미쳐 보지 못해도 차 경적 소리를 듣고 옆으로 비켜서 차를 피할 수 있습니다. 혹은 운전중 저 멀리서 들리는 사이렌 소리를 듣고 구급차가 보이지 않아도 위급 상황이 발생한 걸 알 수 있습니다.
하지만 청각 장애를 가진 사람들은 한정적으로 음향 정보를 받아들일 수 있기 때문에, 세상이 보내는 많은 신호들을 놓치기 쉽습니다.
만약 스마트 AR/XR 기기 등을 통해 청각장애를 가진 분들도 간접적으로 음향 정보를 받아들이고, 해석할 수 있으면 어떨까요? 가령 AR 글래스에서 지금 들리는 소리를 표현해준다면 말이죠.
홀로렌즈 2와 같은 AR 기기에서 실시간으로 밖에서 들리는 모든 소리, 혹은 내가 선택한 소리를 알려준다면 청각 정보도 시각 정보로 받아들이고 이해할 수 있습니다.
오늘은 세 가지의 사례를 통해 음향 정보가 가져다 줄 수 있는 풍부한 인사이트를 보여드렸습니다. 방대한 오디오 데이터에서 의미 있는 정보를 추출하여 받아 볼 수 있는 인사이트를 맛보고 싶으신가요? 세상에 없던 Sound AI가 궁금하시다면 Cochl.Sense를 지금 당장 만나보세요