MENU
CLOSE

홍보자료

[AI] 사람이 소리로 위치를 파악하듯... 인공지능도 소리로 객체 위치 추정한다! 2022-03-07

이미지:  MIT 맥거번 뇌 연구소(McGovern Institute for Brain Research at MIT)

이미지: MIT 맥거번 뇌 연구소(McGovern Institute for Brain Research at MIT)

인간의 두뇌는 특정 소리를 인식할 뿐만 아니라 소리가 나는 방향을 인지하도록 미세 조정된다. 즉, 뇌는 오른쪽 귀와 왼쪽 귀에 도달하는 소리의 차이를 비교하여 개가 짖는 소리, 소방차의 사이렌 소리 또는 다가오는 자동차의 소리 등으로 객체의 위치를 추정할 수 있다.



인간의 귀는 외이, 중이, 내이의 세 부분으로 이루어졌으며, 외이(外耳)의 한 부분으로 소리를 모으는 역할과 다양한 크기와 모양을 가지고 있는 귓바퀴는 공기와 중이(中耳) 사이에서 소리의 에너지를 점차 좁아지는 귓속으로 모으는 음파의 임피던스 매치 역할을 한다. 이 흐름으로 인해 청신경(聽神經)을 통해 뇌로 전달되는 전기 신호가 만들어진다.



뇌는 이 신호를 분석하여 소리를 인식하는 것이다. 특히, 중뇌의 일부는 이러한 차이를 비교하여 소리가 나오는 방향을 추정하는 데 도움이 되도록 특수화되어 있다. 이 과정을 현지화(localization)라고도 한다. 그러나 이 과정은 환경이 메아리(반향, echo)를 생성하고 한 번에 많은 소리가 들리는 실제 조건에서 훨씬 더 어려워진다.



여기에, MIT 신경과학자들은 인공지능(AI)을 통해 그 복잡한 작업도 불구하고 소리로 객체의 위치를 추정할 수 있는 AI 모델을 개발했다. 다수의 컨볼루션 네트워크(합성곱 신경망, Convolutional Neural Networks. 이하, CNN)으로 구성된 이 모델은 인간처럼 작업을 수행할 뿐만 아니라 인간이 소리의 위치를 파악하는 것과 같은 방식으로 진행된다.




- 중략 -


기사 원문보기 >


목록

top