상단여백
HOME 뉴스·정책
음악 이해하는 AI를 위한 데이터세트




인간은 음악을 듣고 이 곡이 바흐가 작곡한 것이라든지 이 부분은 모차르트와 비슷하다는 식으로 분석을 할 수 있다. 이 때 뇌에선 음 높이와 길이를 분석하고 자신의 기억과 일치하는 지 여부 등을 따지는 처리가 이뤄진다. 그런데 컴퓨터도 비슷한 능력을 가능하게 하기 위한 데이터세트가 공개됐다.

지난 11월 미국 워싱턴대학 연구팀은 클래식 음악을 분석한 방대한 데이터세트인 뮤직넷(MusicNet)을 발표한 바 있다. 이 데이터세트는 330곡에 이르는 라이선스 무료 음원을 분석한 것이다. 연구하는 모든 음에 대한 음정과 발음, 타이핑 등을 분초 단위로 세밀하게 데이터화하는 데 성공한 것이다. 그 결과 소리 데이터 수는 100만 개 이상에 달한다고 한다.

덕분에 음원에 대해 소리의 높이와 길이 심지어 연주하는 악기에 대한 자세한 데이터 변환이 가능하다. 말하자면 실제로 울리는 소리를 바탕으로 자세한 악보를 채보한 데이터라고 할 수 있다. 이런 데이터세트를 바탕으로 인공지능에 음악을 학습시키고 클래식 음악을 구축하기 위한 시도가 이뤄지고 있다.

워싱턴대학 샴 카카드(Sham Kakade) 교수는 작곡한 음악을 어떻게 더 잘 이해하고 어떤 요소가 ‘바흐다운 것’과 연결되어 있는지 이해하는 것에 관심을 두고 있다고 밝히고 있다. 이런 점에서 머신러닝과 작곡 분야에서 뮤직넷이 창의력과 실제 제작에도 장점으로 발휘되기를 기대한다는 것이다.

지금까지 음악 분석은 사람의 귀와 손에 의해 진행되어 왔다. 하지만 뮤직넷은 방대한 데이터를 바탕으로 이런 활동을 거의 자동화할 수 있다는 점에서 앞으로 큰 이점이 있을 것으로 보인다. 사진 내용을 빅데이터와 인공지능에 의해 분석하거나 인물을 분석하는 이미지넷(ImageNet)을 음악 세계에서 구축, 실현하려는 시도라고 할 수 있다.

연구팀은 이 데이터세트를 공개해 누구나 내려 받을 수 있도록 하고 있다. 또 논문도 심사 중이지만 발표할 예정이다. 관련 내용은 이곳에서 확인할 수 있다.

https://www.youtube.com/watch?v=fJtBH0H6-qc

이석원 기자  lswcap@techholic.co.kr

<저작권자 © 테크홀릭, 무단 전재 및 재배포 금지>

이석원 기자의 다른기사 보기
인기기사
추천기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
재미있는 테크월드 세상
여백
여백
여백
여백
여백
여백
여백
Back to Top