상단여백
HOME 뉴스·정책
수화 몰라도…입모양만 봐도 대화를?




최근 영국 옥스퍼드대학 연구팀이 청각 장애인이 상대방의 입술 움직임만 보고 말을 판단할 수 있게 해주는 전용 소프트웨어인 립넷(LipNet)을 이용해 판독 정밀도 93.4%를 달성했다고 한다.

이 정도면 청각 장애인의 커뮤니케이션 수준을 크게 높일 수 있는 건 물론 음성 인식 기술 향상에도 도움이 될 것으로 보인다. 실제 사람이나 언어에 따라 차이가 있겠지만 전문가도 이런 입술 움직임만 보고 말을 판단하는 정확도는 52% 정도라고 한다. 그만큼 음성을 막아둔 채 입 모양만으로 대화를 알아낸다는 건 쉬운 일이 아닌 것.





립넷은 구글 딥마인드를 활용한 머신러닝 시스템을 이용한다. 지금까지 컴퓨터의 힘을 빌려 입 모양만으로 음성 인식을 하려는 시도가 있었지만 모두 단어 수준을 읽는 정도였다. 하지만 립넷의 경우 전문가가 말이 길어질수록 정확하게 읽어내는 데 주목, 스토리인 문장 전체를 해석하기 위해 노력하고 그런 다음 한 단어씩 정확하게 읽어가는 방식을 택했다고 한다.





다양한 화자를 통해 여러 대화를 데이터베이스로 축적하면서 점점 정확도가 높아진 건 물론이다. 이젠 스마트폰이 보급되면서 영상 통화도 흔한 일이 됐다. 카메라에 대고 말을 하더라도 상대방이 청각 장애인이거나 스피커를 켜놓을 수 없는 상태라면 이를 텍스트로 변환해 커뮤니케이션의 폭을 넓힐 가능성이 있다. 관련 내용은 이곳에서 확인할 수 있다.

https://www.youtube.com/watch?v=fa5QGremQf8

이석원 기자  lswcap@techholic.co.kr

<저작권자 © 테크홀릭, 무단 전재 및 재배포 금지>

이석원 기자의 다른기사 보기
인기기사
추천기사
기사 댓글 0
전체보기
첫번째 댓글을 남겨주세요.
여백
여백
재미있는 테크월드 세상
여백
여백
여백
여백
여백
여백
여백
Back to Top