네이버 자율주행차 '진짜 도로' 달려요

국내 IT업계 최초 시험주행
내달 서울모터쇼2017도 참가

네이버 자율주행차 '진짜 도로' 달려요

네이버가 국내 정보기술(IT) 업계에서는 처음으로 일반 도로에서 자율주행차 시험 주행에 나선다.

네이버는 네이버랩스가 국토부가 부여하는 자율 주행차 임시운행 허가를 받았다고 20일 밝혔다. 네이버랩스는 지난달 네이버에서 별도 법인으로 독립한 자회사다.

현재까지 네이버랩스를 포함해 일부 자동차 관련 업체와 대학 및 연구소 등 8개 기관·기업에서만 허가를 받았다. 

업계에서는 이번 임시 운행으로 국내 IT업계의 기술이 자율주행차에 접목돼 관련 산업 발전을 가속화할 것으로 기대하고 있다. 

현재 네이버랩스는 모빌리티(Mobility) 팀을 구성해 미래 이동성 개선과 도로 환경의 정보화를 목표로 자율 주행과 첨단운전자지원시스템(ADAS)과 관련된 다양한 기술 분야를 연구하고 있으며, 내달 열리는 ‘서울모터쇼 2017’ 에도 참가해 자사의 자율 주행 기술을 선보일 예정이다.

송창현 네이버랩스 대표는 “지난해 개발자 컨퍼런스 데뷰(Deview) 2016를 통해 공개했던 네이버랩스의 자율 주행 기술이 실제 도로 상에서 시험이 가능한 수준임을 인정받은 것”이라며 “실제 도로 주행을 통해 자율 주행 기술 개발에 가속이 붙을 것으로 예상한다”고 말했다. 


(URL : http://www.sedaily.com/NewsView/1OC6HRPBWE)


통신사에서 제일빠르게 나올 줄 알았던 자율주행차 네이버에서 제일먼저 나왔는데 이에 대한 행보가 궁금하네요~

최근 들어 로보틱스 분야에서 플랫폼 붐이 일고 있다. 플랫폼은 소프트웨어 플랫폼과 하드웨어 플랫폼으로 나뉠 수 있다. 로봇 소프트웨어 플랫폼이란 로봇 응용프로그램을 개발할 때 필요한 하드웨어 추상화, 하위 디바이스 제어, 로보틱스에서 많이 사용되는 센싱, 인식, 자기 위치 추정과 지도 작성(SLAM), 모션 플래닝(Motion Planning) 등의 기능 구현은 물론이고, 패키지 관리, 개발 환경에 필요한 라이브러리와 다양한 개발/디버깅 도구 등을 포함하는 것을 말한다. 로봇 하드웨어 플랫폼의 경우 모바일 로봇, 드론, 휴머노이드 형태의 연구용 하드웨어 플랫폼뿐만 아니라 소프트뱅크의 페퍼, MIT 미디어랩의 지보 등 상업성 제품들도 출시를 코앞에 두고 있다. 

주목할 점은 이 하드웨어들도 앞서 말한 소프트웨어 플랫폼과 연계되어 추상화가 이루어지고 있다는 점이다. 이는 하드웨어에 대한 전문 지식이 없어도 소프트웨어 플랫폼을 이용하여 응용 프로그램을 작성할 수 있다는 것을 의미한다. 이는 최신 스마트폰의 하드웨어 구성이나 세부 내용을 몰라도 애플리케이션(앱)을 작성할 수 있는 것과 마찬가지이다. 또한, 로봇 개발자가 하드웨어 설계부터 소프트웨어 설계까지 도맡아 하던 이전 작업 프로세스와 달리, 더 많은 소프트웨어 인력들이 로봇 응용 프로그램 개발에 참여할 수 있다. 즉, 소프트웨어 플랫폼 덕분에 많은 이들이 로봇 개발에 동참할 수 있게 되었고, 소프트웨어 플랫폼에서 제안하는 인터페이스에 맞춰 로봇 하드웨어가 설계되고 있다.

이러한 소프트웨어 플랫폼에는 대표적으로 로봇 운영체제라 불리는 ROS(Robot Operating System)와 일본의 오픈 로보틱스 미들웨어(OpenRTM), 유럽의 실시간 제어 중심의 OROCOS, 한국의 OPRoS 등이 있다. 각자 이름은 다르지만 로봇 소프트웨어 플랫폼이 만들어진 근본적인 이유는 로봇 소프트웨어가 너무 다양하고 복잡해서 발생하는 여러 문제들을 전 세계의 로봇 연구자가 서로 협업하여 해결하려는 것이다. 

예를 들어, 로봇이 주변 상황을 인식하는 기능을 구현할 때 하드웨어가 다양하고 실생활에 직접 사용된다는 점은 어려움으로 작용한다. 사람의 입장에서는 매우 사소한 일이라고 하더라도 로봇의 입장에서는 센싱, 인식, 지도 작성, 모션 플래닝 등의 기능을 구현해야 하는데 개별 연구실, 회사에서는 이 모든 부분을 처리하기 힘들다. 하지만 전 세계의 관련 종사자가 각자 자신 있는 부분을 공유하여 다른 그룹에서 이를 사용할 수 있게 한다면 이야기는 달라진다. 

소셜펀드 킥스타터와 CES2015에서 주목받은 로봇베이스(Robotbase)라는 로봇 전문기업은 최근에 로봇베이스 퍼스널 로봇(Robotbase Personal Robot)을 개발하여 소셜펀드에서 론칭에 성공하였다. 로봇베이스사의 경우 자신들이 강한 얼굴인식과 물체인식에 집중하고, 모바일 로봇은 유진로봇의 거북이, 액추에이터로는 로보티즈의 다이나믹셀을 이용하였고 장애물 인식, 내비게이션, 모터 드라이브 등은 모두 ROS의 공개 패키지를 사용했다는 점에서 협업 가능성에 대한 실례를 보여주었다.

그럼 “왜 로봇 소프트웨어 플랫폼을 써야 하는가?” 몇가지 예를 들며 알아보도록 하겠다. 

첫째, 프로그램의 재사용성이다. 자신이 개발하고자 하는 부분에 집중하고 나머지 기능에 대해서는 관련 패키지를 다운로드하여 사용할 수 있다. 마찬가지로 자신이 개발한 프로그램은 다른 이들이 사용할 수 있도록 공유할 수도 있다. 예를 들어, 미국 NASA의 경우 국제 우주 정거장에서 사용하는 로보노트2(Robonaut2) 로봇 제어를 위하여 자체 프로그램 이외에도 다양한 드라이버 기능과 멀티 플랫폼에서 사용 가능한 ROS와 실시간 제어, 메시지 통신 복구, 신뢰성을 갖춘 OROCOS를 혼용함으로써 우주에서 임무를 수행할 수 있었다고 한다. 앞서 소개한 로봇베이스사의 경우도 재사용성을 충분히 살린 예이다.

둘째, 통신 기반 프로그램이다. 흔히, 하나의 서비스를 제공하기 위하여 센서나 액추에이터 단의 드라이브부터 센싱, 인식, 동작까지 하나의 프레임에서 프로그램을 작성하는 것이 많은데 로봇 소프트웨어의 재사용을 위해서는 이를 각각 처리 프로세서의 목적에 따라 작게 나누게 된다. 플랫폼마다 이를 컴포넌트화 혹은 노드 패키지화라고 한다. 최소 실행 단위로 나뉜 프로그램은 나누어진 컴포넌트(노드)끼리 데이터를 주고받아야 하는데 플랫폼들은 이 데이터 통신에 대한 전반적인 사항을 모두 갖추고 있다. 각 컴포넌트는 하드웨어 의존성을 떠나 네트워크에서 통신을 제공함으로써 네트워크 프로그래밍이 가능하게 되고 로보틱스에서 흔히 다루는 원격제어에서 매우 유용하다. 또한, 최소 실행 단위로 프로그램을 나누게 되면 작은 단위로 디버깅할 수 있어서 오류를 찾아낼 때도 매우 유용하다.

셋째, 개발도구 지원이다. ROS의 경우 디버깅 관련 툴, 2차원 플롯과 3차원 시각화 툴을 제공함으로써 로봇 개발에 필요한 개발 도구를 사용할 수 있다. 예를 들어, 로봇 개발에 있어서 로봇의 모델을 시각화하는 경우가 많은데 이를 정해진 포맷에 맞추기만 하면 로봇의 모델을 직접 확인할 수 있을 뿐만 아니라 3차원 시뮬레이터도 제공하기 때문에 시뮬레이션으로의 확장도 용이하다. 또한, 요즘 주목받는 마이크로소프트사의 키넥트 등으로 얻은 3차원 거리 정보는 점 군을 나타내는 포인트 클라우드 형태로 쉽게 변환하여 보여준다. 그 이외에도 실험에서 사용된 데이터는 녹화할 수 있으므로 언제든지 필요할 때 재생하여 실험할 때의 상황을 그대로 재현할 수도 있다. 이처럼 로봇 개발에 꼭 필요한 소프트웨어 도구를 제공하여 개발 편의성을 극대화한 점이 중요한 원인 중의 하나이다. 

넷째, 생태계 조성이다. 스마트폰 혁명은 안드로이드와 iOS 등 소프트웨어 플랫폼이 만든 생태계가 있기 때문이라고 한다. 로봇 분야도 마찬가지 흐름으로 이어 가고 있다. 처음에는 각종 하드웨어 기술들이 넘쳐흘렀으나, 이를 통합해 줄 운영체제가 전무했다. 이 상황에서 앞서 설명했던 것과 같이 다양한 소프트웨어 플랫폼이 등장했고, 가장 주목 받은 ROS의 경우 이제 그 생태계의 틀을 갖추기 시작했다. 그리고 로봇과 센서 회사처럼 로봇 관련 하드웨어 분야의 개발자, ROS 개발 운용팀, 응용 소프트웨어 개발자, 사용자 모두가 웃을 수 있는 생태계를 만들어 가고 있다. 아직 그 시작은 미미하지만, 점점 늘고 있는 사용자들과 로봇 관련 회사들 그리고 급격히 늘고 있는 관련 툴 및 라이브러리를 볼 때 머지않아 생태계가 원만하게 돌아갈 것이라고 기대해본다. 

다섯째, 활성화된 커뮤니티이다. 이 부분이 가장 중요하지 않을까 싶다. 지금까지 닫혀 있던 로봇 학계, 로봇 업계는 위에서 언급한 기능들로 인하여 서로 협업을 중시하는 방향으로 나아가고 있고 그 목적이야 서로 다를 수 있겠지만 이러한 소프트웨어 플랫폼을 통하여 협업이 실제로 이루어지고 있다. 이 중심에는 오픈 소스 소프트웨어 플랫폼의 커뮤니티가 있다. 예를 들어 ROS의 경우에는 자발적으로 1,600개 이상의 패키지들이 개발되어 공유되고 있고, 그 사용 방법을 설명한 위키 페이지가 사용자들의 개별적인 참여로 14,600페이지를 넘어서고 있다. 그리고 커뮤니티에서 매우 중요한 질의응답의 경우 18,000건 이상이 오고 가며 상생의 커뮤니티를 만들어 가고 있다. 이는 단순히 사용법에 대한 토론을 넘어서 로보틱스 소프트웨어에서 필요한 구성요소를 찾아내고 규칙을 만들고 있다. 나아가 로보틱스의 발전을 위해 로봇의 소프트웨어가 갖추어야 할 부분에 대해서 고민하고 부족한 부분은 서로 협업을 통하여 다수가 하나의 퍼즐을 맞추는 식으로 발전하고 있다.

로봇공학은 미래 산업, 차세대 성장 동력이라는 이름으로 산업용 로봇을 제외한 어떠한 비즈니스 모델도 없음에도 불구하고 장밋빛 미래를 바라며 기대만을 한껏 받고 있다. 문제는 이러한 이야기는 10년 전이나 지금이나 마찬가지지만 이렇다 할 답을 못 얻고 있다는 것이다. 그 이유는 무엇일까? 다양한 의견들이 있겠지만 로봇공학은 아직 비즈니스 모델로 만들기에는 부족한 부분이 많다는 것이고 아직 풀어야 할 숙제가 많다고 생각한다. 이 해결책으로 국가를 뛰어넘는 초월적인 협업이 이루어져야 한다고 생각하고 이는 소프트웨어 플랫폼과 이를 지탱하는 커뮤니티가 해결할 수 있다고 생각한다. ROS의 경우 학계 연구자, 산업현장의 개발자, 그리고 취미로 활동하는 하비스트(hobbyist)까지 개발에 참여하고 있다. 더욱이 로봇 전공자뿐만 아니라 네트워크 전문가, 컴퓨터 사이언스, 컴퓨터 비전 분야의 사람들도 대거 참여하고 있어서 로봇 분야뿐만 아니라 다양한 배경의 지식이 모여 융합을 이루고 있어서 로봇공학이 지금까지와는 다른 양상으로 발전할 것으로 예상되며, 개방과 협업을 통하여 지금까지 풀지 못한 숙제들을 풀 수 있을 것으로 생각한다. 또한, 이는 로봇 개발이 급속도로 발전할 수 있는 계기가 될 수 있을 것이다. 


▒  표윤석ㆍ일본 큐슈대학 JSPS 연구원

http://www.irobotnews.com/news/articleView.html?idxno=4436

 

 

 

(★★★★☆ / ★★★★★)

 

------------------------------------------------------------------------------------------------------------------------------

다들 재미없다 재미없다 하는데 히어로물을 좋아하는 사람으로서 재밌게 보았고

많은 떡밥들로 DC코믹스도 내년 원더우먼을 시작해서 차기 히어로물의 시작을 보여주는 듯 했다.

 

'Interest > Movie' 카테고리의 다른 글

데드풀(Deadpool) (2016) +19  (0) 2016.03.17
검사외전 (2016)  (0) 2016.03.17

VR이라는 것이 처음 공개된게 엇그제 같은데 어느덧 오큘러스 리프트, 바이브, 플레이스테이션 VR까지 가격과 발매일이 공개되었습니다. 온갖 VR 기기들이 출시되는만큼 2016년은 VR의 해라고 해도 과언이 없을 것 같네요. 현재 VR은 IT 시장 유망주로 각광받고 있고, 과연 VR의 인기가 일시적인 것일지 아니면 앞으로도 지속될 것인지에 대한 많은 이들의 토론도 계속되는 등 수많은 관심을 받고 있습니다.

이렇게 시끄러운 와중에 미국 유명 대학 중 하나인 카네기 멜론 대학에서 교수를 맡고 있는 게임 디자이너 Jesse Schell이 VR에 관한 40가지 예언 을 했습니다.

한번 그 40가지 예언을 쭉 살펴볼까요?

예언자(?) Jesse Schell

1. VR은 한때의 유행으로 끝나지 않는다. 올해는 VR의 원년이 되는 해가 될 것이다.

2. 2017년까지 VR은 800만 대 가량 팔릴 것이다. 400만 대는 PS VR일 것이고 300만 대는 오큘러스 리프트, 100만 대는 바이브가 될 것이다.

3. 게이머들은 새로운 물건을 살 준비가 되어있으며 하나의 PC/콘솔용 VR 헤드셋마다 4개의 모바일 헤드셋은 갖출 것이다.

4. 헤드셋 판매량은 포화기가 올 때까지 매년 2배씩 늘어날 것이다. 그리고 2022년까지 512만 대의 PC/콘솔용 헤드셋이, 20억 대의 모바일 헤드셋이 판매될 것이다.

5. VR은 더더욱 유명해질 것이고 CES 2017에는 50가지 정도의 다른 헤드셋이 출품될 것이다.

6. 소니가 1000만 대 가량 헤드셋을 판매할 때가 되면, MS 또한 Xbox One을 위한 것을 하나 공개할 것이다. 아마 E3 2018 쯤이지 않을까 싶다.

7. 2022년에 VR의 소비 대부분은 모바일이나 PC를 위한 VR이 아닌 NDS나 PSP와 같이 자체적으로 VR 시스템을 제공하는 모바일형 VR 헤드셋이 될 것이다. 그리고 이러한 걸 닌텐도가 내놓는다고 장담할 수 있다.

8. VR 개발사가 아닌 타 게임사에서 만든 VR 게임들이 2017년 말에는 VR 게임 판매량 Top 10에 들 것이다. 아마 플랫폼은 PS VR이 대부분이지 않을까?

9. 매든 NFL 2018은 VR 에디션을 따로 출시할 것이다.

10. 2018년 말에는 VR에 특화된 아예 새로운 장르가 등장할 것이다.

영국 유명 신문 THE SUN에 보도된 내용

11. 2017년 말에는 아마 언론이 적어도 한개 이상의 슈팅 VR 게임을 어떤 사건에 연관지어 비난할 것이다. 

12. 2017년 말에는 뉴스에 VR 중독에 관한 보도가 자주 나타날 것이다.

13. 2018년 말에는 적어도 3개 이상의 할리우드 영화들이 VR에 관한 우리의 두려움을 이용하여 만들어질 것이다.

14. 2025년에는 VR 홈 무비들이 흔해질 것이다.

15. VR 영화로써 첫번째로 상을 타는 작품은 다큐멘터리가 될 것이다.

16. 2020년에는 VR 포르노가 세계적으로 10억 달러 이상의 규모를 가진 시장이 될 것이다.

17. 2020년에는 적어도 10개의 VR 리얼리티 쇼가 등장할 것이다.

18. 단테의 신곡은 VR로 보여주기에 매우 좋은 스토리텔링 모델이 될 것이다.

19. 2018년 말이 되면 컴캐스트는 VR 채널을 따로 제공할 것이다. 이에 대응하여 버라이즌은 채널을 2개 만들 것이다.

20. 2025년이 되면 VR로 제작된 장편 영화를 친구들과 함께 극장에 가서 볼 수 있게 될 것이다.

괴수 영화가 VR로 나온다면 이런 느낌일까?

21. 2025년에는 VR 소비의 대부분이 사회적 경험으로부터 나온 것이 될 것이다.

22. 2018년에 VR 게임 Top 10 가운데 하나는 댄스 게임이 될 것이다.

23. 2025년에 VR을 활용한 보드 게임은 1억 달러 규모의 사업이 될 것이다.

24. 2020년에는 VR MMO 가운데 적어도 하나가 100만 명 이상의 플레이어를 가지게 될 것이다. VR MMO는 정말로 엄청난 물건이 될 것이다.

25. 2018년 말에는 VR 소셜 플랫폼 시장을 이끄는 플랫폼이 등장할 것이며, 그 플랫폼은 VR 소셜 플랫폼을 처음으로 시작하는 기업은 아닐 것이다.

26. 2018년에 VR을 활용한 이모티콘은 매우 대중화될 것이며 그것들은 웃긴 이름을 가지고 있을 것이다.

27. 2017년에 모든 미국의 테마파크들은 VR을 이용한 놀이기구를 가지고 있을 것이다.

28. Jesse Schell은 작년에 2020년에는 전세계에 적어도 20개 이상의 VR 롤러코스터들이 있을 것이라고 예측했다. 그러나 그건 이미 이루어졌다. 현재 전세계에는 24개의 VR 롤러코스터들이 있다.

29. 2025년까지 실세계에 3차원 가상물체를 겹쳐 보여주는 증강현실 (AR)을 구현할 수 있는 안경이 상용화될 수 있을 것이다.

30. 2025년까지 AR 시장은 Vrvana Totem이나 구글 탱고와 같은 비디오 AR 시스템에 정복당할 것이다.

지난 CES 2016에서 선보인 무선 VR 헤드셋 The Cortex

31. AR 기술은 TV에 접목될 가능성이 매우 크다. 아마도 광고 같은 것에서 물건이 튀어나오는 형태로 먼저 선보이지 않을까.

32. AR을 활용한 강의는 2025년에는 매우 대중화될 것이다. 아마 대학에서부터 시작되어 매우 강력한 교육 도구가 될 것으로 보인다.

33. 2025년이 되면 아이들이 집 안에서 유령을 쫓는 일이 매우 흔한 일이 될 것이다. 물론 이런 장르는 어른들도 매우 좋아할 것이다.

34. 2018년에는 게이머들은 쓰기 편한 얇은 헤드셋을 착용할 것이다.

35. 하드코어 게이머들은 조립형 PC처럼 렌즈를 골라서 장착시킬 수 있는 조립형 VR 헤드셋을 사용할 것이다.

36. 2018년에 내 시선을 따라 움직이는 아이트래킹 기술을 장착한 VR 헤드셋이 출시될 것이다.

37. 2020년에는 내가 바라보는 곳을 중심으로 하고 나머지 화면은 뿌옇게 만드는 foveated rendering기술이 본격적으로 등장할 것이며, 2025년에는 본격적으로 상용화될 것이다.

38. 2025년이 되면 VR 헤드셋들은 무선이 될 것이다.

39. 2020년에는 VR/AR 기기들을 위한 직접 게임 내에 있는 것을 만질 수 있는 장치들이 본격적으로 판매될 것이다.

40. 2025년에 가정용 로봇들은 VR과 접목되어 처음으로 집 안에 등장할 것이다.

과연 이 교수님의 예언이 어디까지 들어맞을지 벌써부터 궁금해지네요! 정말로 이것 중에서 들어맞는게 있다면 정말 소름 돋을 것 같네요.

정말로 이 예언들처럼 VR이 지금의 스마트폰처럼 IT계의 혁명이 될지 아니면 단순한 반짝임이 될지 궁금해집니다.


URL : http://post.naver.com/viewer/postView.nhn?volumeNo=3812170&memberNo=176737&navigationType=push&mainMenu=GAMEAPP




(★/★)



'Interest > Movie' 카테고리의 다른 글

배트맨 대 슈퍼맨 : 저스티스의 시작 (2016)  (0) 2016.03.28
검사외전 (2016)  (0) 2016.03.17




/


'Interest > Movie' 카테고리의 다른 글

배트맨 대 슈퍼맨 : 저스티스의 시작 (2016)  (0) 2016.03.28
데드풀(Deadpool) (2016) +19  (0) 2016.03.17

nest2

2014년 구글에 인수된 스마트홈 전문 기업 네스트 랩스(Nest Labs)이 보다 편리한 스마트홈 시스템 구축 기능  '홈어웨이 어시스트(Home/Away Assist)'를 발표했다. 

테크크런치(TechCrunch) 등 주요 외신들은 이번에 추가된 기능 중 주목해야 할 부분은 ‘가족계정(family account)’으로 가족들이 외출 시 자동으로 문단속을 하는 기능이다. 

가족계정 기능은 하나의 네스트 제품에 최대 10명까지 계정을 만들 수 있으며, 사용자가 접속 및 조절을 할 수 있다. 또한 별도의 추가적인 계정 생성과 암호 공유 없이 부모와 아이들이 모두 사용할 수 있다. 

가족계정 사용자는 네스트 제품에 대한 월별 보고서를 얻을 수 있을 뿐 아니라, 실시간 사용 현황에 대한 정보 역시 얻을 수 있게 된다. 

가족계정 기능과 더불어 추가된 '홈어웨이 어시스트 기능은 움직임을 감지하는 센서를 통해 집 내부에 사람이 있는지 여부를 파악하여 온도가 자동으로 조절되도록 한다. 심지어 집 내부에 사람이 없는 경우에는 이를 파악하여 온도조절 관련 전원을 끄는 것이다. 

또한 집 내부의 움직임을 감지하는 기능을 더욱 향상시켜, 집 내부의 움직임과 아울러 집 외부 울타리까지 감시하는 기능이 추가될 것으로 예상된다.  

네스트는 집안 온도조절기로 인공지능, 즉 머신러닝과 딥러닝 소프트웨어를 탑재하고 있어 사용자의 온도조절 패턴을 학습시킨 후에는 기기 스스로 온도 조절을 해주는 방식(지도학습, 비지도학습)이다.

구글은 스마트홈 시장의 확대에 따른 관련 시장을 끌고 가기 위해 첨병으로 네스트에 꾸준히 투자하고 있다.


[이강민 기자  kangmin@itnews.or.kr]

URL : http://www.itnews.or.kr/?p=17901

------------------------------------------------------------------------------------------------------------------------

요즘 핫한 트렌드인 홈네트워킹과 한창 이세돌 9단과의 경기로 급부상한 인공지능 기술의 콜라보가 기대된다.

AlphaGo

“인류의 충격이다” “조만간 영화 터미네이터처럼 되는 것은 아니야?” “우울하다” “기계가 인간을 꺽다니?”

구글 알파고(AlphaGo)가 이세돌 9단을 1국에서 승리한 이후 반응이다. 하루 종일 구글 알파고와 이세돌 9단의 세기의 대결 결과에 대한 이야기로 떠들썩했다. 

9일 서울 광화문 포시즌즈 호텔에서 열린 구글 딥마인드 챌린지 매치 첫 번째 게임에서 바둑 컴퓨터 프로그램 ‘알파고'가 지난 10년 간 최고의 바둑 기사로 꼽혀온 이세돌 9단을 상대로 186수만에 불계승을 거두었다. 

대국 현장은 한쪽에 이세돌 9단이, 반대쪽은 인공지능 바둑 프로그램인 알파고가 대결을 펼쳤다. 알파고는 구글이 2014년에 인수한 영국의 딥마인드(DeepMind)가 개발한 인공지능 바둑 프로그램으로 소재지는 영국으로 미국에 있는 구글 클라우드를 통해 대국장의 디스플레이에 착수를 놓아 보여주면, 대국 현장의 대리인인 알파고 개발팀의 일원인 대만계 아자 황(Aja Huang, 아마 6단)이 대신해 착수를 놓는 방식이다. 

바둑은 고도의 복잡성 때문에 컴퓨터가 마스터하기 가장 어려운 게임 중 하나로 인식되어 왔다. 매 수 마다 20개 정도의 경우의 수가 있는 체스와 달리 바둑에는 200가지 가량의 가능한 수가 있고, 돌을 놓는 위치에 있어서 우주의 원자 수 보다 더 많은 경우의 수가 있다. 

구글 딥마인드는 지난 1월 네이처(Nature)지에 게재된 논문을 통해 알파고에 대한 상세한 내용을 최초로 공개했다. 

알파고가 사용한 것은 바둑판의 위치를 판단하는 가치 네트워크(Value networks)와 어디를 두어야 할지를 선택하는 폴리쉬 네트워크(Policy networks)로 구성된 딥뉴럴네트워크(Deep Neural Networks)이다. 이 DNN을 학습시키는 방법에는 사람에 의한 지도학습(Supervised learning)과 데이터 기반의 비지도학습(Unsupervised learning)이 있다. 

그런데 이번에 알파고의 DNN은 전문 바둑기사들(human expert games)에 의한 지도학습과 스스로 바둑 게임(self-play)을 하면서 배우는 강화 학습(reinforcement learning)이라는 새로운 콤비(a novel combination)라는 방식으로 학습했다. 

결국 사람에 의한 지도학습의 폴리쉬 네트워크(SL. policy network)로 먼저 학습을 하고 그 이후에 스스로 하는 강화학습 폴리쉬 네트워크(RL. policy network)를 통해 폴리쉬 네트워크(Policy networks)와 가치 네트워크(Value networks)를 구성한 것이다. 

그 결과 이 DNN은 스스로 바둑 게임을 하면서 수천 건의 게임을 시뮬레이션하는 몬테칼로 나무 서치 프로그램(Monte Carlo tree search programs)의 수준에 올랐다. 또한 몬테칼로 시뮬레이션과 가치 네트워크와 폴리쉬 네트워크를 합쳐 새로운 서치 알고리즘(algorithm)도 개발했다. 

이 새로운 서치 알고리즘을 이용해, 알파고의 DNN은 다른 유사한 인공바둑프로램들을 대상으로 게임한 결과 승률이 99.8%에 달했으며, 결국 유럽 챔피언인 판후이(Fan Hui) 2단을 5:0으로 이길 수 있었다.

이후 알파고는 이세돌 9단과 대결을 위해 학습한 기보가 무려 3천만 건에 이르는 것으로 알려졌다. 이번 대국을 지켜본 바둑 전문가들은 “알파고는 지난해 10월 판 후이 2단과의 대국과는 전혀 다른 놀라운 기력을 선보였으며, 이세돌 9단의 기풍에 맞춘 철저하게 학습한 결과”라는 분석이다.

특히 이번 대국에서도 알파고는 판 후이 2단과 대국처럼 한 수를 두기 위해 고민하는 시간은 3초간 생각한 후 돌을 뒀다는 점이다. 

19년 전인 지난 1997년, IBM이 개발한 딥블루가 세계 1위 체스 고수 러시아의 카스파로프와 의  체스 대결에서 모두 어려울 것이라는 예상을 뒤엎고 2승 1패 3무의 전적으로 승리를 얻었다. 1초당 1,000억 번 이상의 연산 능력으로 상대의 수에 맞춰 다양한 경우의 수를 찾아 승리할 확률이 가장 높은 수를 선택한다. 이런 과정을 통해 무려 12수 앞을 내다볼 수 있었다.

하지만 바둑은 체스와는 아주 많이 다르다. 바둑은 가로 19줄, 세로 19줄로 이뤄져 모두 361곳에 돌을 놓을 수 있어 하나의 흑돌이 놓이고 나면 다음 돌은 360곳, 그 다음은 359곳에 놓을 수 있다. 단 두 수만에 무려 12만 9천여 가지 경우의 수가 생기는 것이다.

따라서 엄청난 양의 데이터를 분석하고 돌을 둬야 한다. 알파고 컴퓨터 시스템은 CPU 1202개, GPU 176개를 쓴 병렬로 연결한 네트워크 분산형 컴퓨터로 하드웨어 성능만 100억원 수준의 컴퓨터로 알려졌다.

AlphaGo2

하지만, 세기의 대결이라 불리는 구글 딥마인드의 알파고와 이세돌 9단의 이번 대국이 어떤 의미가 있느냐는 것이다. 

설사 알파고가 이세돌 9단을 5:0으로 완승했다 해도 이것이 새로운 비즈니스를 만드는데 어떤 도움을 줄 수 있느냐는 것이다. 그저 구글이 펼치는 하나의 빅 이벤트이며, 게임일 뿐이다.

좀 더 현실적으로 말하면 알파고는 단지 바둑 게임을 구현한 소프트웨어라는 점이다. 딥블루가 체스에서 사람을 이긴 지 20여년이 지났지만, 그 승리가 곧바로 생각하는 인공지능으로 연결되지 못했다.

사실 인공지능은 1956년에 시작되어 60여년이 흘렀지만, 두 번의 부침이 있었다. 1980년까지 첫 번째 부침, 1990년 초에 두 번째 부침을 겪었다. 그런 뒤 2000년 중반부터 다시 불을 지 피우고 있다. 

그런데, 이번에는 좀 다르다. 인공지능이 전문가 집단의 소유가 아니라 일반인도 참여하는 오픈 소스로 지향하고 있기 때문이다. 인터넷과 모바일의 발전에 따라 일반인들이 네트워크에 연결되고 협력하는 상황으로 이어지고 있다. 

차원용 아스팩미래기술경영연구소 대표 겸 국가과학기술심의회 ICT융합전문위원은 “인공지능은 순수한 소프트웨어 기술만이 아니라 일반인들의 참여를 유도하는 경우 더 뛰어난 개선이 이루어지기도 하고, 사람들이 이미 작성한 지적 활동의 결과를 활용할 수 있다”며, “수십억의 사람들이 연결되어서 작은 활동을 하고, 이를 인공지능 기술이 효과적으로 활용하면 더 뛰어난 결과를 얻을 수 있다”고 말했다. 

이어 “그래서 작년 말부터 올 초까지 페이스북이 제일 먼저 딥러닝 모듈과 머신 러닝 하드웨어인 빅서(Big Sur)를 오픈 소스로 공개했으며, 이어서 구글도 머신 러닝 기술인 텐서플로우(TensorFlow)와 클라우드 비전(Cloud Vision) API를, 이어서 마이크로소프트도 프로젝트 옥스포드(Oxford)와 툴 킷인 DMTK를 오픈 소스로 공개했는데, 공개한 이유가 여기에 있으며, 또한 또 다시 부침을 막자는데 있다”고 설명했다.

지금의 인공지능은 컴퓨터비전 기술로 사진에서 이름을 알아내고 감정을 알아내며, 게임에서 이기는 수준의 인공지능이 이제 시작일 뿐이라는 의미인 것이다. 

여기서 두 가지 사례가 이를 방증한고 있다. 첫 째, 국내에서 인공지능, 즉 머신러닝이나 딥 러닝으로 확실한 비즈니스 모델을 만든 사례가 있느냐는 것이다. 

두 번째는 해외에서도 인공지능의 선두 기업인 IBM의 인공지능 왓슨 프로젝트 또한 다양한 시도를 하고 있지만 아직까지 확실한 비즈니스 모델을 만들어 내지 못하고 있다. IBM의 시가총액을 보면 알 수 있듯이 1990년대 후반 이후 IBM의 시총은 항상 제자리걸음을 하고 있다. 이는 투자자들은 현실을 냉철하게 보고 판단하기 때문에 실제 산업에서 이윤을 낼 수 있는 생산성을 염두에 두고 투자하기 때문이다.

하지만 왓슨이 의학의 관점에서 과학적인 증거(Evidence)인 빅 데이터 베이스의 인공지능은 인간보다 나을 수 있다. 

세계적인 암센터인 미국 뉴욕의 메모리얼슬론 케터링 암 센터(Memorial Sloan-Kettering Cancer Center)에서는 IBM의 AI 왓슨(Watson)이 전문의와 함께 암·백혈병을 진단한다.  

미국종양학회에 따르면 왓슨의 각종 유방암(BC) 진단 정확도는 91~100%이다. 전문의의 초기 오진비율(20~44%)보다 높은 정확도를 나타낸다. 왓슨의 역할이 커지면서 이 암센터는 ‘왓슨 종양내과(WFO, Watson for Oncology)’라는 부서까지 만들었다.

결국 인간을 게임에서 이기는 인공지능이 아니라 인간이 꿈을 꿀 수 없는 꿈을 대신 꿔주고 그것을 비전과 전략으로 그려주고 인간을 돕는 그러한 인공지능을 개발해야 한다는 것이다. 즉 아직 갈 길이 멀며 이제 시작이라는 의미인 것이다.

하지만 구글 입장에서는 이번 빅 이벤트를 통해 100만 달러 상금의 수십, 수백 배 이상의 홍보효과와 함께 인공지능 기업의 대명사인 IBM을 뛰어 넘었음을 전 세계에 알리는 계기가 되었다고 볼 수 있다. 

따라서 구글이 인공지능 기술을 접목해 추진하고 있는 무인 자율자동차를 비롯해 지메일, 포토, 헬스분야 등 모든 구글 서비스 전략에 탄력이 붙을 것은 자명한 일이다. 

한편, 정부는 구글 인공지능 컴퓨터 알파고와 이세돌 9단과의 대국을 계기로, 인공지능 시대에 대비한 마스터플랜 수립에 나선다는 계획이다.

9일 미래창조과학부는 우선, 연내에 서비스 산업에서 ICT 활용을 촉진하기 위한 지원근거를 명시한 ‘서비스발전 기본법’ 제정을 추진하고, 인공지능 기술을 기반으로 한 지능정보기술 분야를 전략산업으로 육성 발굴해 플래그십 R&D 프로젝트로 추진한다는 방침이다.

또한 민간 주도의 ‘지능정보기술연구소’ 설립해 우리나라 지능정보기술 연구의 구심점이 될 수 있도록 할 계획이라고 밝혔다. 

미래부 관계자는 “아직 우리나라는 지능정보 기술 관련 인력이나 산업 기반이 취약해 선진국 대비 차이가 많다는 것이 사실”이라며 “그러나 지능정보기술 분야는 아직 시장을 지배하는 사업자가 없는 시작 단계인 만큼, 우리에게도 기회는 열려 있다”고 말했다.

URL : http://www.itnews.or.kr/?p=17851

------------------------------------------------------------------------------------------------------------------------

우리나라도 인공지능 개발에 더 투자한다던데..

사대강의 물고기가 되지않았으면 좋겠다

닌텐도가 3D 화면을 지닌 휴대용 기기 3DS를 출시하면서 홈페이지 등에 추가시킨 경고 문구가 있다. “일정 시간 이상 3D 상태로 플레이를 지속하지 말라”는 경고 문구였다.

편광 안경을 쓰지 않고 맨 눈으로 화면을 보아도 3D 효과를 즐길 수 있는 것을 최대의 차별화 요소로 기획된 3DS임에도, 일정 시간 이상 플레이를 했을 때의 부작용을 명시하는 아이러니한 상황이었다.

특히 닌텐도는 어린이들의 시력에 해로울 수 있다는 내용을 고지함으로써 출시 전부터 소비자들의 우려에 시달려야 했었다. 물론 닌텐도의 이런 정보 공개는 사용자들로부터의 소송을 막기 위한 예방조치였을 것이다.

이러한 예방 문구는 1997년에 발생했던 이른바 포켓몬 쇼크에서 기인하는 바가 크다. 포켓몬 쇼크는 1997년 12월 16일 일본의 에니메이션 포켓몬스터의 제38화 방영 당시 빠르게 점멸되는 화면효과로 인해 다수의 아동들이 시청 도중 광과민성 발작을 일으켰던 사건이다.

이로 인해 애니메이션은 높은 인기에도 4개월 동안 방영이 중지 되었고, 화면 효과를 수정한 후 재방영이 되었다. 이후 3D 기능 등을 채택한 기기처럼 화면 효과로 인해 시력에 영향을 줄 수 있는 위험성을 경고하는 문구를 공지하는 것이 일반화 되었고, 닌텐도 역시 이를 따랐던 것이다.

Samsung-Gear-VR-worn-by-Maurizio-Pesce-1024x768
▲ Samsung-Gear-VR

 

최근 VR 기기들이 연이어 시장에 선 보이고 있다. 특히 2016 CES에는 드론과 더불어 다양한 VR 기기들이 주목을 끌고 있다. 

잘 알려진 오큘러스 계열의 제품 말고도 중국 발 제조 열풍에 힘입어 여러 후발 제품들이 봇물 터지듯 출시되고 있다. 국내에도 삼성이 오큘러스의 기술을 채택해 기어 VR을 출시하며 그 시작을 알리기도 했다. 그런데 최근 드는 의문점은 초근접해 휘도가 높은 디스플레이를 통해 구현되는 VR 영상을 보는 과정에서 혹시라도 시력에 영향을 주지는 않을까 하는 점이다.

초기 VR 시제품에 나타났던 멀미 증상이야 귓속 평형을 감지하는 감각 기관에 영향을 미치는 일인칭 화면 특유의 현상이라고 하더라도, 시력에 영향을 미치는 원인에 대해서는 그다지 밝혀진 정보가 없다.

주변 밝기에 비해 월등히 차이가 나는 고휘도 화면을 얼마동안 쳐다보기만 해도 시신경에 피로가 오고 시력이 떨어질 수 있다는 점은 일반적인 상식이다. 혹시라도 VR 기기 사용에 대한 의학적인 고찰이 필요하다면, 시장이 본격적으로 열리기 시작하는 지금 정도가 시점 상 마지노선이 아닐까 싶다.

VR 업체는 과감하고도 진솔하게 자사의 기기에 대한 제한적인 사용을 권고했었던 닌텐도의 사례를 전향적으로 참고해야할 필요가 있다.

소비자들의 막연한 불안감을 그대로 방치하기 보다는, 적절한 의학적 검증을 거쳐 정확한 정보를 제공하는 것이 오히려 VR 시장 확대에 도움이 될 것으로 생각한다.

 

http://www.itnews.or.kr/?p=17211



“골드만삭스의 직원들은 금융분석프로그램 켄쇼(Kensho)를 사용한 후 놀라움 감추지 못했다. 그들이 일주일 동안 매달리거나 사람을 고용해 처리하던 일을 켄쇼는 순식간에 해냈기 때문이다.”

뉴욕타임스는 27일(현지시간) 세계적인 금융투자기업 골드만삭스가 이용하는 ‘켄쇼’ 프로그램을 한면에 걸쳐 다루며 “로봇이 월스트리트를 침공(Invading)했다”고 보도했다. 로봇이 인간의 일자리를 빠르게 대체하고 있으며, 금융ㆍ투자와 같은 전문직도 예외는 아니라는 것이다.

켄쇼는 기업의 실적과 주요 경제수치, 주가의 움직임 등 방대한 양의 금융데이터를 분석해 투자자들의 질문에 답을 주는 프로그램이다. 시리아 내전이 경제에 미치는 영향을 파악하기 위해 켄쇼의 검색 엔진에 ‘시리아 내전 격화(Escalations in The Syrian war)’를 입력하면 켄쇼는 불과 몇 분 안에 미국과 아시아의 주가 변동, 천연가스와 유가의 움직임, 심지어 캐나다 달러의 환율 변화 등 다양한 정보를 일목요연하게 정리해 보여준다.

켄쇼테크놀로지의 창업자 대니얼 나들러(32)는 “50만달러의 연봉을 받는 전문 애널리스트가 40시간이 걸쳐 하는 작업을 켄쇼는 수분 내 처리할 수 있다”고 말했다. 이 때문에 조만간 골드만삭스에서 대규모 인력 조정이 이루어질 수 있다는 게 NYT의 분석이다. 실제로 2006~2010년 골드만삭스에서 주식거래 업무를 담당했던 폴 차우는 “골드만삭스에 자동 주식거래 프로그램이 도입된 후 주식거래인 10명 몫을 프로그래머 1명이 대신 하고 있다”고 추정했다.

켄쇼와 같은 인공지능 로봇의 등장은 금융계의 대량실업도 예고한다. 2013년 영국 옥스포드대학의 연구에 따르면 미국 일자리의 약 47%가 로봇으로 대체될 수 있다. 금융계는 54%로 평균보다 다소 높은 편이다. 정보 수집 및 분석과 관련된 일은 로봇이 보다 정교하게 처리할 수 있기 때문이다. 나들러는 “수많은 벤쳐 기업이 금융 금융프로그램 개발에 뛰어들고 있다”며 “앞으로 10년 내 켄쇼와 같은 인공지능 프로그램으로 금융계의 절반이 일자리를 잃을 것”이라고 경고했다.

켄쇼는 하버드대를 졸업한 나들러가 2013년 설립한 벤쳐 기업으로 직원 수는 고작 50여명에 불과하다. 지난해 여름에는 글로벌 투자은행 JP모건과 미국 최대 은행 뱅크오브아메리카(BOA)와도 프로그램 공급 계약을 채결했다. 나들러는 “우리가 굉장히 많은 규모의 일자리를 파괴한다는 사실을 알고 있다”며 “로봇에 대한 정부의 규제가 없다면, 노동계의 피해는 대단히 클 것”이라고 NYT에 말했다.

URL: http://m.news.naver.com/read.nhn?mode=LSD&sid1=001&oid=469&aid=0000129865

 

로봇이 자신의 직업 영역에 얼마나 침투했는지 확인할 수 있다. 재미로 해보길~

URL : http://www.bbc.com/news/technology-34066941

 

 

+ Recent posts