1 / 46

휴머노이드 로봇에 의한 능숙한 물체조작 (Efficient Object Manipulation by the Humanoid Robot)

휴머노이드 로봇에 의한 능숙한 물체조작 (Efficient Object Manipulation by the Humanoid Robot). 이 장 명 부산 대학교 지능로봇 실험실 http://robotics.ee.pusan.ac.kr. 목 차. 1. 지능형 로봇의 연구추세. 2. 휴머노이드 로봇에 의한 물체조작. - 지능형 로봇의 정의. - Independent 제어. - 시장규모. - Loosely Coupled 제어. - 국내외 동향. - Tightly Coupled 제어.

libba
Download Presentation

휴머노이드 로봇에 의한 능숙한 물체조작 (Efficient Object Manipulation by the Humanoid Robot)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 휴머노이드 로봇에 의한 능숙한 물체조작(Efficient Object Manipulation by the Humanoid Robot) 이 장 명 부산 대학교 지능로봇 실험실 http://robotics.ee.pusan.ac.kr

  2. 목 차 1. 지능형 로봇의 연구추세 2. 휴머노이드 로봇에 의한 물체조작 - 지능형 로봇의 정의 - Independent 제어 - 시장규모 - Loosely Coupled 제어 - 국내외 동향 - Tightly Coupled 제어 - 정통부의 9대 신성장 동력 •유연한 동작 (기구학적 협동) - 지능형 로봇 Roadmap •힘겨운 동작 (동역학적 협동) - 세부기술 수요 3. 센서 정보의 활용에 의한 지능화 4. 지능 로봇의 연구방향

  3. 지능형 로봇의 연구추세

  4. 지능형 로봇의 정의 인간과 상호작용을 통하여 인간의 명령 및 감정을 이해하고, 반응하며 정보통신 기술을 바탕으로 인간에게 다양한 서비스를 제공하는 로봇 특징 : 서비스 로봇 기술은 융합 기술 (지능, 모션, IT 인프라 및 SI)

  5. 시장 규모 ●조사기관마다 예측치가 다양하나 2020년 최소 800억$ 예상 ●년도별 예측치의 62% 가 가정용 로봇 - 2020 최소 650억$ 예상 - ’05년 ~ ’20년 년 평균 성장률 : 최소 17% ●현재는 시장 도입기로 향후 자동차/TV 규모이상의 시장형성 예상

  6. 국내외 동향 ●산업 동향 - 2000년대 들어 서비스 로봇에 대한 관심 급증 (한국, 일본 등) - 산업 태동기 : 다양한 개발시제품 및 상용화 초기 (AIBO, 청소로봇) ●정책 동향 - 국내 : 소규모, 산발적인 투자 및 연구개발 -> 서비스 로봇의 특징 (융합기술) 퇴색 - 미국/일본 : 정부의 대규모 계획적 투자 및 산 •학 •연의 긴밀한 협조 ●기술 동향 - 한국 : 다양한 분야의 연구가 진행 중 •아직 많은 부분이 초보 단계 (요소기술 연구 미흡) • KAIST (Welfare Robotics), 산자부 (Personal 로봇) 외 - 일본 : 개인용 로봇의 상용화 연구 활발, 특히 2족 보행 로봇에 강점 • 2족 보행 (sony, Honda 등), 가정용 (도시바) 등 - 미국 : 우수개발 인력으로 로봇 기초연구에서 세계 주도 •지능기술 (대학), 극한환경로봇 (NASA), 군사용 로봇 (DARPA) 연구 중심

  7. 정통부의 9대 신성장 동력

  8. 지능형 로봇 Roadmap 서 비 스 1단계 (~’07) (부르면 다가와서 서비스를 주는) 2단계 (‘08~’11) (알아서 찾아와서 서비스를 주는) 3단계 (‘12~’15) (인간과 공존하는) 사용자의 의도를 판단하여 반응 (감성, 제스쳐) Inter- action 사용자와 interaction을 통한 진화 사용자의 요청에 반응 감성 의지 학습 주어진 환경에 대한 반응 -음성인식 기존에 아는 환경과 유사한 환경에 대한 반응 일반화 임의의 환경에 대한 반응 - 자연어 인식 예측 협업 로봇간, 로봇/사람간 협업

  9. 지능형 로봇 Roadmap 핵 심 기 술 1단계 (~’07) (부르면 다가와서 서비스를 주는) 2단계 (‘08~’11) (알아서 찾아와서 서비스를 주는) 3단계 (‘12~’15) (인간과 공존하는) •비 정형화된 음성/화상기반 상호작용 기술 - 감정인식 및 표현기술 - 의도인식 기술 •비 정형화된 환경인식 및 주행기술 -실내환경에서 완전자율주행기술 •실시간 제어기술 - 양팔 협조 공조기술 •2족 보행 Manipulation 기술 •일상 환경에서 음성/화상기반 상호작용 기술 - 자연어 대화기술 •일반환경 인식 및 학습기술 - 실외환경에서 완전자율주행기술 •실시간 제어기술 - Multi_Robot 협조제어 및 이동기술 • Humanoid 유인동작기술 •정형화된 음성/화상기반 상호작용 기술 - 정형화된 문장인식, 음원위치 추론기술등 - 양방향 감정 및 동작표현 - 다중물체 영상추적 , 3D 얼굴인식 기술등 •정형화된 환경인식 및 주행기술 -정형화된 동작환경에서 완전자율주행기술 •실시간 제어기술 - Mobile Manipulator 유연제어 기술 •2족 보행 및 Manipulation 기술 - 동작보행 및 전신공조제어 알고리즘 개발

  10. 세부 기술 수요 IT 도우미 가사도우미 Edutain- ment Robot- inside 공통기반

  11. 휴머노이드 로봇에 의한 물체조작

  12. Independent 제어 ● 충돌 회피 ● Singularity Avoidance ● 최적화 - 시간, 에너지, 정도 <- 형상인식, 주변인식 ● 각 ARM 혹은 Robot의 능력에 적합한 일 배정

  13. Loosely Coupled 제어 ● 협동제어의 전형 - 병마개 열기 - 종이 자르기 ● 최적화 - 정도, 에너지, 시간 - 형상인식, 주변인식 ● 각 ARM 의 능력에, 위치에 적합한 일 배정 < 병마개 열기 >

  14. - 왼쪽 : 고정 혹은 동작 - 오른쪽 : 혹은 동작 Artificial Constraints ● 볼트-너트 조이기 ● Crank 돌리기

  15. Tightly Coupled 제어 【 양팔의 동시제어 】 ● 유연한 동작 (기구학적 협동) - 운동의 용이성 ● 힘겨운 동작 (동역학적 협동) - 부하의 분배 최적 < 물 체 이 동 >

  16. 유연한 동작 (기구학적 협동) Coefficients 행렬의 Inverse Manipulability ellipsoid Duality 성질 force Velocity(운동)

  17. 1 Approaching Velocity 2 3 Tracking Force Tracking Velocity Insertion Velocity Approaching Velocity Approa- ching Tracking Insertion Insertion Force Peg-in-hole Operation Peg-in-hole Operation 을 위한 Manipulability Ellipsoid 의 바람직한 모양 Dual Redundant Arm Configuration Optimization with Task-Oriented Dual Arm Manipulability [ IEEE Trans. On Robotics and auto. Vol. 5. NO. 1. 1989 ] Tapered Hole

  18. 두개의 Arm 의 혼합 Manipulability Ellipsoid ●원하는 Manipulability Ellipsoid 와의 근사도 정의 ● 원하는 Ellipsoid 의 Principal Axis 방향으로의 차이로 정의 ●자세의 최적화 Dual-Arm Manipulability

  19. 그 림 < 각 팔의 자세 최적화 > < 양팔의 자세 최적화 >

  20. 힘겨운 동작 (동역학적 협동) “ Dynamic Modeling and Cooperative Control of a Redundant Manipulator Based on Decomposition” KSME Int. Jour. Vol. 12. NO. 4. 1998 Cartesian force Ellipsoid

  21. Cartesian force generation capability 특정 방향의 을 위한 F 의 적절한 분배 가능

  22. 센서 정보의 활용에 의한 지능화

  23. 센서 정보의 활용에 의한 지능화 Early prototype Urbie with a complete surveillance platform

  24. Sensor Fusion • Motivations • Temporal Fusion • General Pattern of Sensor Fusion • Temporal Transformation • Application to Mobile Robots • Complementary • Redundant • Experiments • Conclusions

  25. Motivations • 센서로 부터 얻은 현 데이터를 통합하고 융합함으로써 보다 정확한 측정값을 구할 수 있다. • 일반적인 퓨전기술은 그 측정값을 현재의 데이터 값에 의존한다. • 시간적 연속 데이터들은 더 나은 측정값을 위해 저장되고 사용될 수 있다.

  26. 센서융합의 일반적 개념 • 다중 센서융합은 다른 종류의 센서정보를 하나의 대표적인 정보 데이터 형태로 조합하거나 융합하는 통합처리 단계라고 할 수 있다 .

  27. ● 처음 두 센서로부터 얻은 출력 과 는 새로운 상위 대표값 으로 융합된다. ● 세번째 센서로부터 얻은 출력 은 융합노드 와 융합되어 새로운 대표값 을 생성하게 되어 상위 노드로 융합이 이루어지게 된다. General Pattern of Sensor Fusion General pattern of multi-sensor integration and fusion in system.

  28. Temporal Transformation • 기존 센서 융합기술 • 다중 센서의 시간적 데이터 융합.

  29. ● 각 센서정보가 측정벡터값을 제공하게 될 때 잉여데이터에 대한 상태변환식은 다음과 같이 표현된다. ● 여기서 는 j번째 측정 위치에서 i번째 측정위치로의 동차변환.

  30. Concept of Temporal Sensor Fusion. ●파라미터 블록의 예측은 매 샘플링 순간에 측정벡터를 제시 ● 이전 데이터는 현재 데이터와 융합이 되며 다중 센서 융합으로 정확한 데이터가 결정되게 된다.

  31. 상태 추정 • 상호연관성 ( Auto-correlation ) • 연관성 의 결정은 다음과 같은 식으로 표현된다.

  32. . Transformation of camera coordinates

  33. Applications to Mobile Robots • 3D Vision 을 위한 보충적 사용

  34. where where

  35. ● 매트릭스 형태로 이 방정식들은 다음과 같이 나타낼 수 있다. ● 의사 역 행렬(left pseudo inverse matrix)을 사용하여 Range value, D를 구할 수 있고, 이때 D는 이미지 상의 한 점 (xk, yk)으로 표현될 수 있다.

  36. ● 두 이미지 frame 을 사용하여 거리정보를 얻는다. Transformation of camera coordinates

  37. Experiments IRL-2001 robot. Landmark locations detected by the camera

  38. Mobile robot position and orientation < CSF와 STSF의 거리비교 > < CSF와 STSF의 에러 감소율 비교 >

  39. F R A M E World Coordinate Distance (m) Conventional sensor fusion STSF Image Coordinate Distance (m) Error (m) Image Coordinate Distance (m) Error (m) 1 7.81 8.24 0.43 8.24 0.43 2 7.02 7.36 0.34 7.30 0.28 3 6.28 6.53 0.25 6.48 0.20 4 5.06 4.89 0.17 4.92 0.14 5 5.52 5.39 0.13 5.63 0.11 6 6.32 6.46 0.14 6.43 0.11 Result of the distance measurement “AGV Navigation Using a Space and Time Sensor Fusion of an Active Camera” International Journal of Navigation and Port Research, vol. 27, NO. 3, 2003

  40. Conclusions ● 새로운 센서 융합개념, 시간적 다중 센서 융합. - 2차원 센서융합 - 시간적 공간적 센서 융합 ● 더 많은 계산력과 메모리 공간이 요구됨. ● 시간적 센서융합의 효용을 보였다.

  41. Conclusions ■ Future works ● 이 기본적 개념은 Neural Netwrork과 같은 다른 응용분야에 사용될 수 있다. ● 제안한 멀티센서의 시간적 융합 기술을 정형화된 환경뿐만 아니라 비 정형화된 환경에서의 Mobile 로봇 추종제어에 적용하는 것.

  42. 지능로봇의 연구방향

  43. 로봇 기술의 발전 전망 ● 로봇 기술은 이동성(Mobility)과 지능(intelligence)의 2가지 축으로 진화 • 인간과 유사한 유연한 움직임과 스스로 판단하여 대처할 수 있기까지는 향후 약 10년 • 2030년경 일부 분야에서 인간의 능력을 능가한 로봇이 출현할 전망 • 최종적으로 인간과 협업하고 공존할 수 있는 보다 인간다운 로봇 개발 목표 • 진보된 운동, 감각, 지능기술 및 휴먼 인터페이스 분야의 기술발전이 지속될 전망

  44. 국내 기술의 수준 ● 이동기술 ● 인터페이스 기술 ● 지능기술 큰 격차 선진국

  45. 연구 방향 부품개발 시스템 디자인 새로운 디자인 요소기술 요소/부품기술 ● 어떤 일을 로봇에 맡길 것인가 ? 진공청소, 경비, 안내, 배달, 잔디깎기 ● 언제 시장에 출시할 것인가 ? 가격, 성능, 문화적 배경에 따른 Profit 획득 가능 시점 ● 핵심적 기술 (Technology Breakthrough) 이 무엇인가 ? 휴대폰의 battery, 노트북의 소형/경량화

  46. Concluding Remarks ● System 설계 능력과 요소 기술력의 접목에 의해서 로봇을 성공적으로 완성된다. ● Humanoid로봇은 아마도 양팔의 효율적인 협동에 의해 다양한 일들을 능숙하게 수행하게 될 것이다. ●센서 정보의 다양화에 따른 효율적 활용법 연구는 필요하다. ●지능 로봇은 향후 20년 후면 현재의 Computer를 대신할 것이다.

More Related