1 / 22

人間と機械 ‐ ロボット倫理学 ‐

人間と機械 ‐ ロボット倫理学 ‐. 1026638c 吉原 美奈子.   自律的に判断を行える機械が出来た時.    その 機械(ロボット)に は             責任 が生じる のか. 軍事用. 機関銃搭載の兵器ロボット イラクに配置. 数年に 渡る開発を経て、3台の 『 SWORDS 』 (特殊兵器監視遠隔偵察直接戦闘システム)ロボットがイラクに配置 3 台とも機関銃 『 M249  Squad Automatic Weapon』 を装備 『 SWORDS 』 はイラク全土で使用されている爆弾処理ロボットの改造版

keely-logan
Download Presentation

人間と機械 ‐ ロボット倫理学 ‐

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 人間と機械‐ロボット倫理学‐ 1026638c 吉原 美奈子

  2.   自律的に判断を行える機械が出来た時    その機械(ロボット)には             責任が生じるのか

  3. 軍事用

  4. 機関銃搭載の兵器ロボット イラクに配置 • 数年に渡る開発を経て、3台の『SWORDS』(特殊兵器監視遠隔偵察直接戦闘システム)ロボットがイラクに配置 • 3台とも機関銃『M249 Squad Automatic Weapon』を装備 • 『SWORDS』はイラク全土で使用されている爆弾処理ロボットの改造版 • 指令がすぐに届かない限り指令に従って行動することはない • 銃を発射するには3段階の発射手順と、物理的および電子的な安全装置がある • ロボットが奇妙な行動を起こした場合に備えて、停止スイッチが搭載された

  5. 自動制御兵器と事故 2007.10.22 対空砲の演習中、兵士20名以上が死傷 ・南アフリカ共和国防衛軍の銃撃演習中に対空機関砲の異常により9名の兵士が死亡。10数名が重傷を負った ・この兵器は高速で低空飛行をする飛行機、ヘリコプター、無人航空機、巡航ミサイルを自動追尾する能力を持つ ・自動モードでは、標的のデータを、射撃制御部から2組の35ミリ砲に直接送るとともに弾倉が空になると自動で再装填を行う

  6. 1人の女性砲兵士官が自分の命を危険に晒して自分の砲1人の女性砲兵士官が自分の命を危険に晒して自分の砲 兵隊に属する隊員たちを銃撃から助け出そうとした • だが、未だ名前の分からないその士官の勇気ある行動に関わらず、35mm Twin Gun GDF-005対空二連砲が大きく向きを変えるのを止められなかった 1秒の8分の1の間に、15-20の弾が発射 事故は数秒の間に起こった • 爆発力が強く、0.5Kgの重さがある35mm砲の弾丸が数百発、周囲に向けて発射された • 一対の250弾自動装填式弾倉が空になったときには、兵士9名が死亡、15名が負傷 南アフリカ『The Star』紙より引用

  7. VS 人間 

  8. 必ず勝つじゃんけんロボット ・東京大学研究者(石川奥研究所)が開発 ・後だしじゃんけんの超人的速さVer. ・じゃんけん=意思決定行為、より身体的な知性 ・空間の中で認識して動くような身体的知性

  9. チェス:スーパーコンピューター • 1997年の時点でコンピューターが人間に勝利(ガリ・カスパロフ対ディープ・ブルー) • 2003年 引き分け(同相手) • 2005年 コンピューターの圧勝(3対3) • 2006年 コンピューターの勝利(ディープ・フリッツ対クラムニク) • 2009年  スマートフォン搭載のソフトがグランド・マスター級の評価を得る

  10. 医療

  11. 人間型ロボット ・実在の女性を基にデザイン ・周囲にセンサーを搭載。読みとった内容に合わせて動きを変える ・認知科学や心理学といった人間の研究              +           ロボット工学 • 人型の妊婦ロボット(医学生用) • オフィス案内用ロボット(日立製作所) • 人の洗髪・頭皮ケア用ロボット(パナソニック)

  12. 工業用ロボット    重い岩を持ち上げるためのロボット   ・誤作動により作業員が殺されかけた                               (スウェーデン 2012年9月) 検察側は工場側に責任を負わせた。また責任の一部は作業員にもあるとした

  13. ロボット工学3原則 第一条ロボットは人間に危害を加えてはならない。また、その危険を看過することによって、人間に危害を及ぼしてはならない 第二条ロボットは人間に与えられた命令に服従しなければならない。ただし、与えられた命令が、第一条に反する場合は、この限りではない 第三条ロボットは、前掲第一条および第二条に反するおそれのない限り、自己をまもらなければならない 2058年「ロボット工学ハンドブック」第56版‐アイザック・アシモフ著 「われはロボット」1950年 より

  14.   自律的に判断を行える機械が出来た時    その機械(ロボット)には             責任が生じるのか

  15. ロボット倫理学 • ①ロボットを製造する際の倫理 • ②ロボットの守るべき倫理ロボットが道徳的行為者になり得ることが前提 • ③ロボットに対する倫理 ロボットが道徳的配慮を受け得ることが前提

  16. ロボットは道徳的行為者になれるのか 自分の意志で何らかの行動を選択する  ①何らかの事態を表象し(可能)  ②その事態が実現することを目指して(困難)         ←利害を持つことの帰結  ③何らかの行動を選択する(機能論理プログラム) 不可能

  17. ロボットは道徳的受容者になれるか • 現在のロボットは道徳的受容者としての資格を持っていない (独自の利害を持っていないから) • 独自の利害を持つ→「生死」という利害を持つ 不可能

  18. 道具としての道徳的ロボット 裁判員制度 量刑に関する一般人の感覚をシミュレートするエキスパート・システム 介護対象の患  薬を飲みたがらない時 ①薬を飲むことを強要 ②薬を飲ませず医者に知らせる ③薬も飲ませず医者にも知らせない 介護仕の判断の事例を集めILPにより規則を抽出→介護仕の倫理的な判断をシミュレート

  19. なぜロボットが必要? ・作業の効率化(大量生産) ・災害対応(震災、原発事故)「災害対応無人化システム研究開発プロジェクト」 ・少子高齢化、労働人口の減少に備えて ・福祉用(介護)、家庭用(家事)(ex ルンバ)「生活支援ロボット実用化プロジェクト」 ・警備用、教育用

  20. 最大の問題 実現の容易さ+潜在的な需要の高さ 道徳的ロボットが人間を支援する道具として社会に入ってくる可能性は高い • 判断が間違っていた時に機械にはその責任が取れない 道徳的責任を取るためには、それ自身が道徳的存在者でなければならない

  21. 論点 • システムの行動について誰が責任を持つか • 誰がロボットを統制するのか • 人間を超える人工知能を持つロボットは必要か • ロボットのゴールは人間にあるのか

  22. 参考資料 • 日経Bizアカデミー • ITメディアニュース • 論文「ロボット倫理学の可能性」久木田 水生 • WIRED archives • Wikipedia • 「ボーカロイド現象」 安藤 卓

More Related