ユーザ用ツール

サイト用ツール


hai-articles:haibookmarks

差分

このページの2つのバージョン間の差分を表示します。

この比較画面へのリンク

両方とも前のリビジョン前のリビジョン
次のリビジョン
前のリビジョン
hai-articles:haibookmarks [2021/03/28 21:26] – [知能(内部/AIデザイン)] yonehai-articles:haibookmarks [2021/03/29 09:09] (現在) – [他分野との相互作用、およびHAI研究の体系化の難しさ] yone
行 20: 行 20:
 エンジニアリングの視点からは、上記の定義で述べていくことになるが、今後の擬人化メディアの更なる精緻化により、対象を擬人化して捉えさせるメディアというよりは本質的な心を持った存在になっていくと考えられる。 エンジニアリングの視点からは、上記の定義で述べていくことになるが、今後の擬人化メディアの更なる精緻化により、対象を擬人化して捉えさせるメディアというよりは本質的な心を持った存在になっていくと考えられる。
  
-本稿では、擬人化メディア、擬人化システム、エージェント、仮想エージェント、ロボット(実体エージェント)という語を用いるため、混乱防止のために再度まとめると、1)擬人化メディアは、擬人化を用いた人間への提示をメインとするメディア(システムにっていないものも含む)、2)擬人化システムは、擬人化メディアを付与されたなんらかの機能を持つシステム、3)エージェントは、擬人化システムの//[[#agency|エージェンシー]]//を重視した呼び名、4)仮想エージェントは、ディスプレイやスピーカの中にのみ表現されるエージェント、5)ロボット(実エージェント)は、物理的身体と動作機構を持つエージェント、をそれそれ示す。+本稿では、擬人化メディア、擬人化システム、エージェント、仮想エージェント、ロボット(実体エージェント)という語を用いるため、混乱防止のために再度まとめると、1)擬人化メディアは、擬人化を用いた人間への提示をメインとするメディア(システムにっていないものも含む)、2)擬人化システムは、擬人化メディアを付与されたなんらかの機能を持つシステム、3)エージェントは、擬人化システムの//[[#agency|エージェンシー]]//を重視した呼び名、4)仮想エージェントは、ディスプレイやスピーカの中にのみ表現されるエージェント、5)ロボット(実エージェント)は、物理的身体と動作機構を持つエージェント、をそれそれ示す。
  
 HAI分野におけるエージェントは、人間という外界とインタラクションをもつ自律システムや自律にみせかけるシステム([[http://www.ymd.nii.ac.jp/book/hai/index.html|書籍 人とロボットの〈間〉をデザインする]])とされ、人工知能の分野で扱われる[[https://ja.wikipedia.org/wiki/知的エージェント|自律的な知的エージェント]]とは異なり、AIを内包するシステムとも言える。 HAI分野におけるエージェントは、人間という外界とインタラクションをもつ自律システムや自律にみせかけるシステム([[http://www.ymd.nii.ac.jp/book/hai/index.html|書籍 人とロボットの〈間〉をデザインする]])とされ、人工知能の分野で扱われる[[https://ja.wikipedia.org/wiki/知的エージェント|自律的な知的エージェント]]とは異なり、AIを内包するシステムとも言える。
行 75: 行 75:
   * [[https://www.sciencedirect.com/science/article/abs/pii/S0093934X06003531|An intentional stance modulates the integration of gesture and speech during comprehension]]   * [[https://www.sciencedirect.com/science/article/abs/pii/S0093934X06003531|An intentional stance modulates the integration of gesture and speech during comprehension]]
   * [[https://www.sciencedirect.com/science/article/abs/pii/S1053811902911171|Imaging the intentional stance in a competitive game]]   * [[https://www.sciencedirect.com/science/article/abs/pii/S1053811902911171|Imaging the intentional stance in a competitive game]]
-  * 赤ちゃんの志向姿勢+  * 赤ちゃん/こどもの志向姿勢
     * [[https://www.sciencedirect.com/science/article/abs/pii/001002779500661H|Taking the intentional stance at 12 months of age]]     * [[https://www.sciencedirect.com/science/article/abs/pii/001002779500661H|Taking the intentional stance at 12 months of age]]
     * [[https://www.sciencedirect.com/science/article/abs/pii/S088520140200165X|Sharing attention and pointing to objects at 12 months: is the intentional stance implied?]]     * [[https://www.sciencedirect.com/science/article/abs/pii/S088520140200165X|Sharing attention and pointing to objects at 12 months: is the intentional stance implied?]]
-  * 子供の志向姿勢?? 
     * [[https://hai-conference.net/proceedings/HAI2016/html/paper/paper-G-12.html|子どもの見かた・大人の見かた]]     * [[https://hai-conference.net/proceedings/HAI2016/html/paper/paper-G-12.html|子どもの見かた・大人の見かた]]
  
行 168: 行 167:
  
 ソマティックマーカー仮説関連の文献 ソマティックマーカー仮説関連の文献
-  * [[https://royalsocietypublishing.org/doi/abs/10.1098/rstb.1996.0125|The somatic marker hypothesis and the possible functions of the prefrontal cortex]]]+  * [[https://royalsocietypublishing.org/doi/abs/10.1098/rstb.1996.0125|The somatic marker hypothesis and the possible functions of the prefrontal cortex]]
   * [[https://www.sciencedirect.com/science/article/pii/S0899825604001034|The somatic marker hypothesis: A neural theory of economic decision]]   * [[https://www.sciencedirect.com/science/article/pii/S0899825604001034|The somatic marker hypothesis: A neural theory of economic decision]]
   * [[https://www.sciencedirect.com/science/article/pii/S1364661307000551|Emotion and consciousness]]   * [[https://www.sciencedirect.com/science/article/pii/S1364661307000551|Emotion and consciousness]]
行 266: 行 265:
   * [[https://www.jstage.jst.go.jp/article/itej/72/1/72_17/_article/-char/ja/|クロスモーダル知覚を応用した情動インタフェース]]   * [[https://www.jstage.jst.go.jp/article/itej/72/1/72_17/_article/-char/ja/|クロスモーダル知覚を応用した情動インタフェース]]
  
-人間や動物に似せた顔を持つエージェントにはその視線や顔表情による//感情表出表現//がある。仮想エージェントでは3Dまたは2D表現によりこれらを構成することができるためロボットに比べ容易であるが、ロボットでは[[http://www.ai.mit.edu/projects/sociable/baby-bits.html|kismet]]や[[phillipsのロボット]]のように顔の上のパーツを物理的に制御するものや[[なんか例]]のように顔表情や目の表現のみディスプレイに頼るものもあり、リアリティとコストが比例する中で研究目的に応じてミニマルデザインされる傾向がある。+人間や動物に似せた顔を持つエージェントにはその視線や顔表情による//感情表出表現//がある。仮想エージェントでは3Dまたは2D表現によりこれらを構成することができるためロボットに比べ容易であるが、ロボットでは[[http://www.ai.mit.edu/projects/sociable/baby-bits.html|kismet]]や[[https://dl.acm.org/doi/abs/10.1145/1082473.1082823|iCat: an animated user-interface robot with personality]]のように顔の上のパーツを物理的に制御するものや[[https://newatlas.com/mask-bot/20416/|Maskbot]]や[[https://lovot.life/|LOVOT]]のように顔表情や目の表現のみディスプレイに頼るもの、[[https://newswitch.jp/p/18370|瞳孔表現]]をするものもあり、リアリティとコストが比例する中で研究目的に応じてミニマルデザインされる傾向がある。
  
-ロボットの物理的身体性には、空間共有状況下で[[指差し]]や[[視線]]による空間情報を伴ったインタラクションを実現することができる。仮想エージェントには一般的には不可能だが、一部エージェント[[https://search.ieice.org/bin/summary.php?id=j99-d_9_915|ユーザ視点位置に応じた描画エージェントを用いた実空間内注視コミュニケーションの検証]]ではVRと裸眼立体視を用いた擬似3D空間を現実空間の座標系に接続することで空間共有インタラクションの実現を狙っている。 +ロボットの物理的身体性には、空間共有状況下で[[https://www.jstage.jst.go.jp/article/jrsj1983/24/8/24_8_964/_article/-char/ja/ 
-一方、仮想エージェントには物理的な接触が不可能である。ロボットにおける接触を伴うHAI研究として、[[ハグロボット(海外)]]など[[ソーシャルタッチ]]に関する研究が広がりつつある。+|Meet me where I'm gazing: How shared attention gaze affects human-robot handover timing]]など指さしや[[https://research.monash.edu/en/publications/meet-me-where-im-gazing-how-shared-attention-gaze-affects-human-r 
 +|Meet me where I'm gazing: How shared attention gaze affects human-robot handover timing]]など視線による空間情報を伴ったインタラクションを実現することができる[[[http://tokiox.com/wp/siggraph・展示:アイコンタクトする、表情豊かなロボ/?lang=en|リアルなロボットの視線]]。仮想エージェントには一般的には不可能だが、一部エージェント[[https://search.ieice.org/bin/summary.php?id=j99-d_9_915|ユーザ視点位置に応じた描画エージェントを用いた実空間内注視コミュニケーションの検証]]ではVRと裸眼立体視を用いた擬似3D空間を現実空間の座標系に接続することで空間共有インタラクションの実現を狙っている。 
 +一方、仮想エージェントには物理的な接触が不可能である。ロボットにおける接触を伴うHAI研究として、[[https://ieeexplore.ieee.org/abstract/document/1251879|The hug: an exploration of robotic form for intimate communication]]など[[https://hai-conference.net/proceedings/HAI2012/html/paper/paper-3c-1.html|ソーシャルタッチ]]に関する研究が広がりつつある[[[https://research-er.jp/projects/view/1041349 |ソーシャルタッチの研究プロジェクト]]]
 人間に似せた触感のシリコン皮膚を持つアンドロイドにも将来的にこのような機能が搭載される可能性もあるが、どのような表現やふるまいがユーザにどのように解釈されるかについての議論がまだ必要な段階である。 人間に似せた触感のシリコン皮膚を持つアンドロイドにも将来的にこのような機能が搭載される可能性もあるが、どのような表現やふるまいがユーザにどのように解釈されるかについての議論がまだ必要な段階である。
  
行 278: 行 279:
  
 指差し・表情・視線・目の表現関係の文献 指差し・表情・視線・目の表現関係の文献
-  * [[りんりん・杉山くんあたりの指差し]]できれば海外のも +  * [[https://www.tandfonline.com/doi/full/10.1080/09540090600890254|Humanlike conversation with gestures and verbal cues based on a three-layer attention-drawing model]] 
-  * [[瀬島先生]] +  * [[https://ieeexplore.ieee.org/document/1545011|Effects of nonverbal communication on efficiency and robustness in human-robot teamwork]]
-  * [[視線表現]] +
-  * [[頭部の向き]]+
   * [[https://dspace.mit.edu/handle/1721.1/9303|Sociable machines: expressive social exchange between humans and robots]]   * [[https://dspace.mit.edu/handle/1721.1/9303|Sociable machines: expressive social exchange between humans and robots]]
   * [[https://www.degruyter.com/document/doi/10.2478/pjbr-2013-0008/html|Attractive, Informative, and Communicative Robot System on Guide Plate as an Attendant with Awareness of User’s Gaze]]   * [[https://www.degruyter.com/document/doi/10.2478/pjbr-2013-0008/html|Attractive, Informative, and Communicative Robot System on Guide Plate as an Attendant with Awareness of User’s Gaze]]
-ソーシャルタッチ関連の文献 + 
-  * [[海外の2−3個、触る関係。ハグボットも含む]]+身体接触表現関連の文献 
 +  * [[https://link.springer.com/article/10.1007/s12369-018-0495-2|Softness, warmth, and responsiveness improve robot hugs]]
   * [[https://dl.acm.org/doi/abs/10.1145/1957656.1957819|Effect of robot's active touch on people's motivation]]   * [[https://dl.acm.org/doi/abs/10.1145/1957656.1957819|Effect of robot's active touch on people's motivation]]
-  * [[塩見くんの触ると教育にいい的なやつ]]+  * [[https://link.springer.com/chapter/10.1007/978-3-319-70022-9_32| 
 +A robot that encourages self-disclosure by hug]]
   * [[https://ieeexplore.ieee.org/abstract/document/6697179|Physical contact using haptic and gestural expressions for ubiquitous partner robot]]   * [[https://ieeexplore.ieee.org/abstract/document/6697179|Physical contact using haptic and gestural expressions for ubiquitous partner robot]]
 +  * [[https://ieeexplore.ieee.org/abstract/document/1251879|The Hug: an exploration of robotic form for intimate communication]]
 +  * [[https://dl.acm.org/doi/10.1145/3311927.3325332|HugBot: A soft robot designed to give human-like hugs]]
 +  * [[https://www.jstage.jst.go.jp/article/jrobomech/32/1/32_128/_article/-char/ja/|Survey of Social Touch Interaction Between Humans and Robots]]
 +  * [[https://www.frontiersin.org/articles/10.3389/fdigh.2015.00002/full|Social touch in human–computer interaction]]
  
  
 +<html><!--
 +The Six Hug Commandments: Design and Evaluation of a Human-Sized Hugging Robot with Visual and Haptic Perception
 +https://dl.acm.org/doi/abs/10.1145/3434073.3444656
 +HRI21
 +-->
  
 <html><!-- <html><!--
行 326: 行 336:
   * [[https://psycnet.apa.org/record/1981-25062-001|A circumplex model of affect]]   * [[https://psycnet.apa.org/record/1981-25062-001|A circumplex model of affect]]
   * [[https://www.tandfonline.com/doi/abs/10.1080/02699939208411068|An argument for basic emotions]]   * [[https://www.tandfonline.com/doi/abs/10.1080/02699939208411068|An argument for basic emotions]]
 +  * [[https://www.jstage.jst.go.jp/article/tjsai/21/1/21_1_55/_article/-char/ja/|感性ロボットのための感情領域を用いた表情生成]]
 +  * [[https://www.jstage.jst.go.jp/article/jsoft/22/1/22_1_25/_article/-char/ja/|ニューラルネットワークを用いた MaC モデルに基づく感情生成システム]]
 +  * [[https://ieeexplore.ieee.org/abstract/document/5771357|Emotion representation, analysis and synthesis in continuous space: A survey]]
    
 次に、何らかの判断をしたり実行に移すなどの行動を引き起こす欲求として、[[https://www.recruit-ms.co.jp/glossary/dtl/0000000048/|内発的動機]]と外発的動機が必要である。 次に、何らかの判断をしたり実行に移すなどの行動を引き起こす欲求として、[[https://www.recruit-ms.co.jp/glossary/dtl/0000000048/|内発的動機]]と外発的動機が必要である。
行 332: 行 345:
  
 内発的動機関係の文献 内発的動機関係の文献
-  * [[https://www.jstage.jst.go.jp/article/sicejl/52/12/52_1129/_article/-char/ja/内発的動機付けによるエージェントの学習と発達|]]+  * [[https://www.jstage.jst.go.jp/article/sicejl/52/12/52_1129/_article/-char/ja/|内発的動機付けによるエージェントの学習と発達]]
   * [[https://ieeexplore.ieee.org/abstract/document/4141061|Intrinsic Motivation Systems for Autonomous Mental Development]]   * [[https://ieeexplore.ieee.org/abstract/document/4141061|Intrinsic Motivation Systems for Autonomous Mental Development]]
   * [[https://www.frontiersin.org/articles/10.3389/fpsyg.2013.00618/full|A motivation model for interaction between parent and child based on the need for relatedness]]   * [[https://www.frontiersin.org/articles/10.3389/fpsyg.2013.00618/full|A motivation model for interaction between parent and child based on the need for relatedness]]
行 401: 行 414:
 上記のように認知科学や心理学、神経科学、脳科学、言語学などの分野から得られた知見や理論や仮説を、人工知能(情報科学)をベースにしつつ擬人化システムに組み込んで、工学的に擬人化システムを改良したり、構成論的に検証するなど、HAIは多くの分野にまたがる研究分野である。 上記のように認知科学や心理学、神経科学、脳科学、言語学などの分野から得られた知見や理論や仮説を、人工知能(情報科学)をベースにしつつ擬人化システムに組み込んで、工学的に擬人化システムを改良したり、構成論的に検証するなど、HAIは多くの分野にまたがる研究分野である。
 また、発達心理学・神経科学・医学などとも関係があり([[https://ja.wikipedia.org/wiki/計算論的神経科学|計算論的神経科学]]、[[http://psy.keiomed.jp/computation.html|計算論的精神医学研究室]])、エージェントの心を構成したり人間の心の仕組みを取り入れたりするなどの点で他分野との相互作用が大きい。 また、発達心理学・神経科学・医学などとも関係があり([[https://ja.wikipedia.org/wiki/計算論的神経科学|計算論的神経科学]]、[[http://psy.keiomed.jp/computation.html|計算論的精神医学研究室]])、エージェントの心を構成したり人間の心の仕組みを取り入れたりするなどの点で他分野との相互作用が大きい。
-また、HAIにおける外観や身体のデザインや製品化においてはロボット工学、美学、デザイン学も関係しており、応用シーンとしても医学、看護学、教育学、介護福祉学、経済学など、複数の分野に波及効果がある。+HAIにおける外観や身体のデザインや製品化においてはロボット工学、美学、デザイン学も関係しており、応用シーンとしても医学、看護学、教育学、介護福祉学、経済学など、複数の分野に波及効果がある。
  
 HAIの基礎に関連するトピックを取り上げると、擬人化という心理的状態の分析解明が多く取り扱われることとなり、実際、HAI分野の研究においては認知科学者の占める割合は大きいが、今後はHAIからのアウトプットに関連する他分野におけるHAIの取り組みが増えることが期待される。 HAIの基礎に関連するトピックを取り上げると、擬人化という心理的状態の分析解明が多く取り扱われることとなり、実際、HAI分野の研究においては認知科学者の占める割合は大きいが、今後はHAIからのアウトプットに関連する他分野におけるHAIの取り組みが増えることが期待される。
行 616: 行 629:
  
  
-===== おわりに(5) =====+===== おわりに =====
  
 本稿ではHuman-Agent Interactionにおけるトピックの整頓や関連する研究コミュニティの紹介を行った。 本稿ではHuman-Agent Interactionにおけるトピックの整頓や関連する研究コミュニティの紹介を行った。
行 628: 行 641:
  
 本研究は科研費19H04154、19K12090、18K11383、JST,CREST JPMJCR18A1、および2019年関西大学研修員研修費の助成を一部受け実施したものです。 本研究は科研費19H04154、19K12090、18K11383、JST,CREST JPMJCR18A1、および2019年関西大学研修員研修費の助成を一部受け実施したものです。
-執筆に際して有意義な資料やコメントを下さった大澤博隆先生(筑波大学)、共同研究者で筆者の研究室所属学生の頃より本研究内容に長く従事してくださっている吉田直人先生(名古屋大学)、ロボット実装で長く共同研究に携わってくださり本稿にコメント下さった山添大丈先生(兵庫県立大学)、HAI研究分野のプロジェクトに明るくコメントいただいた塩見昌裕室長(ATR深層インタラクション総合研究所)に深くお礼申し上げます。この機会を与えてくださった人工知能学会誌編集委員会に心より感謝申し上げます。+執筆に際して有意義な資料やコメントを下さった大澤博隆先生(筑波大学)、共同研究者で筆者の研究室所属学生の頃より本研究内容に長く従事してくださっている吉田直人先生(名古屋大学)、ロボット実装で長く共同研究に携わってくださり本稿にコメント下さった山添大丈先生(兵庫県立大学)、HAI研究分野のプロジェクトについてコメントいただいた塩見昌裕室長(ATR深層インタラクション総合研究所)に深くお礼申し上げます。この機会を与えてくださった人工知能学会誌編集委員会に心より感謝申し上げます。
  
  
hai-articles/haibookmarks.1616934371.txt.gz · 最終更新: 2021/03/28 21:26 by yone

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki