両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン |
hai-articles:haibookmarks.ver2-revise [2021/03/31 16:38] – [共感と擬人化] yone | hai-articles:haibookmarks.ver2-revise [2022/05/25 12:40] (現在) – [心の知覚と身体(生理)] yone |
---|
====== 人工知能学会 私のブックマーク ====== | ====== 人工知能学会 私のブックマーク ====== |
3/24締め切り | |
| [[https://www.ai-gakkai.or.jp/resource/my-bookmark/my-bookmark_vol36-no3/|発行版]] |
| {{202105_jsai.pdf}} |
| |
===== 擬人化メディアとHuman-Agent Interaction:「情熱」のあるやりとりを目指して ===== | ===== 擬人化メディアとHuman-Agent Interaction:「情熱」のあるやりとりを目指して ===== |
| Human-Agent Interaction and Anthropomorphic Media Advancing to Passionate Communications |
| |
米澤朋子(関西大学 総合情報学部/ATR深層インタラクション総合研究所) | 米澤朋子(関西大学 総合情報学部/ATR深層インタラクション総合研究所) |
* [[https://royalsocietypublishing.org/doi/full/10.1098/rsbl.2017.0156|Perception of animacy in dogs and humans]] | * [[https://royalsocietypublishing.org/doi/full/10.1098/rsbl.2017.0156|Perception of animacy in dogs and humans]] |
* [[https://www.jstor.org/stable/1126300?seq=1|Child Animism: What the Child Means by "Alive"]] | * [[https://www.jstor.org/stable/1126300?seq=1|Child Animism: What the Child Means by "Alive"]] |
| * [[https://www.nature.com/articles/srep06240?origin=ppub|<html><font color=#FF66BB>Effective connectivity during animacy perception – dynamic causal modelling of Human Connectome Project data</font></html>]] |
| |
| |
| |
{{https://science.sciencemag.org/content/sci/315/5812/619/F1.large.jpg?300}} | {{https://science.sciencemag.org/content/sci/315/5812/619/F1.large.jpg?300}} |
| {{https://www.science.org/cms/10.1126/science.1134475/asset/ea1b3494-d9aa-4e58-a30d-f3fe19ccbcee/assets/graphic/315_619_f1.jpeg?300}} |
| |
このようにagency / intelligence と experience / emotionの値は様々なエージェントにより異なると考えられており、適応ギャップはそれぞれの軸に対して存在していると考えると、[[https://www.recruit.co.jp/meet_recruit/2020/03/weakrobots.html|弱いロボット]]はこの中のexperience / emotion軸において正の適応ギャップ(期待以上)となりつつagency / intelligence軸において負の適応ギャップがあるとも言える。 | このようにagency / intelligence と experience / emotionの値は様々なエージェントにより異なると考えられており、適応ギャップはそれぞれの軸に対して存在していると考えると、[[https://www.recruit.co.jp/meet_recruit/2020/03/weakrobots.html|弱いロボット]]はこの中のexperience / emotion軸において正の適応ギャップ(期待以上)となりつつagency / intelligence軸において負の適応ギャップがあるとも言える。 |
* [[https://link.springer.com/article/10.1007/s12369-016-0338-y|Blurring human–machine distinctions: Anthropomorphic appearance in social robots as a threat to human distinctiveness]] | * [[https://link.springer.com/article/10.1007/s12369-016-0338-y|Blurring human–machine distinctions: Anthropomorphic appearance in social robots as a threat to human distinctiveness]] |
* [[https://www.jstage.jst.go.jp/article/itej/72/1/72_17/_article/-char/ja/|クロスモーダル知覚を応用した情動インタフェース]] | * [[https://www.jstage.jst.go.jp/article/itej/72/1/72_17/_article/-char/ja/|クロスモーダル知覚を応用した情動インタフェース]] |
<html><font color=#DD00FF> | |
* [[https://www.jstage.jst.go.jp/article/jsoft/20/4/20_4_500/_article/-char/ja/|エージェントの外見の違いがユーザの態度解釈に与える影響]] | * [[https://www.jstage.jst.go.jp/article/jsoft/20/4/20_4_500/_article/-char/ja/|エージェントの外見の違いがユーザの態度解釈に与える影響]] |
</font></html> | |
| |
| |
一方、仮想エージェントには物理的な接触が不可能である。ロボットにおける接触を伴うHAI研究として、[[https://ieeexplore.ieee.org/abstract/document/1251879|The hug: an exploration of robotic form for intimate communication]]など[[https://hai-conference.net/proceedings/HAI2012/html/paper/paper-3c-1.html|ソーシャルタッチ]]に関する研究が広がりつつある[[[https://research-er.jp/projects/view/1041349 |ソーシャルタッチの研究プロジェクト]]]。 | 一方、仮想エージェントには物理的な接触が不可能である。ロボットにおける接触を伴うHAI研究として、[[https://ieeexplore.ieee.org/abstract/document/1251879|The hug: an exploration of robotic form for intimate communication]]など[[https://hai-conference.net/proceedings/HAI2012/html/paper/paper-3c-1.html|ソーシャルタッチ]]に関する研究が広がりつつある[[[https://research-er.jp/projects/view/1041349 |ソーシャルタッチの研究プロジェクト]]]。 |
人間に似せた触感のシリコン皮膚を持つアンドロイドにも将来的にこのような機能が搭載される可能性もあるが、どのような表現やふるまいがユーザにどのように解釈されるかについての議論がまだ必要な段階である。 | 人間に似せた触感のシリコン皮膚を持つアンドロイドにも将来的にこのような機能が搭載される可能性もあるが、どのような表現やふるまいがユーザにどのように解釈されるかについての議論がまだ必要な段階である。 |
<html><font color=#DD00FF>感情的な動きの再現</font></html>[[https://dl.acm.org/doi/fullHtml/10.1145/3290605.3300599|Geppetto: Enabling Semantic Design of Expressive Robot Behaviors]]<html><font color=#DD00FF>ではロボットの動きと文脈を結びつけて学習した結果の動き自動生成が提案されている。</font></html> | 感情的な動きの再現[[https://dl.acm.org/doi/fullHtml/10.1145/3290605.3300599|Geppetto: Enabling Semantic Design of Expressive Robot Behaviors]]ではロボットの動きと文脈を結びつけて学習した結果の動き自動生成が提案されている。 |
| |
一方、ふるまいの中に含まれる聴覚的身体性としての音声表現がある。 | 一方、ふるまいの中に含まれる聴覚的身体性としての音声表現がある。 |
* [[https://www.jstage.jst.go.jp/article/jrobomech/32/1/32_128/_article/-char/ja/|Survey of Social Touch Interaction Between Humans and Robots]] | * [[https://www.jstage.jst.go.jp/article/jrobomech/32/1/32_128/_article/-char/ja/|Survey of Social Touch Interaction Between Humans and Robots]] |
* [[https://www.frontiersin.org/articles/10.3389/fdigh.2015.00002/full|Social touch in human–computer interaction]] | * [[https://www.frontiersin.org/articles/10.3389/fdigh.2015.00002/full|Social touch in human–computer interaction]] |
<html><font color=#DD00FF> | |
* [[https://link.springer.com/article/10.1007/s12369-017-0425-8|How Do Communication Cues Change Impressions of Human–Robot Touch Interaction?]] | * [[https://link.springer.com/article/10.1007/s12369-017-0425-8|How Do Communication Cues Change Impressions of Human–Robot Touch Interaction?]] |
</font></html> | |
| |
<html><!-- | <html><!-- |
| |
一つ一つの研究のオリジナリティのあり方は議論の余地が多いが、[[https://www.jstage.jst.go.jp/article/jjsai/24/6/24_810/_article/-char/ja/|HAI研究におけるオリジナリティ]] | 一つ一つの研究のオリジナリティのあり方は議論の余地が多いが、[[https://www.jstage.jst.go.jp/article/jjsai/24/6/24_810/_article/-char/ja/|HAI研究におけるオリジナリティ]] |
<html><font color=#DD00FF> | |
や[[https://www.jstage.jst.go.jp/article/jjsai/28/3/28_405/_article/-char/ja/|ヒューマンエージェントインタラクションの研究動向]] | や[[https://www.jstage.jst.go.jp/article/jjsai/28/3/28_405/_article/-char/ja/|ヒューマンエージェントインタラクションの研究動向]] |
</font></html> | |
も参考にされたい。 | も参考にされたい。 |
| |
* [[https://todai.tv/contents-list/2018FY/beyond_deep_learning/04|記号創発ロボティクス]]([[http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/|オリジナルサイト]])(基)(展): 認知発達や知能形成の過程をロボットを通して検証し人間を理解する学問。[[https://www.jst.go.jp/pr/info/info738/index.html|赤ちゃんロボット(浅田共創知能システムプロジェクト)]]にも通ずる。 | * [[https://todai.tv/contents-list/2018FY/beyond_deep_learning/04|記号創発ロボティクス]]([[http://www.em.ci.ritsumei.ac.jp/jp/research/robotics/|オリジナルサイト]])(基)(展): 認知発達や知能形成の過程をロボットを通して検証し人間を理解する学問。[[https://www.jst.go.jp/pr/info/info738/index.html|赤ちゃんロボット(浅田共創知能システムプロジェクト)]]にも通ずる。 |
* [[https://www.igus.co.jp/info/robotics-soft-robotics|ソフトロボティクス]](基)(展): 柔軟で有機的な構造と動きを実現しようという分野・プロジェクト。 | * [[https://www.igus.co.jp/info/robotics-soft-robotics|ソフトロボティクス]](基)(展): 柔軟で有機的な構造と動きを実現しようという分野・プロジェクト。 |
<html><font color=#DD00FF> | * 書籍文献 |
* 書籍文献 [[https://www.kanekoshobo.co.jp/book/b370876.html|やわらかいロボット 新・身体とシステム]] | * [[https://www.kanekoshobo.co.jp/book/b370876.html|やわらかいロボット 新・身体とシステム]] |
* [[https://ipsj.ixsq.nii.ac.jp/ej/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=73706&item_no=1&page_id=13&block_id=8|柔らかいぬいぐるみロボットの動作制御]] | * [[https://ipsj.ixsq.nii.ac.jp/ej/?action=pages_view_main&active_action=repository_view_main_item_detail&item_id=73706&item_no=1&page_id=13&block_id=8|柔らかいぬいぐるみロボットの動作制御]] |
* [[https://www.jstage.jst.go.jp/article/jrsj1983/17/6/17_6_782/_article/-char/ja/|人間らしい柔らかな動きと駆動機構]] | * [[https://www.jstage.jst.go.jp/article/jrsj1983/17/6/17_6_782/_article/-char/ja/|人間らしい柔らかな動きと駆動機構]] |
</font></html> | |
| |
* その他[[https://www.jst.go.jp/kisoken/crest/research_area/ongoing/bunyah29-4.html|共生インタラクションCREST(間瀬先生)]]関係 | * その他[[https://www.jst.go.jp/kisoken/crest/research_area/ongoing/bunyah29-4.html|共生インタラクションCREST(間瀬先生)]]関係 |
本研究は科研費19H04154、19K12090、18K11383、JST,CREST JPMJCR18A1、および2019年関西大学研修員研修費の助成を一部受け実施したものです。 | 本研究は科研費19H04154、19K12090、18K11383、JST,CREST JPMJCR18A1、および2019年関西大学研修員研修費の助成を一部受け実施したものです。 |
執筆に際して有意義な資料やコメントを下さった大澤博隆先生(筑波大学)、共同研究者で筆者の研究室所属学生の頃より本研究内容に長く従事してくださっている吉田直人先生(名古屋大学)、ロボット実装で長く共同研究に携わってくださり本稿にコメント下さった山添大丈先生(兵庫県立大学)、HAI研究分野のプロジェクトについてコメントいただいた塩見昌裕室長(ATR深層インタラクション総合研究所)に深くお礼申し上げます。この機会を与えてくださった人工知能学会誌編集委員会に心より感謝申し上げます。 | 執筆に際して有意義な資料やコメントを下さった大澤博隆先生(筑波大学)、共同研究者で筆者の研究室所属学生の頃より本研究内容に長く従事してくださっている吉田直人先生(名古屋大学)、ロボット実装で長く共同研究に携わってくださり本稿にコメント下さった山添大丈先生(兵庫県立大学)、HAI研究分野のプロジェクトについてコメントいただいた塩見昌裕室長(ATR深層インタラクション総合研究所)に深くお礼申し上げます。この機会を与えてくださった人工知能学会誌編集委員会に心より感謝申し上げます。 |
| |
| |
| ---- |
| |
| ==== 新規リンク (上記資料に埋め込み予定) ==== |
| |
| |
| <html><font color=#0000FF> |
| </html> |
| |
| [[https://www.slideshare.net/iilab/presen-kyoto1110-up|知能が作る社会・社会が作る知能:HAI研究による知能と社会のデザイン(大澤博隆先生)スライド]] |
| |
| [[https://ci.nii.ac.jp/naid/120005246315|ソシオン譜による人間関係の描画について]] [[https://core.ac.uk/download/pdf/35427094.pdf|pdf]] |
| |
| |
| * [[https://ci.nii.ac.jp/ncid/BA76690522|ソシオン理論入門 : 心と社会の基礎科学]] [[https://www.amazon.co.jp/ソシオン理論入門―心と社会の基礎科学-藤澤-等/dp/476282500X|Amazon]] |
| * [[http://www2.itc.kansai-u.ac.jp/~ame/socion/index.html]] |
| * [[https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwidw7nI_ObwAhWjGqYKHevkB_cQFjAAegQIAxAD&url=http%3A%2F%2Fwww2.itc.kansai-u.ac.jp%2F~ame%2Fsocion%2FAgent.pdf&usg=AOvVaw0pqhLIcPd45kxjPmtaD7Zm|エージェント・環境相互作用モデルとソシオン理論(1)―荷重関係のモデル化のこころみ―(社会学部紀要)]] |
| * [[https://slidesplayer.net/slide/16610770/|Slide ソシオン理論の展望 —アイデアから研究プロジェクトへ— 石盛真徳:ソシオン理論の二者関係モデルの実験的検討]] |
| * [[https://slidesplayer.net/slide/11444192/|ソシオン理論における 三者関係のシミュレーション by 関西大学 水谷先生]] |
| |
| {{https://slidesplayer.net/slide/16610770/96/images/2/ソシオンの表記法(ダイアグラム表示)+Wcc+C+Wca+Wcb+Wbc+Wac+A+B+Wbb+Wba+Waa+Wab+W:荷重.jpg?300}} |
| |
| |
| [[https://www.recruit.co.jp/talks/meet_recruit/2020/03/weakrobots.html|助けがないと何もできない〈弱いロボット〉が教えてくれた、いま私たちに足りないこと |
| 2020.03.25 WED]] |
| <html></font> |
| </html> |
| |
| * 対人距離(社会性機能) |
| * 参与構造(社会性機能) |
| |
| |
| === パーソナリティーや感情、エージェント記述など === |
| |
| * [[https://www.researchgate.net/publication/2587856_Toward_Representing_Agent_Behaviors_Modified_by_Personality_And_Emotion|Toward_Representing_Agent_Behaviors_Modified_by_Personality_And_Emotion]] |
| * [[https://link.springer.com/chapter/10.1007/978-3-540-74997-4_10|The Behavior Markup Language: Recent Developments and Challenges]] |
| * [[http://www.miv.t.u-tokyo.ac.jp/papers/santiWebNet2000.pdf|A Multimodal Presentation Markup Language with Character Agent Control Functions(MPML)]] |
| * [[https://www.ii.ist.i.kyoto-u.ac.jp/wordpress/wp-content/uploads/2012/10/ci-pub-2013-4c.pdf|a Scripting Language for Embodied Agents(STEP) by Huang]] |
| * 会話情報学(西田先生) 4. 会話システムのアーキテクチャと構成法 {{ci-pub-2013-4c_nishida.pdf|pdf}} |
| * [[https://www.researchgate.net/publication/227120556_The_Behavior_Markup_Language_Recent_Developments_and_Challenges|BML (behavior markup language)[Kopp 2006] ]] |
| * [[https://link.springer.com/chapter/10.1007/978-3-540-85483-8_28| FML(function markup language) [Heylen 2008] ]] {{Heylen2008next.pdf|pdf}} |
| |
| * [[https://ieeexplore.ieee.org/document/1342948|Overheard communication by SV Suzuki]] |
| * 間接説得 |
| * 参与構造 |
| |
| |
| ==== ==== |
| [[The Uncanny Valley Effect in Zoomorphic Robots: The U-Shaped Relation Between Animal Likeness and Likeability]] 動物の不気味の谷、動物らしさ |
| |
| [[Emotional Wheel]] カテゴリカル・連続値的の良いところを生かす(2020) |
| |
| |
| [[http://caep-hu.sakura.ne.jp/files/oyorinri_no10.pdf#page=35|「ロボットからの倫理学」の書評]] |
| |
| |
| 身体性の表現の中に顔表情の項目を入れる |
| [[https://www.jstage.jst.go.jp/article/tjsai/21/1/21_1_55/_article/-char/ja/|感性ロボットのための感情領域を用いた表情生成]](感情領域の作り方・表情表現の自動生成) |
| |
| |
| Animacyについて |
| 追記(すでにリンクは追加済み) |
| |
| https://www.nature.com/articles/srep06240?origin=ppub |
| |
| |
| |