両方とも前のリビジョン前のリビジョン次のリビジョン | 前のリビジョン |
hai-articles:haibookmarks [2021/03/28 18:54] – [フィールド応用と発展、製品] yone | hai-articles:haibookmarks [2021/03/29 09:09] (現在) – [他分野との相互作用、およびHAI研究の体系化の難しさ] yone |
---|
エンジニアリングの視点からは、上記の定義で述べていくことになるが、今後の擬人化メディアの更なる精緻化により、対象を擬人化して捉えさせるメディアというよりは本質的な心を持った存在になっていくと考えられる。 | エンジニアリングの視点からは、上記の定義で述べていくことになるが、今後の擬人化メディアの更なる精緻化により、対象を擬人化して捉えさせるメディアというよりは本質的な心を持った存在になっていくと考えられる。 |
| |
本稿では、擬人化メディア、擬人化システム、エージェント、仮想エージェント、ロボット(実体エージェント)という語を用いるため、混乱防止のために再度まとめると、1)擬人化メディアは、擬人化を用いた人間への提示をメインとするメディア(システムにっていないものも含む)、2)擬人化システムは、擬人化メディアを付与されたなんらかの機能を持つシステム、3)エージェントは、擬人化システムの//[[#agency|エージェンシー]]//を重視した呼び名、4)仮想エージェントは、ディスプレイやスピーカの中にのみ表現されるエージェント、5)ロボット(実態エージェント)は、物理的身体と動作機構を持つエージェント、をそれそれ示す。 | 本稿では、擬人化メディア、擬人化システム、エージェント、仮想エージェント、ロボット(実体エージェント)という語を用いるため、混乱防止のために再度まとめると、1)擬人化メディアは、擬人化を用いた人間への提示をメインとするメディア(システムにっていないものも含む)、2)擬人化システムは、擬人化メディアを付与されたなんらかの機能を持つシステム、3)エージェントは、擬人化システムの//[[#agency|エージェンシー]]//を重視した呼び名、4)仮想エージェントは、ディスプレイやスピーカの中にのみ表現されるエージェント、5)ロボット(実体エージェント)は、物理的身体と動作機構を持つエージェント、をそれそれ示す。 |
| |
HAI分野におけるエージェントは、人間という外界とインタラクションをもつ自律システムや自律にみせかけるシステム([[http://www.ymd.nii.ac.jp/book/hai/index.html|書籍 人とロボットの〈間〉をデザインする]])とされ、人工知能の分野で扱われる[[https://ja.wikipedia.org/wiki/知的エージェント|自律的な知的エージェント]]とは異なり、AIを内包するシステムとも言える。 | HAI分野におけるエージェントは、人間という外界とインタラクションをもつ自律システムや自律にみせかけるシステム([[http://www.ymd.nii.ac.jp/book/hai/index.html|書籍 人とロボットの〈間〉をデザインする]])とされ、人工知能の分野で扱われる[[https://ja.wikipedia.org/wiki/知的エージェント|自律的な知的エージェント]]とは異なり、AIを内包するシステムとも言える。 |
* [[https://www.sciencedirect.com/science/article/abs/pii/S0093934X06003531|An intentional stance modulates the integration of gesture and speech during comprehension]] | * [[https://www.sciencedirect.com/science/article/abs/pii/S0093934X06003531|An intentional stance modulates the integration of gesture and speech during comprehension]] |
* [[https://www.sciencedirect.com/science/article/abs/pii/S1053811902911171|Imaging the intentional stance in a competitive game]] | * [[https://www.sciencedirect.com/science/article/abs/pii/S1053811902911171|Imaging the intentional stance in a competitive game]] |
* 赤ちゃんの志向姿勢 | * 赤ちゃん/こどもの志向姿勢 |
* [[https://www.sciencedirect.com/science/article/abs/pii/001002779500661H|Taking the intentional stance at 12 months of age]] | * [[https://www.sciencedirect.com/science/article/abs/pii/001002779500661H|Taking the intentional stance at 12 months of age]] |
* [[https://www.sciencedirect.com/science/article/abs/pii/S088520140200165X|Sharing attention and pointing to objects at 12 months: is the intentional stance implied?]] | * [[https://www.sciencedirect.com/science/article/abs/pii/S088520140200165X|Sharing attention and pointing to objects at 12 months: is the intentional stance implied?]] |
* 子供の志向姿勢?? | |
* [[https://hai-conference.net/proceedings/HAI2016/html/paper/paper-G-12.html|子どもの見かた・大人の見かた]] | * [[https://hai-conference.net/proceedings/HAI2016/html/paper/paper-G-12.html|子どもの見かた・大人の見かた]] |
| |
| |
ソマティックマーカー仮説関連の文献 | ソマティックマーカー仮説関連の文献 |
* [[https://royalsocietypublishing.org/doi/abs/10.1098/rstb.1996.0125|The somatic marker hypothesis and the possible functions of the prefrontal cortex]]] | * [[https://royalsocietypublishing.org/doi/abs/10.1098/rstb.1996.0125|The somatic marker hypothesis and the possible functions of the prefrontal cortex]] |
* [[https://www.sciencedirect.com/science/article/pii/S0899825604001034|The somatic marker hypothesis: A neural theory of economic decision]] | * [[https://www.sciencedirect.com/science/article/pii/S0899825604001034|The somatic marker hypothesis: A neural theory of economic decision]] |
* [[https://www.sciencedirect.com/science/article/pii/S1364661307000551|Emotion and consciousness]] | * [[https://www.sciencedirect.com/science/article/pii/S1364661307000551|Emotion and consciousness]] |
* [[https://www.jstage.jst.go.jp/article/itej/72/1/72_17/_article/-char/ja/|クロスモーダル知覚を応用した情動インタフェース]] | * [[https://www.jstage.jst.go.jp/article/itej/72/1/72_17/_article/-char/ja/|クロスモーダル知覚を応用した情動インタフェース]] |
| |
人間や動物に似せた顔を持つエージェントにはその視線や顔表情による//感情表出表現//がある。仮想エージェントでは3Dまたは2D表現によりこれらを構成することができるためロボットに比べ容易であるが、ロボットでは[[kismet]]や[[phillipsのロボット]]のように顔の上のパーツを物理的に制御するものや[[なんか例]]のように顔表情や目の表現のみディスプレイに頼るものもあり、リアリティとコストが比例する中で研究目的に応じてミニマルデザインされる傾向がある。 | 人間や動物に似せた顔を持つエージェントにはその視線や顔表情による//感情表出表現//がある。仮想エージェントでは3Dまたは2D表現によりこれらを構成することができるためロボットに比べ容易であるが、ロボットでは[[http://www.ai.mit.edu/projects/sociable/baby-bits.html|kismet]]や[[https://dl.acm.org/doi/abs/10.1145/1082473.1082823|iCat: an animated user-interface robot with personality]]のように顔の上のパーツを物理的に制御するものや[[https://newatlas.com/mask-bot/20416/|Maskbot]]や[[https://lovot.life/|LOVOT]]のように顔表情や目の表現のみディスプレイに頼るもの、[[https://newswitch.jp/p/18370|瞳孔表現]]をするものもあり、リアリティとコストが比例する中で研究目的に応じてミニマルデザインされる傾向がある。 |
| |
ロボットの物理的身体性には、空間共有状況下で[[指差し]]や[[視線]]による空間情報を伴ったインタラクションを実現することができる。仮想エージェントには一般的には不可能だが、一部エージェント[[https://search.ieice.org/bin/summary.php?id=j99-d_9_915|ユーザ視点位置に応じた描画エージェントを用いた実空間内注視コミュニケーションの検証]]ではVRと裸眼立体視を用いた擬似3D空間を現実空間の座標系に接続することで空間共有インタラクションの実現を狙っている。 | ロボットの物理的身体性には、空間共有状況下で[[https://www.jstage.jst.go.jp/article/jrsj1983/24/8/24_8_964/_article/-char/ja/ |
一方、仮想エージェントには物理的な接触が不可能である。ロボットにおける接触を伴うHAI研究として、[[ハグロボット(海外)]]など[[ソーシャルタッチ]]に関する研究が広がりつつある。 | |Meet me where I'm gazing: How shared attention gaze affects human-robot handover timing]]など指さしや[[https://research.monash.edu/en/publications/meet-me-where-im-gazing-how-shared-attention-gaze-affects-human-r |
| |Meet me where I'm gazing: How shared attention gaze affects human-robot handover timing]]など視線による空間情報を伴ったインタラクションを実現することができる[[[http://tokiox.com/wp/siggraph・展示:アイコンタクトする、表情豊かなロボ/?lang=en|リアルなロボットの視線]]。仮想エージェントには一般的には不可能だが、一部エージェント[[https://search.ieice.org/bin/summary.php?id=j99-d_9_915|ユーザ視点位置に応じた描画エージェントを用いた実空間内注視コミュニケーションの検証]]ではVRと裸眼立体視を用いた擬似3D空間を現実空間の座標系に接続することで空間共有インタラクションの実現を狙っている。 |
| 一方、仮想エージェントには物理的な接触が不可能である。ロボットにおける接触を伴うHAI研究として、[[https://ieeexplore.ieee.org/abstract/document/1251879|The hug: an exploration of robotic form for intimate communication]]など[[https://hai-conference.net/proceedings/HAI2012/html/paper/paper-3c-1.html|ソーシャルタッチ]]に関する研究が広がりつつある[[[https://research-er.jp/projects/view/1041349 |ソーシャルタッチの研究プロジェクト]]]。 |
人間に似せた触感のシリコン皮膚を持つアンドロイドにも将来的にこのような機能が搭載される可能性もあるが、どのような表現やふるまいがユーザにどのように解釈されるかについての議論がまだ必要な段階である。 | 人間に似せた触感のシリコン皮膚を持つアンドロイドにも将来的にこのような機能が搭載される可能性もあるが、どのような表現やふるまいがユーザにどのように解釈されるかについての議論がまだ必要な段階である。 |
| |
| |
| |
指差し・視線・目の表現関係の文献 | 指差し・表情・視線・目の表現関係の文献 |
* [[りんりん・杉山くんあたりの指差し]]できれば海外のも | * [[https://www.tandfonline.com/doi/full/10.1080/09540090600890254|Humanlike conversation with gestures and verbal cues based on a three-layer attention-drawing model]] |
* [[瀬島先生]] | * [[https://ieeexplore.ieee.org/document/1545011|Effects of nonverbal communication on efficiency and robustness in human-robot teamwork]] |
* [[視線表現]] | * [[https://dspace.mit.edu/handle/1721.1/9303|Sociable machines: expressive social exchange between humans and robots]] |
* [[頭部の向き]] | |
* [[https://www.degruyter.com/document/doi/10.2478/pjbr-2013-0008/html|Attractive, Informative, and Communicative Robot System on Guide Plate as an Attendant with Awareness of User’s Gaze]] | * [[https://www.degruyter.com/document/doi/10.2478/pjbr-2013-0008/html|Attractive, Informative, and Communicative Robot System on Guide Plate as an Attendant with Awareness of User’s Gaze]] |
ソーシャルタッチ関連の文献 | |
* [[海外の2−3個、触る関係。ハグボットも含む]] | 身体接触表現関連の文献 |
| * [[https://link.springer.com/article/10.1007/s12369-018-0495-2|Softness, warmth, and responsiveness improve robot hugs]] |
* [[https://dl.acm.org/doi/abs/10.1145/1957656.1957819|Effect of robot's active touch on people's motivation]] | * [[https://dl.acm.org/doi/abs/10.1145/1957656.1957819|Effect of robot's active touch on people's motivation]] |
* [[塩見くんの触ると教育にいい的なやつ]] | * [[https://link.springer.com/chapter/10.1007/978-3-319-70022-9_32| |
| A robot that encourages self-disclosure by hug]] |
* [[https://ieeexplore.ieee.org/abstract/document/6697179|Physical contact using haptic and gestural expressions for ubiquitous partner robot]] | * [[https://ieeexplore.ieee.org/abstract/document/6697179|Physical contact using haptic and gestural expressions for ubiquitous partner robot]] |
* [[https://dl.acm.org/doi/abs/10.1145/3284432.3284449?casa_token=kaeNhoNpPx4AAAAA:Oy_TXRCm4PxXfAE_T_DnuzrJjkDcO7F-IMIZZH-dDGOam_hWyAteAfD_T-UQvFU3IXJ29yFbmv-W|Analyses of Textile Pressure-map Sensor Data of a Stuffed Toy for Understanding Human Emotional Physical Contact]] | * [[https://ieeexplore.ieee.org/abstract/document/1251879|The Hug: an exploration of robotic form for intimate communication]] |
| * [[https://dl.acm.org/doi/10.1145/3311927.3325332|HugBot: A soft robot designed to give human-like hugs]] |
| * [[https://www.jstage.jst.go.jp/article/jrobomech/32/1/32_128/_article/-char/ja/|Survey of Social Touch Interaction Between Humans and Robots]] |
| * [[https://www.frontiersin.org/articles/10.3389/fdigh.2015.00002/full|Social touch in human–computer interaction]] |
| |
| |
| <html><!-- |
| The Six Hug Commandments: Design and Evaluation of a Human-Sized Hugging Robot with Visual and Haptic Perception |
| https://dl.acm.org/doi/abs/10.1145/3434073.3444656 |
| HRI21 |
| --> |
| |
<html><!-- | <html><!-- |
| |
==== 知能(内部/AIデザイン) ==== | ==== 知能(内部/AIデザイン) ==== |
| 人間が持っている情報処理機構はAI技術の中で語られるため、ここでは人間らしい情報処理のための基礎的構造に簡潔に触れるのみとする。 |
| |
=== 外部センシング(知覚認知システム) === | === 外部センシング(知覚認知システム) === |
| 人間を含む動物は様々な感覚器でリアルタイムに外的状況を獲得する。視覚情報、聴覚情報を処理する機能に関する画像処理技術、音声処理技術はDeep Learning技術でさらに発展しつつある。[[http://www.jp.honda-ri.com/research_areas/ci/intelligence02/index.html|ロボット聴覚]]など、エージェントの状況に応じた信号処理技術に関する分野も発展している。 |
| |
* 視覚 | 一方触覚センシングは筆者が[[https://dl.acm.org/doi/abs/10.1145/3284432.3284449|Analyses of Textile Pressure-map Sensor Data of a Stuffed Toy for Understanding Human Emotional Physical Contact]]で処理技術を検討したが、視聴覚に比べ研究例や技術の充実は弱い。[[https://pubmed.ncbi.nlm.nih.gov/26504228/|Topography of social touching depends on emotional bonds between humans]]のように人間の間で行われる接触に関する分析をベースに今後発展していくと考えられる。 |
* 聴覚 | |
* 触覚 | |
* その他?? | |
| |
MIRU 人間の見る機能と認識 | |
| |
外界理解の上位レベル:社会的状況理解 | 外界理解においては、要素を認識していくことだけでなく、上位レベルとして様々な社会的状況理解や他者の[[https://www.nttdocomo.co.jp/corporate/technology/rd/tech/term/21/index.html|心理的状況理解]]までを実現することが、共感や社会的行動につながる重要な認知機構となると考えられる。 |
| |
ロボット視覚・ロボット聴覚・外界理解 | |
| |
=== 内部状態 === | === 内部状態 === |
| 人間に起こる内部状態や内部処理の機構に関し、特にHAIにおいては他者との関係に関わる知能に焦点が当てられている。 |
| 人間は認識により得られた外部状態が自らに良い状況かに応じ、身体に直結した本能的情動や感情が起こる。 |
| 例えば他者からの情動伝染は他者とのインタラクションを通じた感情理解による内部状態の変化である。 |
| Russellが提唱した[[https://study.com/academy/lesson/circumplex-model-of-emotion.html|感情円環モデル]]ではこの感情状態をpleasure軸(快不快)とarousal軸(覚醒度)の2軸において連続的に表すことができる。一方Ekmanは感情を |
| [[https://en.wikipedia.org/wiki/Emotion_classification|不連続なカテゴリ]]に分けて扱った。 |
| |
基本的に人間と同じように作る。 | エージェントをデザインし実装する際に、このいずれのモデルに基づくかにより性格特性のデザイン手法も異なる。例えばEkmanの不連続なカテゴリをベースとして、[[https://manabitimes.jp/math/1060|マルコフ過程の状態遷移]]を用いた遷移確率の調整を行うことで、悲しみやすい性格や喜びやすい性格などの性格特徴を再現できる。Russellの連続性のあるモデルであれば、パラメータの比重をキャラクタごとに変更するなどにより実現するだろう。 |
* 情動と感情 | また、//理性的//な性格は、内部の感情状態が判断を鈍らせない程度の勾配で変化するにとどまったりリミッターがある状態を作ればよいと考えられる。 |
| |
Damasio | |
| |
Russell | 感情関連の文献 |
Ekman | * [[https://psycnet.apa.org/record/1981-25062-001|A circumplex model of affect]] |
| * [[https://www.tandfonline.com/doi/abs/10.1080/02699939208411068|An argument for basic emotions]] |
| * [[https://www.jstage.jst.go.jp/article/tjsai/21/1/21_1_55/_article/-char/ja/|感性ロボットのための感情領域を用いた表情生成]] |
| * [[https://www.jstage.jst.go.jp/article/jsoft/22/1/22_1_25/_article/-char/ja/|ニューラルネットワークを用いた MaC モデルに基づく感情生成システム]] |
| * [[https://ieeexplore.ieee.org/abstract/document/5771357|Emotion representation, analysis and synthesis in continuous space: A survey]] |
| |
| 次に、何らかの判断をしたり実行に移すなどの行動を引き起こす欲求として、[[https://www.recruit-ms.co.jp/glossary/dtl/0000000048/|内発的動機]]と外発的動機が必要である。 |
| 外発的動機は外部の状況により行動が引き起こされるが、内発的動機はエージェント自身が持つ動機とされる。 |
| このような動機を持つことで「欲しいけど我慢」といった様々な内部状態を持つエージェントが実現可能になる。 |
| |
欲求 | 内発的動機関係の文献 |
| * [[https://www.jstage.jst.go.jp/article/sicejl/52/12/52_1129/_article/-char/ja/|内発的動機付けによるエージェントの学習と発達]] |
| * [[https://ieeexplore.ieee.org/abstract/document/4141061|Intrinsic Motivation Systems for Autonomous Mental Development]] |
| * [[https://www.frontiersin.org/articles/10.3389/fpsyg.2013.00618/full|A motivation model for interaction between parent and child based on the need for relatedness]] |
| |
| |
情動伝染やインタラクションにおける+ーの出来事によって内部状態 | 自然言語処理分野における[[https://spjai.com/interactive-system/|対話システム]]研究はAI研究の一端として広がりを見せているが、特に他者とのつながりを重視した雑談などの対話は、目的や正解のみがある情報提供型対話とは異なり、HAI研究に関係するゴールを持っている。 |
| [[https://www.commu-ai.org/activity/20200109-2019fysymposium-announce.html|対話知能学]]はこれらの知能を統合したインタラクティブなエージェントの高度化を目指すプロジェクトと言える。 |
| |
性格特性(内側の設定) | |
positive negative(ポジティブタイプか) | |
active inactive(活発か) | |
理知的か・理性的か | |
| |
=== 社会性 === | === 社会性 === |
| |
==== フィールド応用と発展、製品 ==== | ==== フィールド応用と発展、製品 ==== |
HAI研究を様々なフィールドで応用するシーンが増えてきている。一方で新たな応用を検討する際は当然ながらシーンとターゲットユーザの選定を行った上で | HAI研究を様々なフィールドで応用するシーンが増えてきている。 |
| 一方で新たな応用の可能性は、当然ながらシーンとターゲットユーザの選定を行った上で検討される。 |
| HAI研究分野でよく取り扱われるフィールドとしては、教育([[https://robotstart.info/2020/04/30/nao-goto-experiment.html|教室環境]]/[[https://www.pref.kanagawa.jp/docs/sr4/prs/r4443577.html|幼児]]/[[https://www.gizmodo.jp/2018/09/how-robots-could-help-autistic-children-improve-their-social-skills.html|障がい]])、[[https://www.dcs.co.jp/itshowcase/media/case_study/robotics.html|介護]]支援(施設/自宅)、商用施設([[https://robot.watch.impress.co.jp/docs/news/335825.htmll|スーパー]][[https://www.atr.jp/topics/press_201110.html|ショッピングモール]]など)、家庭内、などが挙げられる。 |
| 教室環境では、人間の社会関係の分析とそれに応じたエージェントのふるまいによる人間関係の改善や個々の支援、商用施設では、デジタルサイネージにおける情報提供にあたる機能やさりげない買い物支援など店員の代替、など、人間の社会に入り込むHAI研究の応用が望まれる。その一方、介護シーンでは、高齢認知症患者の社会的ひきこもりに対するコミュニケーションの機会の創生、家庭内では、孤独の解消や娯楽、など、個人ユーザに向けたパーソナライズドなサービス、 |
| 医療・トレーニングなどの福祉分野では、医療者やトレーナーを代替するエージェントが求められる。 |
| <html><!--患者の行動変容を図り状態改善を狙うものもあるが、主にこの分野に占めているのは--></html> |
| |
、強化機能を検討 | 家庭内個人向けの擬人化システムは長い間取り組まれてきた([[https://us.aibo.com|Aibo]] etc.)結果として、製品化されたものが多い。ぬいぐるみに対話機能を付与する[[https://pechat.jp/|Pechat]]や[[https://qoobo.info/index/|Qoobo]]、[[https://lovot.life/|LOVOT]]などの愛玩系ロボットは近年リリースされた愛着を持たせるデザインの家庭用ロボットシステムである。個人の利用シーンに応じた価格帯と外界理解や内部処理のレベルは、今後も更なるバリエーションをもって多数の製品がリリースされると考えられる。 |
特徴を作る | その一方、医療福祉分野で現在リリースされている製品は、物理的な[[https://panasonic.co.jp/design/about-us/news/20181003-g100robo.html|歩行トレーニング支援]]や[[https://www.fuji.co.jp/items/hug/hugt1|介護支援]]といった作業支援ロボットが目立つ状況となっており、個人用のロボットにおけるHAIの浸透状況とは異なる。このような現状を踏まえ、各フィールドにおいて必要なHAI技術の実用が急がれる。 |
| |
| |
| |
* 教室 | <html><!-- |
* 商用施設 | HAI研究の成果が展開するフィールドでは |
* 自閉症の子供 | |
* 介護施設 | |
| |
| 、強化機能を検討 |
| 特徴を作る |
| --></html> |
| |
* Pechat | |
* 村上さんのやつの製品の LOVOT | |
| |
もふもふのルンバ的なやつ | |
[[https://qoobo.info/index/|Qoobo]] | |
HAI協賛のところ | |
| |
や[[https://us.aibo.com|Aibo]] | |
| |
介護ロボット系 | |
===== HAIにおける状況 ===== | ===== HAIにおける状況 ===== |
| |
上記のように認知科学や心理学、神経科学、脳科学、言語学などの分野から得られた知見や理論や仮説を、人工知能(情報科学)をベースにしつつ擬人化システムに組み込んで、工学的に擬人化システムを改良したり、構成論的に検証するなど、HAIは多くの分野にまたがる研究分野である。 | 上記のように認知科学や心理学、神経科学、脳科学、言語学などの分野から得られた知見や理論や仮説を、人工知能(情報科学)をベースにしつつ擬人化システムに組み込んで、工学的に擬人化システムを改良したり、構成論的に検証するなど、HAIは多くの分野にまたがる研究分野である。 |
また、発達心理学・神経科学・医学などとも関係があり([[https://ja.wikipedia.org/wiki/計算論的神経科学|計算論的神経科学]]、[[http://psy.keiomed.jp/computation.html|計算論的精神医学研究室]])、エージェントの心を構成したり人間の心の仕組みを取り入れたりするなどの点で他分野との相互作用が大きい。 | また、発達心理学・神経科学・医学などとも関係があり([[https://ja.wikipedia.org/wiki/計算論的神経科学|計算論的神経科学]]、[[http://psy.keiomed.jp/computation.html|計算論的精神医学研究室]])、エージェントの心を構成したり人間の心の仕組みを取り入れたりするなどの点で他分野との相互作用が大きい。 |
また、HAIにおける外観や身体のデザインや製品化においてはロボット工学、美学、デザイン学も関係しており、応用シーンとしても医学、看護学、教育学、介護福祉学、経済学など、複数の分野に波及効果がある。 | HAIにおける外観や身体のデザインや製品化においてはロボット工学、美学、デザイン学も関係しており、応用シーンとしても医学、看護学、教育学、介護福祉学、経済学など、複数の分野に波及効果がある。 |
| |
HAIの基礎に関連するトピックを取り上げると、擬人化という心理的状態の分析解明が多く取り扱われることとなり、実際、HAI分野の研究においては認知科学者の占める割合は大きいが、今後はHAIからのアウトプットに関連する他分野におけるHAIの取り組みが増えることが期待される。 | HAIの基礎に関連するトピックを取り上げると、擬人化という心理的状態の分析解明が多く取り扱われることとなり、実際、HAI分野の研究においては認知科学者の占める割合は大きいが、今後はHAIからのアウトプットに関連する他分野におけるHAIの取り組みが増えることが期待される。 |
| |
| |
===== おわりに(5) ===== | ===== おわりに ===== |
| |
本稿ではHuman-Agent Interactionにおけるトピックの整頓や関連する研究コミュニティの紹介を行った。 | 本稿ではHuman-Agent Interactionにおけるトピックの整頓や関連する研究コミュニティの紹介を行った。 |
| |
人間の代替としてのエージェントと人間以上の人間を求めるような高度化とは別に、いかにユーザの生活を豊かにするかという観点を持ち続けることで、脅威のリスクに向き合うこともできる。 | 人間の代替としてのエージェントと人間以上の人間を求めるような高度化とは別に、いかにユーザの生活を豊かにするかという観点を持ち続けることで、脅威のリスクに向き合うこともできる。 |
人間ユーザの「情」を満たすメディアとして、さらに、擬人化メディア自身の「情」を含みつつそれも満たすメディアとして、人間だけでなく人工物のQOLも向上させるような、共生的未来を開発者全員が真剣にデザインし続けることが、HAI分野において今後必要不可欠となるだろう。 | 人間ユーザの「情」を満たすメディアとして、さらに、擬人化メディア自身の「情」を含みつつそれも満たすメディアとして、人間だけでなく人工物のQOLも向上させるような共生的未来を、研究者や開発者全員が真剣にデザインし続けることが、HAI分野において今後必要不可欠となるだろう。 |
| |
最後に、文献/リンク類はあくまで抜粋であり、HAI関連分野が非常に広いことを鑑みつつヒントとしていただけることを願う。 | 最後に、文献/リンク類はあくまで抜粋であり、HAI関連分野が非常に広いことを鑑みつつヒントとしていただけることを願う。 |
| |
本研究は科研費19H04154、19K12090、18K11383、JST,CREST JPMJCR18A1、および2019年関西大学研修員研修費の助成を一部受け実施したものです。 | 本研究は科研費19H04154、19K12090、18K11383、JST,CREST JPMJCR18A1、および2019年関西大学研修員研修費の助成を一部受け実施したものです。 |
執筆に際して有意義な資料やコメントを下さった大澤博隆先生(筑波大学)、共同研究者で筆者の研究室所属学生の頃より本研究内容に長く従事してくださっている吉田直人先生(名古屋大学)、ロボット実装で長く共同研究に携わってくださり本稿にコメント下さった山添大丈先生(兵庫県立大学)、HAI研究分野のプロジェクトに明るくコメントいただいた塩見昌裕室長(ATR深層インタラクション総合研究所)に深くお礼申し上げます。この機会を与えてくださった人工知能学会誌編集委員会に心より感謝申し上げます。 | 執筆に際して有意義な資料やコメントを下さった大澤博隆先生(筑波大学)、共同研究者で筆者の研究室所属学生の頃より本研究内容に長く従事してくださっている吉田直人先生(名古屋大学)、ロボット実装で長く共同研究に携わってくださり本稿にコメント下さった山添大丈先生(兵庫県立大学)、HAI研究分野のプロジェクトについてコメントいただいた塩見昌裕室長(ATR深層インタラクション総合研究所)に深くお礼申し上げます。この機会を与えてくださった人工知能学会誌編集委員会に心より感謝申し上げます。 |
| |
| |