書籍
書籍検索
送料無料

エンジニア入門シリーズ

3D映像制作のための基礎からわかるMR(複合現実)~リアルとバーチャルの融合技術~

著: 大島 登志一 (立命館大学)
定価: 3,960円(本体3,600円+税)
判型: A5
ページ数: 242 ページ
ISBN: 978-4-910558-25-7
発売日: 2024/1/22
管理No: 123

【目次】

0章 まえがき

  1. 0.1.内容と対象
    1. 0.1.1.用語の確認
    2. 0.1.2.MRでVRからARにいたる現実感技術を体系化
  2. 0.2.構成

1章 ミクストリアリティ~MRの基礎~

本章の概要
  1. 1.1.人の体験と活動を増強する 「現実感技術」
    1. 1.1.1.現実と非現実、フィジカルとデジタル
    2. 1.1.2.デジタル技術で越えるフィジカルの制約
    3. 1.1.3.フィジカルとデジタルの境界面
    4. 1.1.4.現実感技術はもうひとつの 「身体」
  2. 1.2.人の感覚体験と現実感技術
    1. 1.2.1.現実とは推定された知覚世界
    2. 1.2.2.現実感は整合性のある感覚体験
    3. 1.2.3.環境の多様な様相を受容する仕組み
    4. 1.2.4.感覚モダリティの種類
  3. 1.3.VRの発祥とMRへの展開
    1. 1.3.1.VRの胎動
    2. 1.3.2.VRの誕生
    3. 1.3.3.VRからAR、MRへ
    4. 1.3.4.社会一般への普及
  4. 1.4.VR とAR からMR へのアップデート
    1. 1.4.1.学術上はMR=VR+AR
    2. 1.4.2.実質的にはMR=VR×AR
    3. 1.4.3.MRを再定義する

2章 ディスプレイ(基本編)~映像空間への没入~

本章の概要
  1. 2.1.人の視覚のメカニズム
    1. 2.1.1.光と眼とMR
    2. 2.1.2.光
    3. 2.1.3.人の視覚のメカニズム~光を受容する器官 「眼」 ~
    4. 2.1.4.色の知覚のメカニズムと三原色
    5. 2.1.5.奥行き知覚の仕組み
  2. 2.2.MRの視覚体験
    1. 2.2.1.視覚的リアリティの要件
    2. 2.2.2.人の視覚機構に関わる4種の要件
  3. 2.3.MR空間の視覚情報に関わる4つの整合性
    1. 2.3.1.バーチャルとリアルとを一体化して体験する
    2. 2.3.2.幾何学的整合性
    3. 2.3.3.光学的整合性
    4. 2.3.4.空間的整合性
    5. 2.3.5.時間的整合性
  4. 2.4.MRのディスプレイ形態と特徴
    1. 2.4.1.ユーザと表示環境との空間的配置による分類
    2. 2.4.2.眼前の画面に映像を提示するHMD
    3. 2.4.3.ハンドヘルド型MRディスプレイ
    4. 2.4.4.据え置き型MRディスプレイ
    5. 2.4.5.環境型MRディスプレイ
    6. 2.4.6.HMDと没入型ディスプレイ~アプローチの比較~
  5. 2.5.HMD
    1. 2.5.1.HMDの基本機能
    2. 2.5.2.HMDのディスプレイ構造
    3. 2.5.3.ステレオ立体表示
    4. 2.5.4.レジストレーション機能
  6. 2.6.MR HMD
    1. 2.6.1.2種類のシースルー型ディスプレイ方式
    2. 2.6.2.光学シースルー方式
    3. 2.6.3.ビデオシースルー方式
  7. 2.7.プログラムの考え方
    1. 2.7.1.基本プログラム
    2. 2.7.2.左右独立2系統式のHMD用画像の生成
    3. 2.7.3.単一画面型の広視野HMD
    4. 2.7.4.歪補正
    5. 2.7.5.ビデオシースルー型MR画像の生成
    6. 2.7.6.ビデオシースルーHMDでの処理を俯瞰
  8. 2.8.環境型・没入型ディスプレイ
    1. 2.8.1.人を映像で包み込む環境型・没入型ディスプレイ
    2. 2.8.2.広視野スクリーン式没入型ディスプレイ
    3. 2.8.3.平面形状
    4. 2.8.4.曲面形状
  9. 2.9.ステレオ立体表示の基本
    1. 2.9.1.ステレオ立体表示の原理
    2. 2.9.2.眼鏡型ステレオ立体表示
    3. 2.9.3.パッシブステレオ方式
    4. 2.9.4.偏光方式
    5. 2.9.5.アクティブステレオ方式
    6. 2.9.6.プログラムの考え方
  10. 2.10.水平視差画像による裸眼型立体表示
    1. 2.10.1.パララックスバリア方式とレンチキュラ方式
    2. 2.10.2.二眼から多眼への拡張
    3. 2.10.3.多眼から超多眼へ
    4. 2.10.4.裸眼型立体表示方式とヘッドトラッキングとの併用
    5. 2.10.5.プログラムの考え方

3章 ディスプレイ(発展編)~実体的な空間性の再現~

本章の概要
  1. 3.1.インテグラルフォトグラフィ
    1. 3.1.1.原理の概要
    2. 3.1.2.効果は視点位置の自由度増大
    3. 3.1.3.インテグラル3D方式
    4. 3.1.4.MRとインテグラル3Dディスプレイ
  2. 3.2.ホログラフィ
    1. 3.2.1.基本原理
    2. 3.2.2.ホログラムの記録と再生
    3. 3.2.3.ホログラムの一般的利用
    4. 3.2.4.ホログラフィのデジタル化
  3. 3.3.ボリューム・ディスプレイ
    1. 3.3.1.3次元的なボリュームのある光や実体
    2. 3.3.2.空中に光で映像を描き出す「体積走査ディスプレイ」
    3. 3.3.3.手に触れられるような「実体型ディスプレイ」
  4. 3.4.光学式空中像
    1. 3.4.1.光学的な仕組みによる空中像
    2. 3.4.2.虚像型空中像~ハーフミラー方式(ペッパーズゴースト方式) ~
    3. 3.4.3.実像型 (投影型) 疑似空中像
    4. 3.4.4.実像型 (空中結像型) 空中像
    5. 3.4.5.MRと空中像

4章 センシング~現実環境からMR環境への入力~

本章の概要
  1. 4.1. 現実環境のセンシング
    1. 4.1.1. バーチャル環境には現実環境が必要
    2. 4.1.2. ジオメトリとフォトメトリ
    3. 4.1.3. 点から面、体積へ
  2. 4.2. 位置と姿勢のセンシング
    1. 4.2.1. 位置姿勢計測の基本
    2. 4.2.2. 身体動作のセンシング
    3. 4.2.3. 位置姿勢計測の代表的な諸方式
  3. 4.3. 位置姿勢計測センサ
    1. 4.3.1. 機械式
    2. 4.3.2. 磁気式
    3. 4.3.3. 慣性方式
    4. 4.3.4. 光学式
    5. 4.3.5. レーザ走査トラッキング方式
  4. 4.4. 空間構造のデジタル化
    1. 4.4.1. 位置姿勢センサからデプスビジョンへ
    2. 4.4.2. ステレオ法
    3. 4.4.3. Time-of-Flight法
    4. 4.4.4. デプスビジョンからボリューメトリックへ

5章 インタラクション~MR環境と身体との相互作用~

本章の概要
  1. 5.1.力覚と触覚
    1. 5.1.1.力覚と触覚の役割は力加減
    2. 5.1.2.力触覚の知覚の仕組み
    3. 5.1.3.力触覚ディスプレイ
  2. 5.2.力覚ディスプレイ
    1. 5.2.1.力覚ディスプレイのアプローチを俯瞰する
    2. 5.2.2.トルク (回転力) を発生する回転体方式
    3. 5.2.3.力覚ディスプレイとMR
  3. 5.3.触覚ディスプレイ
    1. 5.3.1.振動式触覚ディスプレイ
    2. 5.3.2.超音波アレイ式触覚ディスプレイ
    3. 5.3.3.その他の触覚ディスプレイ
    4. 5.3.4.触覚ディスプレイとMR
  4. 5.4.歩行感覚の提示
    1. 5.4.1.ロコモーション・インタフェースの基本原理
    2. 5.4.2.ロコモーション・インタフェースの諸方式
    3. 5.4.3.視覚的な錯覚と組み合わせて歩行空間を歪ませる
    4. 5.4.4.その他のアプローチ
    5. 5.4.5.ロコモーション・インタフェースとMR

6章 アプリケーション~MRの応用と展望~

本章の概要
  1. 6.1.フィジカルな環境に浸透するMR
    1. 6.1.1.フィジカルMRディスプレイ
    2. 6.1.2.MRの社会実装にフォーカスする「ラヴァル・バーチャル」
    3. 6.1.3.教育と医療、トレーニングへの展開
  2. 6.2.一次救命処置を体得する
    1. 6.2.1.一次救命処置が生死を分ける
    2. 6.2.2.バーチャルな患者をフィジカルに救命するシミュレータ
  3. 6.3.実験器具の使い方を体得する
    1. 6.3.1.安全性と学習機会の両立を目指す
    2. 6.3.2.フィジカルなバーナーとバーチャルな炎で学ぶ
  4. 6.4.生態系や生命の動態に触れる
    1. 6.4.1.循環する生態系の動態を知る
    2. 6.4.2.微小生物の動きを力覚で感じとる
  5. 6.5.地形に触れて学際的に学ぶ
    1. 6.5.1.視覚と触覚で見る、触る地図
  6. 6.6.バーチャルな標本教材に触れ、学ぶ
    1. 6.6.1.生物や人体についての学びを拡張する
    2. 6.6.2.視覚と力触覚を複合した振動する標本ケース
    3. 6.6.3.複数人で視聴し学ぶ、疑似3次元映像のカプセル
  7. 6.7.眼に見えない概念を触れて学ぶ
    1. 6.7.1.数理的な概念を触り、見て、学ぶ
    2. 6.7.2.プログラムをカードで紡ぎ、図形を描く
    3. 6.7.3.電圧と電流を映像化して学ぶ
    4. 6.7.4.日本の伝統色の名前と歴史・文化
  8. 6.8.癒しと娯楽
    1. 6.8.1.フィジカルとバーチャルで異世界を楽しむ
    2. 6.8.2.リアル世界とバーチャル世界の境界を防衛!
    3. 6.8.3.忍者になって鬼退治!
    4. 6.8.4.バーチャル世界の魚と素手で戯れる
  9. 6.9.MRが偏在化する未来へ

【参考文献】

  • Scott S. Fisher, Michael W. McGreevy, Jim Humphries, Warren Robinett (1986). Virtual environment display system. I3D '86: Proceedings of the 1986 workshop on Interactive 3D graphics, pp. 77-87. January 1987. DOI: https://doi.org/10.1145/319120.319127.
  • 舘暲 (2006). 10周年記念特集 日本のVR~VR黎明期の記憶~. 日本バーチャルリアリティ学会誌第11巻2号, pp. 21 - 24. 2006年6月.
  • Paul Milgram, Fumio Kishino (1994). A Taxonomy of mixed reality visual displays. IEICE Transactions on Information Systems, Vol E77-D, No.12 December 1994.
  • Mixed Reality: Merging Real and Virtual. Yuichi Ohta and Hideyuki Tamura, Springer (1999/4/1). ISBN: ISBN-10:3540656235.
  • 『バーチャルリアリティ学』[監修] 舘暲, 佐藤誠, 廣瀬通孝, [編集] 日本バーチャルリアリティ学会. コロナ社 (2011/1/11). ISBN978-4-904490-05-1
  • Ronald T. Azuma (1997). A survey of augmented reality. In Presence: Teleoperators and Virtual Environments Vol. 6, No. 4 (August 1997), pp. 355 -385.
  • 『VR実践講座~HMDを越える4つのキーテクノロジー~』岩田洋夫. 科学情報出版(2017/9/13). ISBN978-4-904774-60-1.
  • 『AR技術の基礎・発展・実践』[監修] 蔵田武志, 清川清, [編集] 大隈隆史. 科学情報出版 (2015/9/28) ISBN978-4-904774-39-7.
  • 『ARの教科書』[著] D. Schmalstieg, T. Höllerer, [編集] 池田聖, 酒田信親, 山本豪志朗, [訳] 池田聖ほか. マイナビ出版 (2018/7/26). ISBN978-4-8399-6536-5.
  • 『コンピュータグラフィックス[改訂新版]』画像処理教育振興協会 (2016/9/20). ISBN-10:4903474496
  • Ramesh Raskar, Greg Welch, Henry Fuchs (1998). Spatially Augmented Reality. Proc. of IWAR‘98, pp. 63 - 72. SF, USA (November 1998).
  • Ivan E. Surtherland (1968). A head-mounted three dimentional display. AFIPS '68 (Fall, part I): Proceedings of the December 9-11, 1968, fall joint computer conference, part I, pp. 757-764. December 1968. DOI: https://doi.org/10.1145/1476589.1476686.
  • Steven Feiner, Blair MacIntyre, Tobias Höllerer, Anthony Webster (1997). A touring machine: Prototyping 3D mobile augmented reality systems for exploring the urban environment. Personal Technologies, Vol. 1, pp. 208-217.
  • Carolina Cruz-Neira, Daniel J. Sandin, Thomas A. DeFanti (1992). The CAVE: Audio visual experience automatic virtual environment, Communications of the ACM, Vol. 35, No. 6. June 1992. pp. 65-72. DOI: https://doi.org/10.1145/129888.129892.
  • 河西元, 原祥堯, 坪内孝司, 大矢晃久 (2014). 超広角低歪なレンズの高次多項式モデルを用いたカメラキャリブレーション. ロボティクス・メカトロニクス講演会講演概要集 2014 (0), _1P1-C08_1-_1P1-C08_4, 2014.
  • Power Wall. University of Minnesota.
    https://www.lcse.umn.edu/research/powerwall/powerwall.html.
    (2023年11月12日参照)
  • 『GLUT/freeglutによるOpenGL入門』床井浩平. 工学社 (2015/10/16). ISBN-10: 4777519171.
  • 『ステレオグラフィックス&ホログラフィ』安居院猛, 中嶋正之. 秋葉出版. (1985/4/20). ISBN4-87184-037-9.
  • 『ホログラフィ入門 コンピュータを利用した3次元映像・3次元計測』伊藤智義, 下馬場朋禄. 講談社. 2017年. ISBN-10:4061565702.
  • Takeo Kanade, Peter Rander, P. J. Narayanan (1997) Virtualized reality: constructing virtual worlds from real scenes. IEEE Multimedia, Vol. 4, No. 1, pp. 34-47 (Jan.-March 1997). DOI: 10.1109/93.580394.
  • 『VR実践講座~HMDを越える4つのキーテクノロジー~』岩田洋夫. 科学情報出版(2017/9/13). ISBN978-4-904774-60-1.
  • Keigo Matsumoto, Takuji Narumi, Yuki Ban, Yohei Yanase, Tomohiro Tanikawa, Michitaka Hirose (2019). Unlimited Corridor: A Visuo-haptic Redirection System. VRCAI '19: Proceedings of the 17th International Conference on Virtual-Reality Continuum and its Applications in Industry. Article No. 18, Pages 1-9 (November 2019). DOI: https://doi.org/10.1145/3359997.3365705.
  • Toshikazu Ohshima, Hiroki Ishihara, Ryuki Shibata (2016). Virtual ISU: Locomotion interface for immersive VR gaming in seated position. VRIC ‘16: Proceedings of the 2016 Virtual Reality International Conference. Article No. 2, pp. 1-4. Laval, France (March 2016). DOI: https://doi.org/10.1145/2927929.2927941.
  • Toshikazu Ohshima, Hiroki Ishihara, Ryuki Shibata (2016). Virtual ISU. Laval Virtual 2016 ReVolution, Demo. Laval, France (March 2016).
  • Laval Virtual. URL: https://laval-virtual.com
  • Toshikazu Ohshima, Saina Matsui, Mizuki Yamane, Yali Ling, Katsuhito Muroi, Chihiro Sakai (2023). MR BLS Trainer: A Physical Mixed Reality CPR+AED Rescue Simulator. SA '23: Proceedings of SIGGRAPH Asia 2023 XR. Sydney, Australia (December 2023). DOI: https://doi.org/10.1145/3610549.3614591.
  • Ritsumeikan Ohshima Lab., MR BLS Trainer.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/MR_BLS_Trainer
  • Toshikazu Ohshima, Kai Nishimoto (2021). HoloBurner. Laval Virtual 2021, ReVolution #research. Laval, France (April 2021).
  • Toshikazu Ohshima, Kai Nishimoto (2021). HoloBurner: A mixed reality equipment for learning flame color reaction by using aerial imaging display, SA '21: Proceedings of SIGGRAPH Asia 2021 Emerging Technology, Article No. 7. Tokyo, Japan (December 2021). DOI: https://doi.org/10.1145/3476122.3484846.
  • Ritsumeikan Ohshima Lab., HoloBurner
    URL https://scrapbox.io/OhshimaLab-Ritsumei/Holo_Burner
  • Toshikazu Ohshima, Kenzo Kojima (2017) MitsuDomoe. Laval Virtual 2017 ReVolution, Demo. Laval, France (March 2017).
  • Toshikazu Ohshima, Kenzo Kojima (2017). MitsuDomoe: ecosystem simulation of virtual creatures in petri dish. VRIC '17: Proceedings of the Virtual Reality International Conference - Laval Virtual 2017. Article No. 2. Laval, France (March 2017). DOI: https://doi.org/10.1145/3110292.3110295.
  • Ritsumeikan Ohshima Lab., MitsuDomoe
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/Mitsudomoe
  • Toshikazu Ohshima (2018). Tactile Microcosm of ALife. Laval Virtual 2018 ReVolution, Demo. Laval, France (April 2018).
  • Toshikazu Ohshima, Tsukasa Sumizono (2018). Tactile microcosm of ALife: interaction with artificial life by aerial mixed reality display. SA '18: SIGGRAPH Asia 2018 Posters, Article No. 53. Tokyo, Japan (December 2018). DOI: https://doi.org/10.1145/3283289.3283357.
  • Toshikazu Ohshima (2019). Tactile Microcosm of ALife. SA '19: SIGGRAPH Asia Art Gallery/Art Papers, Article No. 15. Brisbane, Australia (November 2019). DOI: https://doi.org/10.1145/3354918.3366357.
  • Ritsumeikan Ohshima Lab., Tactile Microcosm of ALife
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/Tactile_Microcosm_of_ALife
  • Akari Watanabe, Toshikazu Ohshima (2023). HaptoMap: A visuo-tactile map interface to support geography education. Laval Virtual 2023 ReVolution #research, Demo. Laval, France (April 2023).
  • Ritsumeikan Ohshima Lab. HaptoMap.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/HaptoMap
  • Kiichiro Kigawa, Toshikazu Ohshima (2019). HaptoBOX. Laval Virtual 2019 ReVolution #research. Laval, France. March 2019.
  • Kiichiro Kigawa, Toshikazu Ohshima (2019). HaptoBOX: A multi-sensory physical interface for mixed reality experience. Proc of ACM SIGGRAPH Asia 2019 Posters, Article No. 13. Brisbane, Australia (November 2019). DOI: https://doi.org/10.1145/3355056.3364560.
  • Ritsumeikan Ohshima Lab. HaptoBOX.
    https://scrapbox.io/OhshimaLab-Ritsumei/HaptoBox
  • Toshikazu Ohshima, Takeru Watanabe (2020). HoloBall. Laval Virtual ReVolution #research 2020. Laval, France (April 2020).
  • Ritsumeikan Ohshima Lab. HoloBALL.
    https://scrapbox.io/OhshimaLab-Ritsumei/HoloBall
  • Ren Sakamoto, Toshikazu Ohshima (2019). Code Weaver. Laval Virtual 2019 ReVolution #research. Laval, France (April 2019)
  • Ren Sakamoto, Toshikazu Ohshima (2019). Code Weaver: A Tangible Programming Learning Tool with Mixed Reality Interface. SA '19: SIGGRAPH Asia 2019 Posters, Article No. 11, Brisbane, Australia (November 2019). DOI: https://doi.org/10.1145/3355056.3364561.
  • Ritsumeikan Ohshima Lab. Code Weaver.
    https://scrapbox.io/OhshimaLab-Ritsumei/Code_Weaver
  • Ryo Watanabe, Toshikazu Ohshima (2022). CARAMEL: A physical mixed reality circuit simulator for learning electricity basics. Laval Virtual 2022 ReVolution #research. Laval, France (April 2022).
  • Ritsumeikan Ohshima Lab. CARAMEL.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/CARAMEL
  • Chisa Yamamoto, Toshikazu Ohshima (2022). ImayohClay: A mixed reality tools for exploring Japanese traditional colors by using clay interface. Laval Virtual 2022 ReVolution #research. Laval, France (April 2022).
  • Ritsumeikan Ohshima Lab. ImayohClay.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/ImayohClay
  • Toshikazu Ohshima (2012). RV-Border Guards 3. Laval Virtual 2013 ReVolution, Demo. Laval, France (March 2012).
  • Ritsumeikan Ohshima Lab. RV-Border Guards 3.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/RV-Border Guards: Attack_of_the_Mech_Insects
  • 大島登志一, 佐藤清秀, 山本裕之, 田村秀行: RV-Border Guards, 日本バーチャルリアリティ学会誌, Vol. 4, No. 4, pp. 699-705. 1999年. DOI: https://doi.org/10.18974/tvrsj.4.4_699.
  • Toshikazu Ohshima (2013). Hyak-Ki Men. Laval Virtual 2013 ReVolution Demo. Laval, France (April 2013).
  • Toshikazu Ohshima, Yuki Shibata, Kohei Isshiki, Ko Hayami, Chiharu Tanaka (2013). Hyak-Ki Men: a study of framework for creating mixed reality entertainment. SA '13: ACM SIGGRAPH Asia 2013 Posters, Article No. 27. DOI: https://doi.org/10.1145/2542302.2542335. Hong Kong, China (November 2013).
  • Ritsumeikan Ohshima Lab. Hyak-Ki Men.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/Hyak-Ki Men: Mixed_Reality_Ninja_Entertainment
  • Chiharu Tanaka, Toshikazu Ohshima (2014). MR Coral Sea. Laval Virtual ReVolution Demo. Laval France (March 2014).
  • Toshikazu Ohshima, Chiharu Tanaka (2014). MR Coral Sea: mixed reality aquarium with physical MR displays. SA '14: SIGRAPH Asia 2014 Emerging Technologies, Article No. 10. DOI: https://doi.org/10.1145/2669047.2669051. Shenzen, China (November 2014).
  • Ritsumeikan Ohshima Lab. MR Coral Sea.
    URL: https://scrapbox.io/OhshimaLab-Ritsumei/MR_Coral_Sea

【口コミ】

  • ※口コミはありません。
ページトップへ戻る