東京藝術大学 大学院 音楽音響創造

要旨

朱 墨丹青
Reality-based Interfacesの使用とビデオゲームサウンドの表現 -ビデオゲームの現実感を拡張するため-

本論はreality-based interfacesを使用するビデオゲームの現実感を高めるための、「ビデオゲームサウンドの表現によって、ゲーム中に生み出される現実感のあり方を検証する」を新しい分析方法として、reality-based interfacesの使用とビデオゲームサウンドの表現を分析した。分析の結果から、reality-based interfacesの使用より、高められたビデオゲームサウンドの特質は、「感覚的現実感」のみを表現することができる、という結論を得た。

現在、ビデオゲームサウンドのインタラクションについての研究は、主にコリンスが2007年に提示した研究方法を使用する。しかし、この理論は伝統的なヒューマンコンピュータインタラクション(以下HCI)に基づいて提出されたため、近年の新たなインタラクションやインタフェースを使うビデオゲームのサウンドに、適合しない問題が生じた。また、reality-based interfacesを使用するビデオゲームにおける現実感とゲームサウンドを関連づけて研究する方法はまだ充分に確立されていない。故に、新しい研究方法の開拓が望まれる。

第1章ではビデオゲームサウンドが誕生した時から2000年まで、その進化の歴史について論述した。また、ビデオゲームサウンドの研究の現状を文献資料からまとめ、現実感についての研究方法はまだ確立されていないという現状を明らかにした。

第2章ではサウンドとHCIについて論述した。第1節では、HCIの発展の歴史と、reality-based interactionについて論じた。Reality-based interactionは2006年に、Robert JacobがHCI領域の研究と新しいインタフェースのために提出したフレームワークである。彼は新しいインタラクションの相違点を見出し、Reality-based interactionを定義した。それは「現実でのインタラクションと、現実のインタラクションを模倣するHCI」というものである。Reality-based interactionを実現するには、例えばバーチャル・リアリティで使用するヘッドセット、眼球運動に基づくインタラクションで使用するメガネなど、各種のインタフェースが必要になる。これらのインタフェースは、reality-based interfacesと呼ばれる。第2節では、(ゲーム)サウンドの制作とHCIの歴史と現状を考察した。HCIの発展に、もっとも影響されたのは音楽の制作と考える。そのため、本節では音楽とHCIの関係に着目して考察した。

第3章では、ビデオゲームサウンドとReality-Based Interfaceについて論述した。第1節ではActive Video Gameとゲームコントローラの方面から、ビデオゲームとReality-Based Interfacesの使用について分析した。第2節では、ビデオゲームサウンドとReality-Based Interfacesの使用法を分析し、新しい研究方法の有効性を検証した。その新しい表現方法とはビデオゲームサウンドそのものの表現と、ビデオゲームサウンドが拡張する現実感の表現である。ビデオゲームサウンドの表現には3つの要素がある。それは音量、方向、テンポである。また、ビデオゲームサウンドが拡張する現実感の表現については、reality-based interactionにとっての4つの現実から分析した。すなわち、単純な物理的感知、身体的な知覚と技能、環境的な知覚と技能、社会的な知覚と技能である。

第4章の事例研究では、上述の新しい研究方法を用い、reality-based interfacesを使用する4つのビデオゲームを実例として、そのサウンドが作り出す現実感について考察した。研究結果を振り返ると、現段階では、ビデオゲームサウンドにおいてreality-based interfacesの使用より、高められるのは「感覚的現実感」の表現のみ、ということが明らかになった。

本論には、新しい研究方法を提出するだけでなく、副次的な目的もある。それは、ビデオゲームサウンドとHCIの関係についての注意を喚起し、HCIとビデオゲームサウンドの研究方法を確立することである。加えて、将来のビデオゲームサウンドとreality-based interaction、及びゲームサウンドとHCIの研究領域の研究者に、基礎的資料を提供することも目的としている。


ZHU Modanqing
The using of Reality-based Interfaces and the expression of video game sound: for enhancing the reality experience for users in the video games

In this thesis, a new approach is proposed for researching the sense of reality produced by sound in the video games using the reality-based interfaces. The method is, to verify the reality that is created during the game through the expression of the video game sound. As concluded, it could be seen that the game sound can only enhance the  expression of  “reality for feeling”, but not the “reality for emotion”.

Currently, video game sound interaction research is still mainly using the research method proposed by Karen Collins in 2007. However, since this theory was originated based on traditional human-computer interaction (HCI for short). It is found today that theory and techniques do not quite fit in the sound of video games using new interactions and interfaces in recent years. Also, the methodology of studying the reality of video games using reality-based interfaces and game sound has not been well established. Therefore, the need for a newer research methodology becomes very necessary.

The intention of this research is not only to propose a new research method but also serves a secondary purpose, that is, to draw the attention to, and to purport the establishment of, the relationship between video game sound and HCI. Besides, it also aims to provide basic materials for future researches on video game sound and Reality-based Interaction as well as in the field of video game sound and HCI.