ディズニーランドでのボランティア(KIDS プロジェクト)

  あまり知られていないと思うが、障がい児をサポートするというボランティアが年に 1度だけディズニーランドで行われている。KIDS というボランティア団体(NPO)が主催で、KIDS プロジェクトという名前が付いている。

  KIDS プロジェクト、つまりディズニーランドでのボランティアは、毎年 6月の上旬の金曜日に開催されていて、参加するには丸 1日会社の休みを取り、さらに交通費や入園料まで自腹を切らなければいけない。つまりボランティアするのに自分の方から金がかかる。が、なかなか面白い企画で、私は日本にいるときは毎年のように参加していた。

  ある年、都内に住むあやちゃん(6歳)をサポートした。彼女は目が見えないのである。園内は広いので、当然彼女には介助が必要である。

  まず最初にファーストフードのレストランに行った。こちらが食べ物を買って、食べるのを手伝うのだが、あやちゃんにとっては何を食べさせられるのか、何を飲ませられるのかわからない。だからこちらがすべて言葉で説明する。あやちゃんはハンバーガーを手探りで食べる。

  食事後、ボランティアが左の手をつないで歩いていた。右側は白杖(白い杖)を持っている。そのため、人ごみの中だと右肩が人とぶつかる可能性がある。

  軽いスロープがあった。階段もある。

  どこかアトラクションに行こうと歩き出した。この間、あやちゃんはボランティアに「今何が起こっているか全部(言葉で)話して」という。

  あやちゃんのリクエストでシンデレラミステリーツアーに行く。このアトラクションは 20分程度、乗り物には乗らずに階段をあがったりする場面がある。ツアーなので乗り物系よりも楽しめるのかも知れない。

  さて、ここまででわかったことは、本人は事前にどんなことをするのかされるのか知らされるのがよいということだ。私も IT エンジニアの端くれ、このとき IT を使ってあやちゃんをサポートできないのか考えてみた。以下はそのストーリーである。青字の部分が、IT がサポートできそうなシナリオである。

  まず最初にファーストフードのレストランに行った。こちらが食べ物を買って、食べるのを手伝うのだが、あやちゃんにとっては何を食べさせられるのか、何を飲ませられるのかわからない。すべて言葉で説明する。あやちゃんはハンバーガーを手探りで食べる。

  →周囲のものを判断して(あやちゃんに逐一)知らせて
   くれる。

  食事後、ボランティアが左の手をつないで歩いていた。右側は白杖(白い杖)を持っている。そのため、人ごみの中だと右肩が人とぶつかる可能性がある。

  →接近する人やモノ、状況(=コンテクスト)を感知して
   知らせてくれる(園内と白杖にセンサをつけたら
   よい)。つまりセンサ同士が反応する。

  →それが他人なのか、知人なのかも判断する。

  軽いスロープがあった。階段もある。

  →歩いている道がどんなものなのか、その先に
   何があるのかを知らせる。

  どこかアトラクションに行こうと歩き出した。この間、あやちゃんはボランティアに「今何が起こっているか全部(言葉で)話して」という。

  →今起こっている状況をポイントをピックアップして
   逐一説明する。

  すべての IT 技術者にこのようなシナリオを知って欲しい。IT 技術者、特に研究開発に従事している人であれば、自分の取り組んでいる技術がどんなことに使えるのかユースケースやシナリオを考えることは必須であろう。そのときに、障がい者の目線に立って考えてみて欲しい。きっとヒントがあるはずだから。そしてそれはきっと、技術者にとっても障がい者にとっても、Win-Win なシナリオなのだ。

  あやちゃんのことは実際問題、他人事だろうか?たまたま彼女は生まれつき目が見えなかったが、目が見えなくなることは、(今は目が見える)私たちにも将来起こり得ることなのだ。ひょっとすると自分ではなく身近にいる家族がある日突然交通事故に遭って体が不自由になる可能性だってある。それは先天的、後天的な差でしかない。そう考えると、上で示したシナリオを実現していくのは、すべての IT 技術者の義務じゃないかとさえ思う。

Trackback URL for this post: https://econo.twinkle.cc/trackback/185
Posted on 2006-09-05 by yas |

f さん

今できること、少し先に実現可能なこと、そして将来実用化されそうなことと、短期・中期・長期に技術のマイルストーンを置いて整理していけばいいのだと思います。個々のサービスに優先度も加味しなければなりませんね。

人間の感覚って、視・聴・触・味・嗅覚の5つしかないから、視覚以外のこれらをうまく活用することになるのでしょう。

究極的には Matrix みたいな世界になるのでしょうね。幻覚?

Posted by yas (未認証ユーザ) on 2006/09/10(日) 10:46

音声といってしまったのがまずかったですね。「音」をずっと注意しながら聞くのが大変という意味です。
また、バラエティに富んだアラームやガイド音声を用意すると、今度は一緒に歩いている人と会話することが出来なくなるわけですw

手に握るのではなく、例えばテレビの収録をする際につけるマイクセットのようなもので何らかの刺激を受けるものならどうかなと思うわけですが、正直自分がみえなくなったときに、いつも背中に何かビリビリくるようなものを使用したいかというと、あんまり嬉しくないでしょうね。

情報を無意識に得つつ、意識的に取捨選択できるような技術があればいいなあと思います。耳で聞くのではなく、脳で聞くとかね。聞こえているけれども、脳と耳とで聞こえ方が違うから、会話を耳で聞きながら負担にならないように無意識かでアラーム音を感じている、というようなイメージですかね。SFすぎるかw

Posted by f (未認証ユーザ) on 2006/09/08(金) 21:12

f さん、コメントありがとうございます。

以前、私はコンテクスト・アウェアネスのシステムの研究開発をしていたのですが、まさに徐々に実用ラインに入りかけているところです。

IT は実現手段なので、それをどう使うかが問題ですね(映画 『アポロ 13 (Apollo 13)』)。

現実問題としては、知らせるという伝達手段としては、聴覚には音声だけでなく、着メロやアラーム音なども組み合わせることができるでしょうし、ケータイのバイブ機能をもっと細かく制御できるようにして触覚に訴えることもできるでしょう。

ケータイみたいなものを常に手に握っていてそれがガイド役になるようなハードの開発が必要ですが、、もっとインテリジェントな白杖があってもいいんじゃないかとボランティアしてるときには思いました。

手だけでなく、帽子や上着、靴など、いろいろなところにバイブをつけて知らせてもいいかもしれません(今なら Bluetooth とか使えば通信できそう)。

Posted by yas (未認証ユーザ) on 2006/09/08(金) 07:48

上記の提案はずっと研究されていて、徐々に実用ラインに入りかけているものもあるのですが…。

問題は、ずっと音声でそれらの情報を聞いていると疲れてしまうことですね。
視覚で得られない情報を聴覚で補うには負担が大きすぎるのです。
点字は習得できる層と情報量がどうしても限られるので、点字に変わる触読手段がないものかと頭を悩ませています。

Posted by f (未認証ユーザ) on 2006/09/08(金) 05:52