ピックアップ研究室

3年次の秋学期から、学生は研究室に所属
教員が取り組むさまざまなテーマから、
最も興味・関心を持つ研究を探していきます

秋山 豊和 教授

インターネットミドルウェア技術の研究開発

14 号館の1階にあるサーバルーム前にて。秋山豊和研究室では「便利な仕組みの裏側」に迫る。
研究室の冷蔵庫には、学生が自作した「ドアの開きっぱなし防止センサ」が設置されている。ミドルウェア開発はこうした情報を集めるセンサなどIoT 機器との親和性が高い。
「I oT」という言葉が、最近はすっかり一般的になりました。Internet of Things、つまり“モノのインターネット”。家電、車、家具、ペットの首輪……あらゆるモノに通信機能が付き、ネットにつながっています。またスマートフォンやクラウドサービスの普及により、世界中の人たちが、毎日長い時間インターネットに接続しています。
昔のインターネットは、コンピュータ同士をつなぐ比較的シンプルなネットワークでした。しかし現代は、世の中のあらゆるモノが24 時間365日ネットにつながりっぱなしです。通信データの量は爆発的に増えたのに、途切れさせることなく、しかも常につながった状態にする……実はこれは、とても大変なことなのです。
その大変なことをやっているのが、インターネットのミドルウェア。パソコンやスマートフォンアプリ、通信機器などユーザーが使う部分と、インターネットをつなぐ、中間部分にあるシステムのことです。私の専門は、そのインターネットミドルウェア技術。複雑な処理が必要な高度なアプリケーションを構築する中で、既存のミドルウェアとどう組み合わせ、どうやってセキュリティ対応し、どのように速度を出しつつ安定運用するか。こうしたことを長年研究してきました。
少し前に開発していたのは、IoT によるバス安全運転支援システムのミドルウェア。走っているバスにセンサと通信機器を付けて、バスの走行状況や運転手の健康状態などのデータを計測し、サーバに送ります。「速く走りすぎではないか」とか「急ブレーキを踏んでいる」といった情報をリアルタイムで集めて分析し、バスが危ないと検知したらすぐに運転手に警告を出して知らせるというシステムのミドルウェアです。
私の研究室に所属しているのは、こうしたミドルウェアやネットワークに関心のある学生たちです。インターネットは、誰にでも使えるなくてはならない社会インフラとなりました。「見えないけど、大事なもの」であるインターネットを支えるために、覚えるべき知識も増えています。積極的にネットワークの知識と技術力を身に付けてほしいですね。

棟方 渚 准教授

人間と人工物との持続的なインタラクション

14号館の3階にある実験住宅にて。日常生活の中でのロボットの「適切な振る舞い」を研究する。
実験住宅は玄関まである本格仕様。研究室には小型ヒューマノイドロボット「Nao」があり、人と共に暮らすための実践的な研究、実験が行われている。
京都産業大学のキャンパスには、“家”があります。スマートホームやロボットの研究をするための実験住宅「三Home(くすぃーほーむ)」です。
私の研究テーマは、「人間と人工物との持続的なインタラクション」。人工物は、ゲームやロボットなどいろいろです。例えば家庭内ロボットならば、どんな振る舞いをしたらずっと一緒にいても楽しいか。人間同士であれば無意識に“空気を読む”ということをしますが、ロボットは空気を読めません。「今盛り上がっているみたいだから黙っていた方がいい」「さみしそうだから近寄って話しかけよう」など、そういう判断をロボットが行い、自律的に行動できるようにするには、何らかの方法で人間の状態を測らなくてはなりません。しかし、人間のジェスチャーや表情をカメラで見たり、心拍数や発汗などの微妙な上昇下降から判断したりするには、ロボットのカメラやセンサ、マイクの性能では足りないのです。だから、IoTを駆使する。スマートホーム内に設置したセンサや人間が持っているスマートフォン、腕に着けているスマートウオッチなどを使って人間の情報を読み取り、その情報とロボットが連携してインタラクションを行う、といった研究が私の専門です。
研究室に、今、面白い研究をしている学生がいます。家庭用ロボットを購入して、初めてその箱のふたを開けたとき、起き上がったロボットが最初にどんな振る舞いをしたらいいのか?という研究です。例えば、たどたどしく転んでしまうような振る舞いをすることで「かわいらしいな」と思ってくれる人がいる一方、機能重視の人は「デキの悪いヤツだな」とがっかりしてしまう。この“がっかり”をなくすために、どんなことが必要だと思いますか?これも、人とロボットのインタラクションの研究の一つです。
こうしたロボットの研究には、さまざまな分野の知識が求められます。インタラクションを持続できるロボットを作るには、ハードウェアとソフトウェア両方の技術的向上が必須なのはもちろん、慣れや飽きといった、人間の特性を理解することも必要になるからです。

永谷 直久 准教授

昆虫の行動軌跡を解明し
レスキューロボットの開発に活かす

子育てや餌探しなど、集団で行動するアリ。しかし、どのように餌を探し当てているのかは明らかになっておらず、そこには効率的に餌を探し当てるための探索の仕方があるはずです。そこで、アリの探査アルゴリズムを解明するために、昆虫用のVR実験装置を開発。学生自ら設計図を作成し、3Dプリンタを用いて装置をつくることから研究に取り組んでいます。VRにより無限の平面をつくり出し、数年かけて行動の軌跡を解析していく中で、一定のアルゴリズムが見えてきました。一見、人間には関係のない研究のように見えますが、未知に広がる空間内で効率的に餌を探す行動は、災害時のがれきや障害物がある中で、いち早く被災者を発見する救助活動に置き換えることができます。このデータをもとに、災害時に活躍するレスキューロボットの開発や、月や火星を探査するロボットの改良に応用できると考えています。

メッセージ

研究には、明確な答えや解法がありません。正しい答えを求めるのではなく、いろんな視点からアプローチする柔軟な姿勢が大切です。この研究室では、個人のテーマ研究だけではなく、学外のVRコンテストやハッカソンなどにも積極的に取り組んでいます。好奇心と根気をもち、興味を探究したいと思う人と一緒に活動していけたらと思います。
ダンゴムシの行動の軌跡を集計する装置。歩行に合わせ地面の球体が回転、連続してデータを計測することができます。
研究室内にある3Dプリンタは自由に扱うことが可能。自らの手で研究テーマに必要な実験装置をつくっています。

宮森 恒 教授

人間とコンピュータがより正確に対話する
「連想対話モデル」の開発

人間とロボットが対話できるシステムなど、高性能なシステムが次々と開発されています。一見、人間以上に賢い処理をしてくれているように見えますが、言葉や映像を人間のように理解できているかというと、まだ遠く及ばないのが現状です。例えば、「蜘蛛の足は何本ですか?」という質問に対して、「3本」と答えてしまうのが従来のシステム。人間のように、蜘蛛を頭の中で視覚的にイメージして、「8本」と答えることができないのです。それを解決するのが、私たちが開発に取り組んでいる「連想対話モデル」です。これは、発話文に対して視覚的なイメージをコンピュータに連想させることで、従来よりも正確な応答を行うシステム。蜘蛛の映像と文の情報との対応関係を数値化して学習し、文から映像をイメージするしくみを取り入れることで、正確な応答文を導き出します。人工知能が発達し、人間とロボットが共存する社会になりつつある中で、両者のコミュニケーションの促進に貢献できると考えています。

メッセージ

人間と会話できるロボットや、質問に応答するWebサービスには、まだ多くの課題が残っています。この研究室では、「マルチメディアデータ理解」をテーマに、言葉や映像の内容を、コンピュータが人間と同じように理解する方法と、それによる新しい付加価値を持つ応用システムの研究を行っています。機械学習に興味がある人や、新しいものをつくってみたいと思う人は、ぜひ研究室の扉を叩いてほしいと思います
蜘蛛が動いている動画と、蜘蛛の文の意味を数値化。文から映像を連想するシステムを取り入れます。
グラフ構造を使ったシステムを構築。キーワードの相関を明らかにすることで、より具体的な文章表現が可能になります。

蚊野 浩 教授

先進医療や自動運転に応用できる
創造的なアイデアに基づいた画像・映像の開発

画像や映像は、デジタル機器やネットワークシステムなどにおいて重要な情報メディアであり、次々と新しい技術が生まれている領域です。研究室では、その最先端の技術を理解し、さらに社会への応用を目指した研究に取り組んでいます。例えば、通常のカメラと異なり、レンズに入射する光をデータとして記録するカメラ。撮影後に任意の部分へピントを合わせることや、3D写真への出力が可能になり、街頭の監視カメラへの応用が期待されています。ほかにも、名刺サイズのコンピュータ基板と小型カメラを搭載した自動車模型を利用し、自動運転のしくみの再現にも取り組んでいます。画像や映像の技術は、テレビやゲーム機だけでなく、医療やものづくりの現場など社会のあらゆるシーンで活用されています。最先端の技術に触れて生まれた各自のアイデアに基づき、新たな可能性を見いだす画像・映像システムの開発を志しています。

PAGE TOP