AIを活用したソフトウェアテストの手法を開発へ 日本ナレッジ(株)と連携、品質特性ごとに不具合を分類・解析
2018年12月13日 (木) 投稿者: CSスタッフ
コンピュータサイエンス学部は、学生による様々な学会での発表をはじめ、オープンソースによる学修・研究成果の公開、さらには在学中の起業まで、多彩なチャレンジを体系的にサポートする環境と教育を提供し、意欲ある学生の可能性と能力を伸ばしています。
たとえば最近では、ICT関連の大規模な国際展示会への出展や、オープンソースの世界的会議におけるパネリストとしての登壇など、業界も注目する大舞台で本学学生が活躍しています。 そのほか数多くの学会での表彰や受賞など、視野とフットワークを学外に広げた本学学生の挑戦から、多くの成果が生まれています。
現代社会を支えるICT関連技術の中でも、今後ますます重要性が高まるAI(人工知能)、医療IoT、セキュリティといった先端分野の研究に積極的に挑戦しています。
たとえばAI関連では、ディープラーニング(深層学習)の技術を用いることで「安全な出産」をサポートする手法の開発研究を推進しています。
また、医療IoT分野では、本学の応用生物学部や医療保健学部と共同で、障がい者向けのパソコン操作補助システムの開発や、医療からスポーツ、楽器演奏まで幅広く活用できる超小型モーションキャプチャーシステムの開発など、実用化が楽しみな多彩な研究が進行中です。
2018年12月13日 (木) 投稿者: CSスタッフ
2018年11月 8日 (木) 投稿者: CSスタッフ
11月2~5日に中国の滕州で行われた ISCIIA & ITCA 2018 (The 8th International Symposium on Computational Intelligence and Industrial Applications & The 12th China-Japan International Workshop on Information Technology and Control Applications)において、本学工学部機械工学科卒で、現在は大学院コンピュータサイエンス専攻1年生の阿部優太君(指導教員:大山恭弘教授)と、工学部機械工学科の大久保友雅准教授が、それぞれBest Presentation を受賞しました。
2018年10月11日 (木) 投稿者: CSスタッフ
東京工科大学(東京都八王子)は、AIによる会話データの解析技術などを応用した産学協同による研究成果を、10月16日(火)から19日(金)に幕張メッセにて開催される「シーテック ジャパン 2018」(小間番号:B031)にて紹介いたします。
本展では、本学教養学環およびコンピュータサイエンス学部を中心とした「ディープラーニング・対話・まなびプロジェクト」による、ブログやチャットなど大規模な文章や会話データのAI解析技術を応用した、実用化予定の事例を紹介いたします。また、LINEなどのグループチャットに招待すると会話内容を要約・解析してくれるAIボットの体験デモも実施いたします。
同プロジェクトは、2010年からの長年にわたる研究と実践をベースに、個別のニーズに応じた最適なディープラーニング技術の適用、AIに学習させる教師データの構築、解析結果を処理する人材育成といったノウハウを活かした企業・団体との協働研究を行っています。
2017年2月16日 (木) 投稿者: CSスタッフ
今回は,石畑研究室4年のS君(カラー画像の推定を行ったSくんとは別人です)が行った深度画像の推定です.
深度画像とは,画像の三次元的な奥行き情報を示した画像です.
深度画像を普通の画像として表示すると,遠いところは白く,近いところは黒く表示されます.
普通のカラー画像から,それぞれの画素の奥行き方向の位置を推定します.
部屋の写真で,ベッドと壁が写っていたとします,
人間だったら,壁の方が奥にあるのはすぐ分かります.
これを人工知能にやらせようというものです.
この研究も,多くの研究があり,ニューラルネトワークを使用したものもすでに発表されています.
やはり,先行研究の方法はかなり複雑なので,それを真似してもう少し簡単にしてみることに挑戦します.
ところで,カラー画像から深度画像が推定できると何の役に立つのでしょうか.
一時PokemonGoというゲームが流行りました.
ポケモンを捕まえる時に,カメラをonにしておくと,周りの画像上にポケモンが現れるように表示されます.
(ほとんどの人はこの機能を使って無いようですが)
ポケモンが遠くいた場合,画像中の前の方に物体があった場合,
その物体によってポケモンが隠れて表示されないと変なことになります.
これを実現するためには,画像の奥行き情報が必要になります.
下の絵であれば,ゴルバットは椅子に隠れて欲しいのです.
今回は,カラー画像と深度画像のセットが必要ですが,
Kinnectという装置を使って,データ収集をしました.
研究室近辺のいろいろなところをいろいろな方向から撮ってデータを蓄積しました.
前回同様,とりあえず簡単なニューラルネットワークで実験しました.
左側がカラー画像,真ん中がKinnectで撮った深度画像,右側が適当なニューラルネットで
復元したものです.
学生には,先行研究を参考にネットワークの構成を変えてみるよう言いました.
2017年2月 8日 (水) 投稿者: CSスタッフ
今回は,石畑研究室4年のA君が行ったブレ画像の修復です.
手ぶれなどでぼやけてしまった画像を修復してみようというもので,昔から多くの研究がされています.
ニューラルネトワークを使用したものも,すでに何件か発表されています.
先行研究の方法はかなり複雑なので,やはりそれを真似してもう少し簡単にしてみることに挑戦します.
前回同様,研究室に私が撮った写真がいっぱいあるのでそれをデータとして利用しました.
入力データは,カラー画像を白黒画像に変換して使用します.
手ぶれ画像は,1枚の画像を手ぶれ方向に少しずつずらした画像を合成して作成します.
例えば,横にぶれた画像なら,横方向に1画素ずらした画像,2画素ずらした画像,...
を作り全部を合成する感じです.
人工知能(ニューラルネットワーク)には,作ったブレ画像を入力として与えて,ブレていない画像を出力
させます.
出力してきたデータを元の正解画像と比較して,訓練を進めます.
この辺は,前回の白黒画像への色付けと同じです.
白黒写真の色付け同様,とりあえず簡単なニューラルネットワークで実験しました.
上手くいかないと報告してきたので見てみると,
おお!!ダメダメだ.
左側が,ブラす前の元画像,真ん中がブラした画像,右がニューラルネットで復元してみた画像です.
ブラす方向と量を3通り変えたものを表示しています.
2017年1月27日 (金) 投稿者: CSスタッフ
今回から,今年の学生による人工知能応用の研究を紹介していきます.
上手くいったものもあれば,ダメダメのものもあります.
まず最初は,石畑研究室4年のS君が行った白黒画像の彩色です.
白黒の画像に色をつけてみようというもので,すでに有名な学会に発表された先行研究があります.
先行研究の方法はかなり複雑なので,それを真似してもう少し簡単にしてみることに挑戦します.
研究室に私が撮った写真がいっぱいあるのでそれをデータとして利用しました.
カラー画像は,赤緑青の三原色から構成されています.
白黒画像を作るのは,3色を適当な比率で混ぜ合わせるだけなので簡単です.
一方,白黒の写真に色を塗るには,いろいろな知識が必要になります.
ここで,人工知能(ニューラルネットワーク)の登場です.
ニューラルネットワークに,作った白黒画像を入力として与えて,カラー画像を出力させます.
出力してきたデータを元の正解画像と比較して,訓練を進めます.
左の画像がオリジナル画像,真ん中がそれを白黒写真に変換したものです.
これをネットワークに入力して右の様に色付けして出力するように学習させます.
とりあえず簡単なニューラルネットワークで実験しました.
とても簡単なネットワークでは,予想通り上手くいきません.
S君には,先行研究を参考にネットワークの構成を変えてみるよう言いました.
2017年1月19日 (木) 投稿者: CSスタッフ
人工知能の研究が世界中で進められています.
GoogleやMicrosoft, IBMなどIT業界の巨人はもちろん,
数多くのベンチャー企業が最先端の研究に取り組んでいます.
自動車の自動運転に向けてトヨタなどの自動車メーカーも参加してきています.
最先端の研究には大量の資金・人材が必要ですが,見返りも巨大なので,
みな先を争って研究を進めています.桁違いの資金が投入されています.
このような中で,学生にできることはあるのでしょうか.
あります.
2016年12月20日 (火) 投稿者: CSスタッフ
人工知能やその実現手段の一つであるニューラルネットワークは,何十年も前から研究されてきました.
最近になって,囲碁の名人に勝ったり,TVゲームを上手にできるようになり,
ニュースになり急に脚光を浴び出しました.
なぜこれまでできなかったことができるようになったのでしょうか.
次の三つの理由が挙げられます.
1)人工知能研究の進歩
近年になって深層学習という技術が開発され,
複雑なニューラルネットワークの学習を安定させることができました.
下の図は,画像を分類するニューラルネットワークの構造を表したものです.
図の左側から画像を入力すると,途中に描かれた箱で計算を行い,
最終的に右から分類結果が出てくるものです.
技術の進歩により,このような多段構成のネットワークの学習が可能になりました.
2016年12月 9日 (金) 投稿者: CSスタッフ
人工知能は,文字通り解釈すれば人口の知能ですが,
「知能がある」というのはどういうことでしょう.
私は,外界から入力された情報からなんらかの判断をする力を知能と考えています.
たとえば,犬は,飼い主の顔を覚えて,飼い主が帰ってくると喜びます.
犬にはある程度の知能がありそうです.
コンピュータには知能はあるでしょうか?
コンピュータは「プログラム」と呼ばれる指示を忠実に実行しているだけです.
プログラム中には,人間が一所懸命考えて,この場合はこうする,他の場合はこうする
と事細かく指定します.
コンピュータが高度な判断をしているのは,内部にあるプログラムが知能を実現しているからに
ほかなりません.
猫の画像を見て,猫と判断させる例で考えてみましょう.
コンピュータでは,猫の画像の特徴(髭がある,目が2つなど)
を抽出するプログラムを書いて,一致を見ることで判断します.
どのようなアルゴリズムを使うかで,判断の性能が違ってくるので
そこが研究者の腕のみせどこととなりました.
これまでは,このような高性能なプログラムを実現するアルゴリズムの部分を一所懸命研究してきたわけです.
2016年12月 5日 (月) 投稿者: CSスタッフ
人工知能を学びたい人、この指とまれ!
東京工科大では全学的に人工知能(Artificial Intelligence; AI)の研究を強力に進めようとしています.
コンピュータサイエンス学部(CS学部)は,その推進の中心的役割を果たす学部として
「先進AI研究分科会」を立ち上げました.
CS学部の約半数の研究室が,すでに参加を表明しています.
プロジェクトには,学部や大学院の学生も参加して, 最先端の人工知能の技術を身につけます.
人工知能の技術はこれまでの「プログラムによる処理」とは違った原理に基づいています.
これまで人間が工夫して書いたプログラムにできなかったことが人工知能で
できるようになってきています.