AY 2019 GT Topic Assignments
をテンプレートにして作成
[
トップ
] [
新規
|
一覧
|
単語検索
|
最終更新
|
ヘルプ
|
ログイン
]
開始行:
CENTER:SIZE(60){COLOR(gold){AY 2019 GT Topics }}
*COLOR(yellow){NASH:Neuro-inspired ArchitectureS in Hardware} - http://adaptive.u-aizu.ac.jp/aslint/index.php?NASH [#ab7b22b9]
-[[Reference>http://adaptive.u-aizu.ac.jp/aslint/index.php?Theses#i947aeb8]]
*** 1. Design and Evaluation of a Spiking Neuron Processing Core (SNPC) Based on Crossbar (and Spike-Time-Dependent-Plasticty) [#u565e4fc]
-B4 [[Eiji Yamashita]]
*COLOR(yellow){On-Device AI Hardware and Sofwatre Optimization} [#cd13305a]
***2. Intelligent Recognition of Traffic Hand Sign Command Based on Convolution Neural Network System [#e162b411]
-B4 [[Jun Saito]]
***3. Efficient Convolution Neural Network Architecture Optimization on FPGA [#k8c6bc27]
-B4 [[Miyuka Nakamura]]
*COLOR(yellow){Development of experiment platform for Autoware: Autowareが実行できる安価な自動運転プラットフォームの構築} [#ta25af3e]
自動運転を実現するプラットフォームのオープンソースAutowareを用いた
実験環境を作成する。
In this project, students implement an experimental environment using Autoware that is the open source platform realizes automatic driving.
これには、
- 各種センサを載せられる小型走行車両の制作
- センサとAutowareをつなぐROSモジュールの作成、
- 制作した車両の電子制御
必要となる。
-Development of a compact vehicle on which various sensors can be placed
-Creation of ROS module connecting sensor and Autoware,
-Electronic control of the produced vehicle
** テーマ [#pd8aea7f]
-Implementation of 3-D point cloud matching on FPGA
(3次元点群マッチングアルゴリズムのFPGA実装)
-Evaluation of Depth camera for visual SLAM
(SLAMのためのLidarとDepthカメラの性能評価)
-Implementation of self-driving controller using Network on chip
(Network on chipを用いた自動運転コントローラの実装)
** Reference [#xbc88cee]
- https://autoware.ai/
- [[自動運転の紹介:https://adaptive.u-aizu.ac.jp/aslint/index.php?plugin=attach&refer=AY%202018%20GT%20Topic%20Assignments&openfile=compe_2018.compressed.pdf]]
- [[FPGAコンテスト:https://wwp.shizuoka.ac.jp/design-contest/]]
- [[ICP algorithm:http://graphics.stanford.edu/papers/fasticp/]]
*COLOR(yellow){Embedded controlers using spiking- and binarized neural networks: SNN,BNNを使った新たな組み込み制御} [#zb608f93]
Spiking Neural Network(SNN)を使った算術演算や二値化CNNを利用して、
以下の制御を行う。
In this project, students implements small systemsusing Spiking Neural Network (SNN)
and/or binarized neural networks(BNN).
** テーマ [#lc56cdda]
-Implementation of flight controller for quad-copter using pulse frequency modulation
(PFMを用いたドローンの制御):新明
-Evaluation of simple Spiking neural networks using MNIST dataset
(SNNを用いたMNISTデータセットの識別):新明
-Traffic sign detection using binarized neural network
(Binarized neural network を用いた交通標識の認識):井上
-Implementation of Kalman filter for neural engineering framework
(NEFを用いたカルマンフィルタの実装): Saito
** Reference [#d8145ef2]
- [[Neuro-Inspired Spike-Based PID:http://www.mdpi.com/1424-8220/12/4/3831]]
- [[サルの脳に電極を埋め込んでSpiking Neuronで構成されたKalman filterで推定する:https://web.stanford.edu/group/brainsinsilicon/documents/DethierJNE2013.pdf]]
- [[DC brashless motor controllor on FPGA:https://ieeexplore.ieee.org/document/5653617/]]
- [[Binarized neural network:https://github.com/Xilinx/BNN-PYNQ]]
- [[FPGAでDeep Learningしてみる - きゅうりを選果する:https://qiita.com/ykshr/items/08147098516a45203761]]
*COLOR(yellow){Environment recognition using image sensors: イメージセンサを使った環境理解} [#k0a93168]
カメラはセンサの中で最も情報量デバイスであるが、処理量も多くなる。
なるべく処理量・処理時間の少ないアルゴリズムを作る。
- SVO: カメラを使った姿勢推定
- SLAM: 自己位置推定と地図作成の同時実行
Cameras have the most information quantity among the sensors.
However, processing load increases to extract useful information from images.
Students implement algorithms to reduce processing load and processing time as possible.
- SVO: Posture estimation using camera; https://ieeexplore.ieee.org/document/7782863/
- SLAM: Simultaneous execution of self location estimation and cartography; https://128.84.21.199/abs/1610.06475
- TSCDP: Time Space Continuous Dynamic Programming; https://ci.nii.ac.jp/naid/110009713447
** テーマ [#qeeff0c4]
-Noise elimination using TV-L1 regularization on FPGA
(TV-L1正則化を使ったノイズ除去のFPGA実装)
-Efficient algorithm for depth estimation from ego-motion
(自己運動するカメラから深度を推定するアルゴリズムの高速化):小貫
-Implementation of real-time semi-visual odometetory using FPGA
(FPGAを用いたSemi visual oddometoryの高速化):荒川
-Video classification using TSCDP and SVM
(TSCDPとSVMを用いた動画像の認識): 中村
** References [#h1e84b0f]
- [[L1正則化:https://lp-tech.net/articles/CY2Kn]]
- [[TV-L1正則化:https://lp-tech.net/articles/tkPFr]]
- [[3D reconstruction and optical flow estimation:http://www.cvl.iis.u-tokyo.ac.jp/data/uploads/papers/Menandro_OpticalFlow_WACV2018.pdf]]
- [[SVO:https://www.youtube.com/watch?v=oh-czUPQeJU]]
- [[ORB-SLAM:https://www.youtube.com/watch?v=ufvPS5wJAx0]]
終了行:
CENTER:SIZE(60){COLOR(gold){AY 2019 GT Topics }}
*COLOR(yellow){NASH:Neuro-inspired ArchitectureS in Hardware} - http://adaptive.u-aizu.ac.jp/aslint/index.php?NASH [#ab7b22b9]
-[[Reference>http://adaptive.u-aizu.ac.jp/aslint/index.php?Theses#i947aeb8]]
*** 1. Design and Evaluation of a Spiking Neuron Processing Core (SNPC) Based on Crossbar (and Spike-Time-Dependent-Plasticty) [#u565e4fc]
-B4 [[Eiji Yamashita]]
*COLOR(yellow){On-Device AI Hardware and Sofwatre Optimization} [#cd13305a]
***2. Intelligent Recognition of Traffic Hand Sign Command Based on Convolution Neural Network System [#e162b411]
-B4 [[Jun Saito]]
***3. Efficient Convolution Neural Network Architecture Optimization on FPGA [#k8c6bc27]
-B4 [[Miyuka Nakamura]]
*COLOR(yellow){Development of experiment platform for Autoware: Autowareが実行できる安価な自動運転プラットフォームの構築} [#ta25af3e]
自動運転を実現するプラットフォームのオープンソースAutowareを用いた
実験環境を作成する。
In this project, students implement an experimental environment using Autoware that is the open source platform realizes automatic driving.
これには、
- 各種センサを載せられる小型走行車両の制作
- センサとAutowareをつなぐROSモジュールの作成、
- 制作した車両の電子制御
必要となる。
-Development of a compact vehicle on which various sensors can be placed
-Creation of ROS module connecting sensor and Autoware,
-Electronic control of the produced vehicle
** テーマ [#pd8aea7f]
-Implementation of 3-D point cloud matching on FPGA
(3次元点群マッチングアルゴリズムのFPGA実装)
-Evaluation of Depth camera for visual SLAM
(SLAMのためのLidarとDepthカメラの性能評価)
-Implementation of self-driving controller using Network on chip
(Network on chipを用いた自動運転コントローラの実装)
** Reference [#xbc88cee]
- https://autoware.ai/
- [[自動運転の紹介:https://adaptive.u-aizu.ac.jp/aslint/index.php?plugin=attach&refer=AY%202018%20GT%20Topic%20Assignments&openfile=compe_2018.compressed.pdf]]
- [[FPGAコンテスト:https://wwp.shizuoka.ac.jp/design-contest/]]
- [[ICP algorithm:http://graphics.stanford.edu/papers/fasticp/]]
*COLOR(yellow){Embedded controlers using spiking- and binarized neural networks: SNN,BNNを使った新たな組み込み制御} [#zb608f93]
Spiking Neural Network(SNN)を使った算術演算や二値化CNNを利用して、
以下の制御を行う。
In this project, students implements small systemsusing Spiking Neural Network (SNN)
and/or binarized neural networks(BNN).
** テーマ [#lc56cdda]
-Implementation of flight controller for quad-copter using pulse frequency modulation
(PFMを用いたドローンの制御):新明
-Evaluation of simple Spiking neural networks using MNIST dataset
(SNNを用いたMNISTデータセットの識別):新明
-Traffic sign detection using binarized neural network
(Binarized neural network を用いた交通標識の認識):井上
-Implementation of Kalman filter for neural engineering framework
(NEFを用いたカルマンフィルタの実装): Saito
** Reference [#d8145ef2]
- [[Neuro-Inspired Spike-Based PID:http://www.mdpi.com/1424-8220/12/4/3831]]
- [[サルの脳に電極を埋め込んでSpiking Neuronで構成されたKalman filterで推定する:https://web.stanford.edu/group/brainsinsilicon/documents/DethierJNE2013.pdf]]
- [[DC brashless motor controllor on FPGA:https://ieeexplore.ieee.org/document/5653617/]]
- [[Binarized neural network:https://github.com/Xilinx/BNN-PYNQ]]
- [[FPGAでDeep Learningしてみる - きゅうりを選果する:https://qiita.com/ykshr/items/08147098516a45203761]]
*COLOR(yellow){Environment recognition using image sensors: イメージセンサを使った環境理解} [#k0a93168]
カメラはセンサの中で最も情報量デバイスであるが、処理量も多くなる。
なるべく処理量・処理時間の少ないアルゴリズムを作る。
- SVO: カメラを使った姿勢推定
- SLAM: 自己位置推定と地図作成の同時実行
Cameras have the most information quantity among the sensors.
However, processing load increases to extract useful information from images.
Students implement algorithms to reduce processing load and processing time as possible.
- SVO: Posture estimation using camera; https://ieeexplore.ieee.org/document/7782863/
- SLAM: Simultaneous execution of self location estimation and cartography; https://128.84.21.199/abs/1610.06475
- TSCDP: Time Space Continuous Dynamic Programming; https://ci.nii.ac.jp/naid/110009713447
** テーマ [#qeeff0c4]
-Noise elimination using TV-L1 regularization on FPGA
(TV-L1正則化を使ったノイズ除去のFPGA実装)
-Efficient algorithm for depth estimation from ego-motion
(自己運動するカメラから深度を推定するアルゴリズムの高速化):小貫
-Implementation of real-time semi-visual odometetory using FPGA
(FPGAを用いたSemi visual oddometoryの高速化):荒川
-Video classification using TSCDP and SVM
(TSCDPとSVMを用いた動画像の認識): 中村
** References [#h1e84b0f]
- [[L1正則化:https://lp-tech.net/articles/CY2Kn]]
- [[TV-L1正則化:https://lp-tech.net/articles/tkPFr]]
- [[3D reconstruction and optical flow estimation:http://www.cvl.iis.u-tokyo.ac.jp/data/uploads/papers/Menandro_OpticalFlow_WACV2018.pdf]]
- [[SVO:https://www.youtube.com/watch?v=oh-czUPQeJU]]
- [[ORB-SLAM:https://www.youtube.com/watch?v=ufvPS5wJAx0]]
ページ名: