人生のオープンソース化。

AI・データサイエンス

脳科学ってヤバイ 脳科学を学びたいと思っている人へ

Short-term synaptic plasticity(STSP、短期シナプス可塑性)とは?

Short-term synaptic plasticity(STSP、短期シナプス可塑性)   ワーキングメモリ関係の論文を読むとShort-termシナプス可塑性(Short-term synaptic plasticity: STSP)という言葉が出てきます。 何がショートタームかというと、シナプスのハード面(受容体やチャネルの種類)を変化さえずに、ソフトな部分(神経伝達物質を枯渇……

修士号の取得基準を外部の指標(論文や学会)も入れて明確化すべきでは

学歴ロンダリングはなぜ差別されてしまうのか? 現役大学院生が考えてみた

学歴ロンダリングがちょっと前に話題になっていました。 ロンダリングってちょっとネガティブな言葉ですね。まるで学歴を偽装しているみたいに聞こえます。 でも、修士号や博士号をその大学でとったならば、まぎれもなくその人はそこの卒業生ですし、同じ空間に留まらず学ぶ場所や分野を変えるのは僕はすごくいいことだと思います。 それなのに、修士進学のタイミングで他大に移った人のことをちょっと差別的に「学歴ロンダリン……

GUIで作ったユーザーにログインできない

ラグランジュ緩和法によるスケジューリング問題をpythonで解く

レポート課題でなんでもいいからラグランジュ緩和法で制約付き最適化問題を解いてくるものを作ってこいといわれたので。Pythonで解いてみました。 子問題に分解できる簡単なパターンです。(制約は2つ、変数も2つ)おんなじ状況に陥った人は使てやってください。   Pythonでラグランジュ緩和法によるスケジューリング問題を解く   こちらがクラス class Lagrangian_r……

豊橋科学技術大学(技科大)で開催されたNC研究会に行ってきました。

NC研究会に行って・・・ 2019/12/6

初めに断っておきますが、NC研究会というよりはここ半年間くらいの研究室生活の話が多いです。 12/6にNC研究会に行ってきました。     ツッコみ待ちのところを突っ込んでもらえずいつも通りの指摘を受けた   ここんとこ発表続きだったし、とくに新しい結果とかないんですけど、奨学金の免除のために出版物として投稿もできる学会を探していてNC研究会に行きました。 学内の先生……

ワーキングメモリにおける時系列情報の保持と行動のための神経機構 発表資料-NC研究会・脳医工学研究センター

  発表資料作りがてら、今度の口頭発表向けの研究結果をここにまとめておこうと思います。 修士の学生が研究室での成果をブログで公開しちゃうのはどうなのか?とも思うんですけど、僕はもう数か月でここからいなくなるし、先生もあと2年で退官しちゃうので、自分の研究(先輩方の成果も含む)が論文として日の目を見る可能性もうなくなりました。 なんで、完全にロストしてしまうのであれば、個人ブログの記事とし……

脳科学ってヤバイ 脳科学を学びたいと思っている人へ

脳科学のシミュレーションの研究でありがちの”やらせ感”

脳科学の系の学会誌に原稿を載せてもらうために参考文献を漁ってて、今所属している研究室にいた人間が書いた論文を探していたんですが、 自分の前任の今はいない先輩が書いた論文に対してアメリカのどっかの実験系の脳科学の研究者のブログでその先輩の論文を引用して、「我々が最近実験で示された結論がシミュレーションでも証明されたか、ふむふむ」的なことを書いているページを見ました。 日本の弱小研究室の論文を読んでい……

脳科学ってヤバイ 脳科学を学びたいと思っている人へ

日本神経回路学会に行って RNNってそんなに長いチャンクを認識する必要がないと思った

9月の4日に東工大でやってた日本神経回路学会に行ってきました。 めっちゃマイナーな学会ですけど、AIでもない神経科学でもない、ウェットとドライの中間のニューラルネットワークをやってるうちらにとってはすごい同業が多いというか、みんなお互いの微妙な立ち位置を理解しているから話が早い学会です。 逆に、統計学、AI、神経科学を専門でやっている人たちはいなくはなかったですが、ちょっとアウエーな感じになってま……

脳科学ってヤバイ 脳科学を学びたいと思っている人へ

脳神経科学の研究室でニューラルネットワークをやって、AIは人間を超えられない気がしてきた。

このブログで何回か話していますが、学部4年の半導体の研究室で先生と喧嘩して研究室を追い出されたあと、脳神経科学の研究室でニューラルネットワークを研究しています。 なんで、脳神経科学でAIに使われているニューラルネットワークを研究しているの?って疑問に思うかもしれませんが、ニューラルネットワークって脳神経の働きをシミュレーションするために開発かされた脳の簡易化モデルで、もともとはニューラルネットワー……

ホームディレクトリ変更

[解決方法]バックプロパゲーション・誤差伝播で、誤差がある0ではない値に収束する時

パーセプトロンを誤差伝播、バックプロパゲーションで学習させている時に、学習が終わらなくなった時のトラブルシューティングです。 症状としては、 誤差がある0ではない値に収束して学習が進まない、出力層の出力を確認すると出力がすべて0になっているか、-1になっている状態です。 こんな時に考えるバグは 最初に逆伝搬させている勾配が、損失関数(誤差関数)の微分ではなく損失関数自体になっている   ……

ホームディレクトリ変更

[随時更新]多層パーセプトロンでmnistを学習さえて、CとPythonの速度を比較する

研究室的にやたらニューラルネットワークをCとPythonで動かしたときの速度差が気になる。 人工知能を学習する上で使う言語はPython一択ですし、Cでネットワークを実装するとなると使えるライブラリがなくてかなり厳しいことになります。なんで、そんなこと気になる人ってほとんどいないと思います。 ところが、自分で所属している研究室ではニューラルネットワークをフルスクラッチで(主にCで)実装していくとい……